Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

如何在本地用 CPU 跑大模型 | Oilbeater 的自习室 #21

Open
oilbeater opened this issue Jul 27, 2023 · 3 comments
Open

如何在本地用 CPU 跑大模型 | Oilbeater 的自习室 #21

oilbeater opened this issue Jul 27, 2023 · 3 comments

Comments

@oilbeater
Copy link
Owner

https://oilbeater.com/2023/07/27/local-cpu-llm/

@JIeJaitt
Copy link

JIeJaitt commented May 1, 2024

本地大模型做代码分析和信息摘要应该就是类似微软的github copilte一样的工具吧。另外大佬说买不起m系列的mac,m系列的mac难道对大模型训练有加成吗?我记得m系列的mac好像我不是独显

@oilbeater
Copy link
Owner Author

@JIeJaitt
本地大模型做代码分析和信息摘要应该就是类似微软的github copilte一样的工具吧。另外大佬说买不起m系列的mac,m系列的mac难道对大模型训练有加成吗?我记得m系列的mac好像我不是独显

M 系列内存带宽大,而且有专门的加速单元

@JIeJaitt
Copy link

JIeJaitt commented May 2, 2024

@JIeJaitt
本地大模型做代码分析和信息摘要应该就是类似微软的github copilte一样的工具吧。另外大佬说买不起m系列的mac,m系列的mac难道对大模型训练有加成吗?我记得m系列的mac好像我不是独显

M 系列内存带宽大,而且有专门的加速单元

2020年出的 M1 也有吗?

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

2 participants