Skip to content

Commit

Permalink
Update docs README.md
Browse files Browse the repository at this point in the history
  • Loading branch information
AXYZdong committed Aug 17, 2024
1 parent f18a202 commit 898a4f7
Show file tree
Hide file tree
Showing 2 changed files with 11 additions and 5 deletions.
12 changes: 9 additions & 3 deletions docs/README.md
Original file line number Diff line number Diff line change
Expand Up @@ -8,17 +8,23 @@ Learning to deploy Ollama with hands-on practice, making the deployment of large

本教程涵盖从基础入门到进阶使用的全方位内容,并通过实际应用案例深入理解和掌握大模型部署以及应用技术。我们的教程提供清晰的步骤和实用的技巧,无论是刚刚接触大模型部署的小白,还是有一定经验的开发者,都可以从零开始学习 Ollama ,实现本地部署大模型以及相关应用。

目录结构说明:

docs ---------------------- Markdown 文档文件
notebook ------------------ Notebook 源代码文件以及部分 Python、Java 和 JavaScript 源文件
images -------------------- 图片

## 立项理由
随着大模型的飞速发展,市面上出现了越来越多的开源大模型,但是许多模型的部署需要利用GPU资源,如何让大模型时代的红利普惠到每一个人,让每一个人都可以部署属于自己的大模型。Ollama 是一个开源的大语言部署服务工具,只需 CPU 即可部署大模型。我们希望通过动手学 Ollama 这一开源教程,帮助学习者快速上手 Ollama ,让每一位大模型爱好者、学习者以及开发者都能在本地部署自己的大模型,进而开发一些大模型应用,让大模型赋能千行百业!
随着大模型的飞速发展,市面上出现了越来越多的开源大模型,但是许多模型的部署需要利用 GPU 资源,如何让大模型时代的红利普惠到每一个人,让每一个人都可以部署属于自己的大模型。Ollama 是一个开源的大语言部署服务工具,只需 CPU 即可部署大模型。我们希望通过动手学 Ollama 这一开源教程,帮助学习者快速上手 Ollama ,让每一位大模型爱好者、学习者以及开发者都能在本地部署自己的大模型,进而开发一些大模型应用,让大模型赋能千行百业!

## 项目受众
- 希望不受 GPU 资源限制,在本地运行大模型;
- 希望不受GPU资源限制,在本地运行大模型;
- 希望在消费级硬件上进行大模型有效的推理;
- 希望在本地部署大模型,开发大模型应用;
- 希望在本地管理大模型,让本地模型安全可靠。

## 项目亮点
本项目旨在使用 CPU 部署本地大模型,虽然目前已经有很多 LLM 相关的教程,但是这些教程中模型基本上都需要 GPU 资源,这对于很多资源受限的学习者不是很友好。因此,本项目通过动手学 Ollama,帮助学习者快速上手本地 CPU 部署大模型。
本项目旨在使用 CPU 部署本地大模型,虽然目前已经有很多 LLM 相关的教程,但是这些教程中模型基本上都需要 GPU 资源,这对于很多资源受限的学习者不是很友好。因此,本项目通过动手学 Ollama ,帮助学习者快速上手本地 CPU 部署大模型。

## 项目规划
### 目录(持续更新中...)
Expand Down
4 changes: 2 additions & 2 deletions docs/_sidebar.md
Original file line number Diff line number Diff line change
Expand Up @@ -18,6 +18,6 @@
* [6.1 使用 FastAPI 部署 Ollama 可视化对话界面](C6/1.%20使用%20FastAPI%20部署%20Ollama%20可视化对话界面.md)
* [6.2 使用 WebUI 部署 Ollama 可视化对话界面](C6/2.%20使用%20WebUI%20部署%20Ollama%20可视化对话界面.md)
* 第 7 章 应用案例
* [7.1 搭建本地的 AI Copilot 编程助手]()
* 7.1 搭建本地的 AI Copilot 编程助手
* [7.2 Dify 接入 Ollama 部署的本地模型](C7/2.%20Dify%20接入%20Ollama%20部署的本地模型.md)
* [7.3 使用 LangChain 搭建本地 RAG 应用]()
* 7.3 使用 LangChain 搭建本地 RAG 应用

0 comments on commit 898a4f7

Please sign in to comment.