-
Notifications
You must be signed in to change notification settings - Fork 59.1k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
希望【设置】模型服务商选项,增加 ollama本地大模型 选项 #5370
Comments
Please follow the issue template to update title and description of your issue. |
Title: I hope to [Settings] the model service provider option and add the ollama local large model option 🥰 Description of requirementsI hope that the [Settings] model service provider option will add the ollama local large model option. 🧐 SolutionI hope that the [Settings] model service provider option will add the ollama local large model option. 📝 Supplementary informationNo response |
that's a good idea! |
🥰 需求描述
希望【设置】模型服务商选项,增加 ollama本地大模型 选项
这个需求是在不与互联网连接的局域网内,假设A电脑部署了ollama,下载了一些本地大模型
本机用户可以在A电脑上直接选中ollama本地大模型,设置接口地址为http://localhost:11434,直接对话
其他用户或者更多的用户都可以在本机安装nextchat客户端,然后设置接口地址为http://A电脑的IP:11434,进行对话
用户选择A电脑的ollama本地大模型、接口后
模型(model)选项中出现的是 A电脑上ollama本地大模型的名字(当然如果A电脑的nextchat管理端 管理员可以有权直接设置统一使用某个模型也行)
🧐 解决方案
希望【设置】模型服务商选项,增加 ollama本地大模型 选项
这个需求是在不与互联网连接的局域网内,假设A电脑部署了ollama,下载了一些本地大模型
本机用户可以在A电脑上直接选中ollama本地大模型,设置接口地址为http://localhost:11434,直接对话
其他用户或者更多的用户都可以在本机安装nextchat客户端,然后设置接口地址为http://A电脑的IP:11434,进行对话
用户选择A电脑的ollama本地大模型、接口后
模型(model)选项中出现的是 A电脑上ollama本地大模型的名字(当然如果A电脑的nextchat管理端 管理员可以有权直接设置统一使用某个模型也行)
📝 补充信息
No response
The text was updated successfully, but these errors were encountered: