From 480ee7c5186c8755a1556b83e3073c474d2f852b Mon Sep 17 00:00:00 2001 From: c121914yu Date: Sat, 16 Mar 2024 14:29:42 +0000 Subject: [PATCH] deploy: f5b0d60ff133b451790325633320e07f87ff63cc --- docs/development/configuration/index.html | 6 +- docs/development/docker/index.html | 10 +- docs/development/index.xml | 2 +- docs/development/openapi/chat/index.html | 18 +-- docs/development/openapi/dataset/index.html | 154 ++++++++++---------- docs/development/openapi/share/index.html | 30 ++-- docs/workflow/modules/http/index.html | 16 +- index.xml | 2 +- 8 files changed, 119 insertions(+), 119 deletions(-) diff --git a/docs/development/configuration/index.html b/docs/development/configuration/index.html index 5f0c4e1ea81..5dca1ee330a 100644 --- a/docs/development/configuration/index.html +++ b/docs/development/configuration/index.html @@ -25,7 +25,7 @@ menu
settings

配置文件介绍

FastGPT 配置参数介绍

由于环境变量不利于配置复杂的内容,新版 FastGPT 采用了 ConfigMap 的形式挂载配置文件,你可以在 projects/app/data/config.json 看到默认的配置文件。可以参考 docker-compose 快速部署 来挂载配置文件。

开发环境下,你需要将示例配置文件 config.json 复制成 config.local.json 文件才会生效。

这个配置文件中包含了系统级参数、AI 对话的模型、function 模型等……

4.6.8+ 版本新配置文件

llm模型全部合并

settings

配置文件介绍

FastGPT 配置参数介绍

由于环境变量不利于配置复杂的内容,新版 FastGPT 采用了 ConfigMap 的形式挂载配置文件,你可以在 projects/app/data/config.json 看到默认的配置文件。可以参考 docker-compose 快速部署 来挂载配置文件。

开发环境下,你需要将示例配置文件 config.json 复制成 config.local.json 文件才会生效。

这个配置文件中包含了系统级参数、AI 对话的模型、function 模型等……

4.6.8+ 版本新配置文件

llm模型全部合并

   {
   "systemEnv": {
     "vectorMaxProcess": 15,
@@ -48,8 +48,8 @@
       "usedInExtractFields": true, // 是否用于内容提取(务必保证至少有一个为true)
       "usedInToolCall": true, // 是否用于工具调用(务必保证至少有一个为true)
       "usedInQueryExtension": true, // 是否用于问题优化(务必保证至少有一个为true)
-      "toolChoice": true, // 是否支持工具选择(务必保证至少有一个为true)
-      "functionCall": false, // 是否支持函数调用(特殊功能,会优先使用 toolChoice,如果为false,则使用 functionCall,如果仍为 false,则使用提示词模式)
+      "toolChoice": true, // 是否支持工具选择(分类,内容提取,工具调用会用到。目前只有gpt支持)
+      "functionCall": false, // 是否支持函数调用(分类,内容提取,工具调用会用到。会优先使用 toolChoice,如果为false,则使用 functionCall,如果仍为 false,则使用提示词模式)
       "customCQPrompt": "", // 自定义文本分类提示词(不支持工具和函数调用的模型
       "customExtractPrompt": "", // 自定义内容提取提示词
       "defaultSystemChatPrompt": "", // 对话默认携带的系统提示词
diff --git a/docs/development/docker/index.html b/docs/development/docker/index.html
index e971c39be4c..ca5440febd4 100644
--- a/docs/development/docker/index.html
+++ b/docs/development/docker/index.html
@@ -25,9 +25,9 @@
 menu
 
article

Docker Compose 快速部署

使用 Docker Compose 快速部署 FastGPT

推荐配置

环境最低配置(单节点)推荐配置
测试2c2g2c4g
100w 组向量4c8g 50GB4c16g 50GB
500w 组向量8c32g16c64g 200GB

部署架构图

1. 准备好代理环境(国外服务器可忽略)

确保可以访问 OpenAI,具体方案可以参考:代理方案。或直接在 Sealos 上 部署 OneAPI,既解决代理问题也能实现多 Key 轮询、接入其他大模型。

2. 多模型支持

FastGPT 使用了 one-api 项目来管理模型池,其可以兼容 OpenAI 、Azure 、国内主流模型和本地模型等。

可选择 Sealos 快速部署 OneAPI,更多部署方法可参考该项目的 README,也可以直接通过以下按钮一键部署:

Deploy on Sealos

一、安装 Docker 和 docker-compose