lite启动,使用在线api的方式,无论配置什么模型,为什么都是用的chatopenai的api? #3857
Replies: 1 comment
-
在"lite"模式下运行时,Langchain-Chatchat应用确实会默认使用langchain的ChatOpenAI API,而不考虑您配置的任何其他模型。这是因为"lite"模式特别设计为只支持在线API,如ChatOpenAI,用于LLM对话和搜索引擎对话。当启用 这种设计决策体现在代码的 更多细节可以在项目的
|
Beta Was this translation helpful? Give feedback.
-
如题,我发现用api方式的话,无论配置什么大模型的API,最终都是使用的langchain的ChatOpenAI这个api。。难道ChatOpenAI支持所有大模型吗?不太理解,有没有看过源码的大佬
Beta Was this translation helpful? Give feedback.
All reactions