中文|English
-
语义内核 (Semantic Kernel):采用领先的自然语言处理技术,准确理解、处理和响应复杂的语义查询,为用户提供精确的信息检索和推荐服务。
-
内存内核 (Kernel Memory):具备持续学习和存储知识点的能力,AntSK 拥有长期记忆功能,累积经验,提供更个性化的交互体验。
-
知识库:通过文档(Word、PDF、Excel、Txt、Markdown、Json、PPT)等形式导入知识库,可以进行知识库文档。
-
API插件系统:开放式API插件系统,允许第三方开发者或服务商轻松将其服务集成到AntSK,不断增强应用功能。
-
联网搜索:AntSK,实时获取最新信息,确保用户接受到的资料总是最及时、最相关的。
-
GPTs 生成:此平台支持创建个性化的GPT模型,尝试构建您自己的GPT模型。
-
API接口发布:将内部功能以API的形式对外提供,便于开发者将AntSK 集成进其他应用,增强应用智慧。
-
模型管理:适配和管理集成不同厂商的不同模型。
AntSK 适用于多种业务场景,例如:
- 企业级知识管理系统
- 自动客服与聊天机器人
- 企业级搜索引擎
- 个性化推荐系统
- 智能辅助写作
- 教育与在线学习平台
- 其他有意思的AI App
在这里我使用的是Postgres 作为数据存储和向量存储,因为Semantic Kernel和Kernel Memory都支持他,当然你也可以换成其他的。 模型默认支持openai,如果需要使用azure openai需要调整SK的依赖注入,也可以使用one-api进行集成。 Login是默认的登陆账号和密码 需要配置如下的配置文件
"ConnectionStrings": {
"Postgres": "Host=;Port=;Database=antsk;Username=;Password="
},
"OpenAIOption": {
"EndPoint": "",
"Key": "",
"Model": "",
"EmbeddingModel": ""
},
"Postgres": {
"ConnectionString": "Host=;Port=;Database=antsk;Username=;Password=",
"TableNamePrefix": "km-"
},
"Login": {
"User": "admin",
"Password": "xuzeyu"
}
我使用的是CodeFirst模式,只要配置好数据库链接,表结构是自动创建的
如果想使用LLamaSharp运行本地模型还需要设置如下配置:
"LLamaSharp": {
"Chat": "D:\\Code\\AI\\AntBlazor\\model\\tinyllama-1.1b-chat.gguf",
"Embedding": "D:\\Code\\AI\\AntBlazor\\model\\tinyllama-1.1b-chat.gguf"
},
需要配置Chat和Embedding模型的地址,然后修改EndPoint为本地,使用本地模型时并没有用到Key、Model、EmbeddingModel这些参数,所以这几个你可以随意填写:
"OpenAIOption": {
"EndPoint": "https://ip:port/llama/",
"Key": "",
"Model": "",
"EmbeddingModel": ""
},
想了解更多信息或开始使用 AntSK,可以关注我的公众号以及加入交流群。
如有任何问题或建议,请通过以下方式关注我的公众号,发消息与我联系,我们也有交流群,可以发送进群等消息,然后我会拉你进交流群
我们对您在AntSK的兴趣表示感谢,并期待与您携手共创智能化的未来!