Skip to content

Latest commit

 

History

History
127 lines (104 loc) · 4.8 KB

mulicache-readme-cn.md

File metadata and controls

127 lines (104 loc) · 4.8 KB

MultiModal Cache

为满足多模态的性能要求,我们在 LLModel Cache 的基础上,开发了 MultiModal Cache 系统。MultiModal Cache 增强了 ModelCache 功能,架优化架构,适应多种应用场景。

最新动态

  • [2024.12.12] MultiModal Cache 系统正式发布。

特性

场景 数据类型 图像格式 数据隔离
文本对话 文本 不适用 支持
图文理解 文本+图像 image_url/image_base64 支持
  • 兼容性:支持文本和图片链接(image_url)和图片 Base64 编码三种数据格式及其组合。
  • 数据隔离:支持多模型数据隔离,允许不同数据模型在同一系统中独立运行。
  • 模态隔离:支持同一模型下不同模态数据(如文本和图像)的隔离处理。

性能

我们在生产环境中使用企业级数据库对 MultiModal Cache 进行了全面的性能评估。以下是详细的性能数据:

请求类型 Cache Hit 总耗时范围 组件 组件耗时
Text Hit 420ms-520ms Multi-Encoder (Text): ~300ms
向量存储检索 40-50ms
关系存储检索 60-70ms
Not Hit 300ms+N(s) Multi-Encoder (Text): ~300ms
向量存储检索 40-50ms
大模型调用 N (s)
IMG_TEXT Hit 600ms-800ms Multi-Encoder (image+text) ~600ms
向量存储检索 40-50ms
关系存储检索 60-70ms
Not Hit 600ms+N(s) Multi-Encoder (image+text) ~600ms
向量存储检索 40-50ms
大模型调用 N (s)

根据目前的评估结果,Embedding 的推理时间存在较大的优化空间。 说明:使用嵌入式数据库可能会进一步提升性能。

效果评估

为全面评估 Cache 对模型服务的影响,我们进行了端到端的性能测试,ua 比较了有 Cache 和无 Cache 两种服务配置。我们使用了 5000 个测试用例的数据集进行自动化测试。

  • 有 Cache 的预发模型服务:观察其响应时间,预期 Cache 的引入能够显著提升服务的性能,降低延迟。
  • 无 Cache 的线上模型服务,以获取其原始性能指标和输出结果。这些数据将作为对比基准。

为了确保 Cache 引入后的数据准确性和一致性,我们比较了两个服务返回的结果,验证了 Cache 机制是否会影响最终用户收到的回复内容。

与原始的直接模型调用方式相比,Cache Service 的调用耗时数据呈现出稳定的分布特征,性能上并不会随着模型参数规模的增加而受到影响。在传统情况下,随着模型参数规模的扩大,模型调用的耗时往往会上升,这是因为更大规模的模型需要更多的计算资源。Cache 服务通过存储经常访问的数据来避免重复的计算,从而一定程度上解耦了耗时与模型复杂性之间的关联。

cache-service-cost-time-distribution

我们对缓存命中的耗时与实际调用模型的耗时进行了对比分析。实验数据表明,在集成 Cache Service之后,基于 llama7B 模型,缓存命中所带来的性能提升超过了 40%。预计随着模型的持续迭代与优化,性能提升的幅度将会有更进一步的增长。

time-cost-comparison

参与贡献

MultiModal Cache 是一个充满潜力的开源项目,我们欢迎各种形式的贡献:

  • 提交问题和建议
  • 参与代码编写
  • 完善文档和示例

无论您是经验丰富的开发者还是新手,您的参与都将使这个项目更加出色,同时为开源社区做出贡献。