Cherry Studio 是一款开源、可本地部署的“多模型 AI 超级工具箱”,用图形化方式把大语言模型、知识库、绘画、搜索等能力整合到一台电脑上。
一、主要功能
  1. 多模型对话:一键切换 300+ 云端/本地模型(OpenAI、Gemini、DeepSeek、Ollama 等),支持流式输出与参数微调。
  2. 智能知识库:把 PDF、DOCX、网页、PPT 拖进去即可构建私有向量库,基于 BGE-M3 嵌入 + Chroma 实现语义检索,问答准确率提升 60% 以上。
  3. 实时联网搜索:内置 Tavily / OpenRouter,自动抓取最新网页、论文、行情,再让模型总结答案。
  4. AI 绘画与创作:集成 Stable Diffusion、DALL·E,支持文生图、图生图、LoRA 模型;自带 Markdown + 公式 + 代码高亮 + 实时预览编辑器。
  5. MCP 插件生态:图形化安装 MCP 服务,可“零代码”连接数据库、Git、Slack、Blender 等外部工具。
  6. 企业安全:AES-256 本地加密 + TLS1.3 传输 + WebDAV 增量备份;支持 TPM 硬件密钥与 IP 级访问策略。
  7. 跨平台与离线运行:Windows / macOS / Linux 一键安装,断网也能用本地模型与知识库。
二、技术原理
  1. 统一模型路由:AiProviderNew 类封装不同厂商 SDK,结合动态 QoS 策略,50 ms 内完成模型选择。
  2. 流式响应:基于 Server-Sent Events 实现逐字返回,可随时中断与重试。
  3. RAG 增强:BGE-M3 多语言嵌入 → Chroma 向量存储 → 混合检索(语义 + 关键词),最后由大模型生成答案。
  4. 本地加密链:TPM 生成根密钥 → AES-256-GCM 文件级加密 → 内存零落盘,性能损耗 <3%。
  5. 插件隔离:MCP 服务跑在独立容器/进程,通过 JSON-RPC 与主进程通信,崩溃不影响主程序。
三、应用场景
  1. 个人超级助理:写报告、做翻译、画插图、整理读书笔记,全部离线完成。
  2. 企业知识客服:把内部制度、产品手册建成知识库,对外提供 7×24 精准问答。
  3. 开发者辅助:代码生成、Bug 解释、自动补注释,还能通过 MCP 直接操作 Git、Jira。
  4. 教育与科研:批量读论文、生成思维导图、实时联网查最新期刊。
  5. 内容创作:一键出多语言脚本、配图、视频分镜,支持多模型对比选最优稿。
四、使用方法
  1. 下载安装:官网或 GitHub 下载对应系统安装包,双击完成。
  2. 首次启动:选择“本地模式”或“混合模式”,程序自动下载嵌入模型与默认 LLM。
  3. 添加模型:在“模型市场”输入 API Key 即可接入云端模型;或点击“本地模型”→“一键拉取 Ollama”。
  4. 建立知识库:侧边栏“知识库”→“新建”→拖拽文件→等待向量化完成即可问答。
  5. 安装插件:打开“插件中心”,浏览 MCP 服务,点“安装”后图形化配置参数即可生效。
  6. 高级设置:支持自定义模型路由规则、备份策略、主题与快捷键,全部在“偏好设置”中完成。