Cherry Studio 使用指南
Cherry Studio 是一款跨平台的 AI 桌面客户端,支持多模型对话、知识库、工作流等功能。本指南介绍如何将 Cherry Studio 接入 OPEAI Platform。
安装 Cherry Studio
访问 Cherry Studio 官网 下载对应平台的客户端。
支持平台:
- macOS (Apple Silicon / Intel)
- Windows
- Linux
配置 OPEAI Platform
1. 打开设置
启动 Cherry Studio 后,进入 设置 → 模型服务。
2. 添加 Provider
点击 添加 按钮,创建新的 API Provider。
3. 输入配置信息
配置参数
| 配置项 | 值 |
|---|---|
| 名称 | OPEAI |
| API 类型 | OpenAI |
| API 地址 | https://api-platform.ope.ai/v1 |
| API Key | 您的 OPEAI API Key |
添加模型
手动添加以下模型 ID(每行一个):
Claude-4.6-Sonnet
Claude-4.6-Opus
Claude-4.5-Haiku
GPT-5.4-Pro
GPT-5.4
GPT-5.3-Codex
DeepSeek-V3.2
DeepSeek-V3.2-thinking
Gemini-3-Pro
Gemini-3-Flash
Qwen3-235B-A22B
Kimi-K2-Instruct-0905
信息
OPEAI Platform 使用 OpenAI 兼容协议,支持所有模型。
4. 保存配置
输入完成后点击 保存,Cherry Studio 会自动验证连接。
推荐模型
| 应用场景 | 推荐模型 | 特性说明 |
|---|---|---|
| 日常编程与写作 | Claude-4.6-Sonnet | 综合能力强,响应快,性价比高 |
| 复杂推理任务 | Claude-4.6-Opus | 顶级推理能力,适合架构设计 |
| 快速问答 | Claude-4.5-Haiku | 极速响应,成本低 |
| 超长上下文 | GPT-5.4-Pro | 1M 上下文,适合分析长文档 |
| 代码生成 | GPT-5.3-Codex | 针对编程场景优化 |
| 成本优化 | DeepSeek-V3.2 | 极低成本,高频调用首选 |
| 深度 思考 | DeepSeek-V3.2-thinking | 支持思维链推理 |
完整模型列表和价格请查看 模型价格说明。
使用技巧
多模型对比
Cherry Studio 支持让多个模型同时回答同一个问题,非常适合对比不同模型的输出质量:
- 在对话界面选择多个模型(按住
Cmd/Ctrl多选) - 发送问题
- 查看并对比各个模型的回答
推荐对比组合:
- 速度 vs 质量:
Claude-4.5-HaikuvsClaude-4.6-Opus - 不同厂商:
Claude-4.6-SonnetvsGPT-5.4vsGemini-3-Pro - 成本对比:
DeepSeek-V3.2vsClaude-4.6-Sonnet
知识库功能(RAG)
结合 Cherry Studio 的知识库功能,可以实现基于私有文档的问答:
- 创建知识库并上传文档(PDF、Word、Markdown 等)
- 在对话中启用知识库
- 模型会基于您的文档回 答问题
信息
Cherry Studio 的知识库功能需要使用 Embeddings API。OPEAI Platform 支持向量模型 bge-m3。
在配置 Provider 时,确保 API 地址为 https://api-platform.ope.ai/v1,Cherry Studio 会自动调用 embeddings 接口。
工作流模式
Cherry Studio 的工作流功能可以创建多步骤 AI 任务流:
- 在 工作流 标签页创建新工作流
- 拖拽添加节点(LLM 调用、条件判断、数据处理等)
- 配置每个节点使用的模型
- 保存并运行工作流
应用场景:
- 代码审查 → Bug 修复 → 单元测试生成
- 需求分析 → 架构设计 → 代码实现
- 长文翻译 → 润色 → 格式化