仅本页所有页面
由 GitBook 提供支持
1 / 84

简体中文

Cherry Studio

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

基础教程

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

知识库教程

Loading...

Loading...

Loading...

Loading...

进阶教程

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

项目贡献

Loading...

Loading...

问题&反馈

Loading...

Loading...

Loading...

Loading...

联系我们

Loading...

Loading...

关于

Loading...

其他内容

Loading...

Loading...

功能介绍

智能体

智能体页面是一个助手广场,这里你可以选择或者搜索你想要的模型预设,点击卡片后即可将助手添加在对话页面的助手列表当中。

你也可以在页面中编辑和创建自己的助手。

  • 点击 我的 ,再点击 创建智能体 即可开始创建自己的助手。

提示词输入框右上角按钮为 AI 优化提示词按钮,点击后会覆盖原文。所用模型为 全局默认助手模型。

小程序

在小程序页面你可以在客户端内使用各大服务商 AI 相关程序的网页版,目前暂不支持自定义添加和删除。

文件

文件界面会展示所有对话、绘画、知识库等相关的文件,可以在此页面集中管理和查看。

设置

默认模型设置

默认助手模型

当助手未设置默认助手模型时,其新对话当中默认选择的模型为此处设置的模型。

优化提示词、划词助手使用的也是此处设置的模型。

话题命名模型

每次对话后会调用模型为对话生成一个话题名称,此处设置的模型为命名时所使用的模型。

翻译模型

对话、绘画等输入框当中的翻译功能,翻译界面的翻译模型都使用的是此处设置的模型。

快捷助手模型

快捷助手功能使用的模型,详见 快捷助手

常规设置

在此页面可设置软件的界面语言、设置代理等。

快捷键设置

在该界面可以启(停)用和设置一些功能的快捷键,具体按照界面指示设置。

安装教程

模型服务配置

免费联网模式

数据设置

MCP 使用教程

OneAPI 及其分支项目

项目规划

To-Do List

个性化设置

贡献文档

邮件联系 [email protected] 获取编辑身份

标题:申请 Cherry Studio Docs 编辑身份

正文:填写申请理由

绘画

绘画功能目前支持 DMXAPI、TokenFlux、AiHubMix 和 硅基流动 的绘画模型,你可以到 硅基流动 注册一个账户 添加到服务商 来使用。

有关参数的疑问可以鼠标悬停在对应区域的 ? 处查看介绍。

后续将会增加更多服务商,敬请期待。

OpenAI

获取APIKey

  • 在官方API Key页面点击+ Create new secret key

  • 将生成的key复制,并打开CherryStudio的服务商设置

  • 找到服务商OpenAI,填入刚刚获取到的key

  • 点击最下方管理或者添加,加入支持的模型并打开右上角服务商开关就可以使用了。

  • 中国除台湾之外其他地区无法直接使用OpenAI服务,需自行解决代理问题;

  • 需要有余额。

字体推荐

知识库数据

在 Cherry Studio 知识库中添加的数据全部存储在本地,在添加过程中会复制一份文档放在 Cherry Studio 数据存储目录

向量数据库:https://turso.tech/libsql

当文档被添加到 Cherry Studio 知识库之后,文件会被切分为若干个片段,然后这些片段会交给嵌入模型进行处理

当使用大模型进行问答的时候,会查询和问题相关的文本片段一并交个大语言模型处理

如果对数据隐私有要求,建议使用本地嵌入数据库和本地大语言模型

项目简介


Cherry Studio 是一款集多模型对话、知识库管理、AI 绘画、翻译等功能于一体的全能 AI 助手平台。 Cherry Studio 高度自定义的设计、强大的扩展能力和友好的用户体验,使其成为专业用户和 AI 爱好者的理想选择。无论是零基础用户还是开发者,都能在 Cherry Studio 中找到适合自己的 AI 功能,提升工作效率和创造力。


核心功能与特色

1. 基础对话功能

  • 自动分组:每个助手的对话记录会自动分组管理,便于用户快速查找历史对话。

  • 对话导出:支持将完整对话或部分对话导出为多种格式(如 Markdown、Word 等),方便储存与分享。

  • 高度自定义参数:除了基础参数调整外,还支持用户填写自定义参数,满足个性化需求。

  • 助手市场:内置千余个行业专用助手,涵盖翻译、编程、写作等领域,同时支持用户自定义助手。

  • 多种格式渲染:支持 Markdown 渲染、公式渲染、HTML 实时预览等功能,提升内容展示效果。

2. 多种特色功能集成

  • AI 绘画:提供专用绘画面板,用户可通过自然语言描述生成高质量图像。

  • AI 小程序:集成多种免费 Web 端 AI 工具,无需切换浏览器即可直接使用。

  • 翻译功能:支持专用翻译面板、对话翻译、提示词翻译等多种翻译场景。

  • 文件管理:对话、绘画和知识库中的文件统一分类管理,避免繁琐查找。

  • 全局搜索:支持快速定位历史记录和知识库内容,提升工作效率。

3. 多服务商统一管理机制

  • 服务商模型聚合:支持 OpenAI、Gemini、Anthropic、Azure 等主流服务商的模型统一调用。

  • 模型自动获取:一键获取完整模型列表,无需手动配置。

  • 多秘钥轮询:支持多个 API 秘钥轮换使用,避免速率限制问题。

  • 精准头像匹配:为每个模型自动匹配专属头像,提升辨识度。

  • 自定义服务商:支持符合 OpenAI、Gemini 、Anthropic 等规范的三方服务商接入,兼容性强。

4. 高度自定义界面和布局

  • 自定义 CSS:支持全局样式自定义,打造专属界面风格。

  • 自定义对话布局:支持列表或气泡样式布局,并可自定义消息样式(如代码片段样式)。

  • 自定义头像:支持为软件和助手设置个性化头像。

  • 自定义侧边栏菜单:用户可根据需求隐藏或排序侧边栏功能,优化使用体验。

5. 本地知识库系统

  • 多种格式支持:支持 PDF、DOCX、PPTX、XLSX、TXT、MD 等多种文件格式导入。

  • 多种数据源支持:支持本地文件、网址、站点地图甚至手动输入内容作为知识库源。

  • 知识库导出:支持将处理好的知识库导出并分享给他人使用。

  • 支持搜索检查:知识库导入后,用户可实时检索测试,查看处理结果和分段效果。

6. 特色聚焦功能

  • 快捷问答:在任何场景(如微信、浏览器)中呼出快捷助手,快速获取答案。

  • 快捷翻译:支持快速翻译其他场景中的词汇或文本。

  • 内容总结:对长文本内容进行快速总结,提升信息提取效率。

  • 解释说明:无需复杂提示词,一键解释说明不懂的问题。

7. 数据保障

  • 多种备份方案:支持本地备份、WebDAV 备份和定时备份,确保数据安全。

  • 数据安全:支持全本地场景使用,结合本地大模型,避免数据泄漏风险。


项目优势

  1. 小白友好:Cherry Studio 致力于降低技术门槛,零基础用户也能快速上手,让用户专注于工作、学习或者创作。

  2. 文档完善:提供详细的使用文档和常见问题处理手册,帮助用户快速解决问题。

  3. 持续迭代:项目团队积极响应用户反馈,持续优化功能,确保项目健康发展。

  4. 开源与扩展性:支持用户通过开源代码进行定制和扩展,满足个性化需求。


适用场景

  • 知识管理与查询:通过本地知识库功能,快速构建和查询专属知识库,适用于研究、教育等领域。

  • 多模型对话与创作:支持多模型同时对话,帮助用户快速获取信息或生成内容。

  • 翻译与办公自动化:内置翻译助手和文件处理功能,适合需要跨语言交流或文档处理的用户。

  • AI 绘画与设计:通过自然语言描述生成图像,满足创意设计需求。

Star History

关注我们的社交账号

知识库

快捷助手

快捷助手是 Cherry Studio 提供的一个便捷工具,它允许您在任何应用程序中快速访问 AI 功能,从而实现即时提问、翻译、总结和解释等操作。

启用快捷助手

  1. 打开设置: 导航至 设置 -> 快捷方式 -> 快捷助手。

  2. 启用开关: 找到并打开 快捷助手 对应按钮。

  1. 设置快捷键(可选):

    • Windows 默认快捷键为 Ctrl + E。

    • macOS 默认快捷键为 ⌘ + E。

    • 您可以在此处自定义快捷键以避免冲突或使其更符合您的使用习惯。

使用快捷助手

  1. 唤起: 在任何应用程序中,按下您设置的快捷键(或默认快捷键)即可打开快捷助手。

  2. 交互: 在快捷助手窗口中,您可以直接进行以下操作:

    • 快速提问: 向 AI 提问任何问题。

    • 文本翻译: 输入需要翻译的文本。

    • 内容总结: 输入长文本进行摘要。

    • 解释说明: 输入需要解释的概念或术语。

  3. 关闭: 按下 ESC 键或点击快捷助手窗口外部的任意位置即可关闭。

提示与技巧

  • 快捷键冲突: 如果默认快捷键与其他应用程序冲突,请修改快捷键。

  • 探索更多功能: 除了文档中提到的功能,快捷助手可能还支持其他操作,例如代码生成、风格转换等。建议您在使用过程中不断探索。

显示设置

主题选择

你可以在此处设置默认的界面颜色模式(浅色模式、深色模式或跟随系统)

话题设置

该设置是针对对话界面的布局的设置。

话题位置

自动切换到话题

当打开该设置时点击助手名称页面会自动切换到对应话题页面。

显示话题时间

打开时会在话题下方显示话题 创建 的时间。

自定义 CSS

Windows

Windows 版本安装教程

打开官方网站

注意:Windows 7系统不支持安装 Cherry Studio。

点击下载选择合适的版本

等待下载完成

如果出现浏览器提示文件不被信任等情况选择保留即可

选择保留 → 信任 Cherry-Studio

打开文件

安装

macOS

macOS 版本安装教程

  1. 首先到官网下载页面点击下载 Mac 版本,或点击下方直达

请注意下载 自己 Mac 对应的芯片版本

如果不知道自己的 Mac 应当使用什么芯片版本:

  • 点击 Mac 左上角菜单栏 

  • 在展开菜单中点击关于本机

  • 在弹出窗口中查看处理器信息

如果为 Intel 芯片则下载 Intel 版本安装包

如果为 Apple M* 芯片则下载 Apple 芯片安装包

  1. 下载完成后点击这里

  1. 拖拽图标安装

到启动台中寻找 Cherry Studio 图标并点击,能打开 Cherry Studio 主界面则安装成功。

阿里云百炼

  1. 点击右上角的 创建我的 API-KEY 按钮。

  1. 在弹出的窗口中选择默认业务空间(或者你也可以自定义),如果你想要的话可以填入描述。

  1. 点击右下角的 确定 按钮。

  2. 随后,你应该能看到列表中新增了一行,点击右侧的 查看 按钮。

  3. 点击 复制 按钮。

  4. 转到 Cherry Studio,在 设置 → 模型服务 → 阿里云百炼 中找到 API 密钥 ,将复制的 API 密钥粘贴到这里。

硅基流动

1. 配置 SiliconCloud 的模型服务

  1. 点击左侧菜单栏的“对话”按钮

  2. 在输入框内输入文字即可开始聊天

  3. 可以选择顶部菜单中的模型名字切换模型

OneAPI

  • 登录并进入令牌页面

  • 创建新令牌(也可以直接使用default令牌↑)

  • 复制令牌

  • 打开CherryStudio的服务商设置点击服务商列表最下方的添加

  • 输入备注名称,提供商选OpenAI,点击确定

  • 填入刚刚复制的key

  • 回到获取API Key的页面,在对应浏览器地址栏复制根地址,例:

  • 当地址为IP+端口时填http://IP:端口即可,如:http://127.0.0.1:3000

  • 严格区分http和https,如果没有开启SSL就不要填https

  • 添加模型(点击管理自动获取或手动输入)打开右上角开关即可使用。

OneAPI其他主题可能界面有所不同,但添加方法跟上述操作流程一致。

NewAPI

  • 登录并打开令牌页面

  • 点击添加令牌

  • 输入令牌名称后点击提交(其他设置如有需要可自行配置)

  • 打开CherryStudio的服务商设置点击服务商列表最下方的添加

  • 输入备注名称,提供商选OpenAI,点击确定

  • 填入刚刚复制的key

  • 回到获取API Key的页面,在对应浏览器地址栏复制根地址,例:

  • 当地址为IP+端口时填http://IP:端口即可,如:http://127.0.0.1:3000

  • 严格区分http和https,如果没有开启SSL就不要填https

  • 添加模型(点击管理自动获取或手动输入)打开右上角开关即可使用。

GitHub Copilot

获取 Device Code

点击「登录 GitHub」,获取 Device Code 并复制。

在浏览器中填写 Device Code 并授权

成功获取 Device Code 后,点击链接打开浏览器,在浏览器中登录 GitHub 账号,输入 Device Code 并授权。

授权成功后,返回 Cherry Studio,点击「连接 GitHub」,成功后会显示 GitHub 用户名和头像。

点击「管理」获取模型列表

点击下方的「管理」按钮,会自动联网获取当前支持的模型列表。

常见问题

获取 Device Code 失败,请重试

目前使用 Axios 构建请求,Axios 不支持 socks 代理,请使用系统代理或 HTTP 代理,或者直接不在 CherryStudio 中设置代理,使用全局代理。首先请确保您的网络连接正常,以避免获取 Device Code 失败的情况。

网络搜索黑名单配置

手动配置

订阅源配置

您还可以订阅公共规则集。该网站列出了一些订阅: https://iorate.github.io/ublacklist/subscriptions

以下是一些比较推荐的订阅源链接:

思源笔记配置教程

支持将话题、消息导出到思源笔记。

第一步

打开思源笔记,创建一个笔记本

第二步

打开笔记本打开设置,并复制笔记本ID

第三步

复制笔记本ID填写到 Cherry Studio 设置里

第四步

填写思源笔记地址

  • 本地 通常为 http://127.0.0.1:6806

  • 自部署 为你的域名 http://note.domain.com

第五步

复制思源笔记 API Token

填入 Cherry Studio 设置里并检查

第六步

恭喜你,思源笔记的配置已经完成了 ✅ 接下来就可以将 Cherry Studio 内容导出到你的思源笔记中了

清除 CSS 设置

当设置了错误的css,或者在设置了css后无法进入设置界面时,使用该方法清除css设置。

  • 打开控制台,点击CherryStudio窗口,按下快捷键Ctrl+Shift+I(MacOS:command+option+I)。

  • 在弹出的控制台窗口中,点击Console

  • 然后手动输入document.getElementById('user-defined-custom-css').remove() ,复制粘贴大概率不会执行。

  • 输入完成后回车确认即可清除css设置,然后再次进入CherryStudio的显示设置当中,删除有问题的css代码。

MCP 环境安装

在 Cherry Studio 中使用 MCP

准备工作:安装 uv、bun

在 设置 - MCP 服务器 中,点击 安装 按钮,即可自动下载并安装。因为是直接从 GitHub 上下载,速度可能会比较慢,且有较大可能失败。安装成功与否,以下文提到的文件夹内是否有文件为准。

可执行程序安装目录:

Windows: C:\Users\用户名\.cherrystudio\bin

macOS、Linux: ~/.cherrystudio/bin

无法正常安装的情况下:

可以将系统中的相对应命令使用软链接的方式链接到这里,如果没有对应目录,需要手动建立。也可以手动下载可执行文件放到这个目录下面:

内置 MCP 配置

@cherry/mcp-auto-install

自动安装 MCP 服务(测试版)

@cherry/memory

基于本地知识图谱的持久性记忆基础实现。这使得模型能够在不同对话间记住用户的相关信息。

@cherry/sequentialthinking

一个 MCP 服务器实现,提供了通过结构化思维过程进行动态和反思性问题解决的工具。

@cherry/brave-search

一个集成了 Brave 搜索 API 的 MCP 服务器实现,提供网页与本地搜索双重功能。

@cherry/fetch

用于获取 URL 网页内容的 MCP 服务器。

@cherry/filesystem

实现文件系统操作的模型上下文协议(MCP)的 Node.js 服务器。

添加 ModelScope MCP 服务器

ModelScope MCP 服务器 需要将 Cherry Studio 升级至 v1.2.9 或更高版本。

在 v1.2.9 版本中,Cherry Studio 与 ModelScope 魔搭 达成官方合作,大幅简化了 MCP 服务器添加的操作步骤,避免配置过程出错,而且可以在 ModelScope 社区发现海量 MCP 服务器。接下来跟随操作步骤,一起看下如何在 Cherry Studio 中同步 ModelScope 的 MCP 服务器。

操作步骤

同步入口:

点击设置中的 MCP 服务器设置,选 同步服务器

发现 MCP 服务:

选择 ModelScope,并浏览发现 MCP 服务

查看 MCP 服务器详情

注册登录 ModelScope,并查看 MCP 服务详情;

连接服务器

在 MCP 服务详情中,选择连接服务;

申请并复制粘贴 api 令牌

点击 Cherry Studio 中的“获取api” 令牌,跳转 ModelScope 官网,复制 api 令牌,并回到 Cherry Studio 中粘贴。

成功同步

在 Cherry Studio 的 MCP 服务器列表中,可以看到 ModelScope 连接的 MCP 服务并在对话中调用。

增量更新

在后续 ModelScope 网页新连接的 MCP 服务器,直接点击 同步服务器 就可以实现增量的 MCP 服务器添加。

通过以上步骤,你已经成功掌握了如何在 Cherry Studio 中便捷地同步 ModelScope 上的 MCP 服务器,整个配置过程不仅大大简化,有效避免了手动配置的繁琐和潜在错误,更让你能够轻松接入 ModelScope 社区提供的海量 MCP 服务器资源。

开始探索和使用这些强大的 MCP 服务,为你的 Cherry Studio 使用体验带来更多便利和可能性吧!

知识库文档预处理

知识库文档预处理 需要将 Cherry Studio 升级至 v1.5.0 或更高版本。

配置OCR服务商

点击获取API KEY后会在浏览器打开申请地址,点击立即申请填写表单后获取API KEY,并将其填入API KEY中。

配置知识库文档预处理

在创建好的知识库中进行如上配置,即可完成知识库文档预处理配置。

上传文档

可以通过右上角搜索对知识库结果检测

在对话中使用

知识库使用Tips: 使用能力较强的模型时可以将知识库搜索模式修改为意图识别,意图识别可以更准确、广泛的描述您的问题。

开启知识库意图识别

常见问题

1. mcp-server-time

解决方案

在“参数”一栏填写:

关注我们的社交账号:、、、、

加入我们的社群:、、、

一问多答:支持同一问题通过多个模型同时生成回复,方便用户对比不同模型的表现,详见 。

知识库使用可参考进阶教程中的 。

快捷助手使用的模型为 。

反馈与改进: 如果您在使用过程中遇到任何问题或有任何改进建议,请及时向 Cherry Studio 团队 。

在此页面你可以设置软件的颜色主题、页面布局或者 来进行一些个性化的设置。

通过此设置可灵活的对界面做一些个性化的更改和设置。具体方法参考进阶教程中的 。

登录 ,没有阿里云账号的话需要注册。

可以按照 中的介绍调整相关设置,然后就能使用了。

如果发现模型列表中没有阿里云百炼的模型,请确认已经按照 中的介绍添加模型,并开启了这个提供商。

1.2 点击左下角的设置,在模型服务中选择【硅基流动】

1.2 点击链接获取 SiliconCloud API 密钥

登录(若未注册首次登录会自动注册账号)

访问新建或复制已有密钥

1.3 点击管理添加模型

2. 模型服务使用

使用 GitHub Copilot 需要先拥有一个 GitHub 账号,并订阅 GitHub Copilot 服务,free 版本的订阅也可以,但 free 版本不支持最新的 Claude 3.7 模型,具体请参考 。

Cherry Studio支持手动和添加订阅源两种方式配置黑名单。配置规则参考

您可以为搜索结果添加规则或点击工具栏图标以屏蔽指定的网站。规则可以通过以下方式指定: (示例:*://*.example.com/*) 或使用 (示例:/example\.(net|org)/).

名称
链接
类型

MCP(Model Context Protocol) 是一种开源协议,旨在以标准化的方式向大语言模型(LLM)提供上下文信息。更多关于 MCP 的介绍请见

下面以 fetch 功能为例,演示如何在 Cherry Studio 中使用 MCP,可以在 中查找详情。

Cherry Studio 目前只使用内置的 和 ,不会复用系统中已经安装的 uv 和 bun。

Bun: UV:

uBlacklist subscription compilation

https://git.io/ublacklist

中文

uBlockOrigin-HUGE-AI-Blocklist

https://raw.githubusercontent.com/laylavish/uBlockOrigin-HUGE-AI-Blocklist/main/list_uBlacklist.txt

AI生成

MEMORY_FILE_PATH=/path/to/your/file.json
BRAVE_API_KEY=YOUR_API_KEY
mcp-server-time
--local-timezone
<你的标准时区,例如:Asia/Shanghai>
推特(X)
小红书
微博
哔哩哔哩
抖音
QQ群(575014769)
Telegram
Discord
对话界面
知识库教程
全局默认对话模型
反馈
自定义 CSS
自定义 CSS
阿里云百炼
模型服务
模型服务
​
​
SiliconCloud
API 密钥
​
​
GitHub Copilot 官网
ublacklist
匹配模式
正则表达式
文档
uv
bun
https://github.com/oven-sh/bun/releases
https://github.com/astral-sh/uv/releases

反馈 & 建议

Telegram 讨论组

讨论组成员会分享自己的使用经验,帮助你解决问题

加入 Telegram 讨论组获取帮助:https://t.me/CherryStudioAI

QQ 群

QQ 群成员可以互帮互助,分享下载链接

QQ群(1025067911)

Github Issues

适合记录防止开发者遗忘,或者在这里参与讨论

Github Issues:https://github.com/CherryHQ/cherry-studio/issues/new/choose

Email

如果没有找到其他反馈渠道,可以联系开发者获取帮助

邮箱联系开发者:[email protected]

贡献代码

我们欢迎对 Cherry Studio 的贡献!您可以通过以下方式贡献:

1. 贡献代码:开发新功能或优化现有代码。

2. 修复错误:提交您发现的错误修复。

3. 维护问题:帮助管理 GitHub 问题。

4. 产品设计:参与设计讨论。

5. 撰写文档:改进用户手册和指南。

6. 社区参与:加入讨论并帮助用户。

7. 推广使用:宣传 Cherry Studio。

参与方式

发送邮件到 [email protected]

邮件标题:申请成为开发者

邮件内容:申请理由

隐私协议

欢迎使用 Cherry Studio(以下简称“本软件”或“我们”)。我们高度重视您的隐私保护,本隐私协议将说明我们如何处理与保护您的个人信息和数据。请在使用本软件前仔细阅读并理解本协议:

一、我们收集的信息范围

为了优化用户体验和提升软件质量,我们仅可能会匿名收集以下非个人化信息:

• 软件版本信息;

• 软件功能的活跃度、使用频次;

• 匿名的崩溃、错误日志信息;

上述信息完全匿名,不会涉及任何个人身份数据,也无法关联到您的个人信息。

二、我们不会收集的任何信息

为了最大限度保护您的隐私安全,我们明确承诺:

• 不会收集、保存、传输或处理您输入到本软件中的模型服务 API Key 信息;

• 不会收集、保存、传输或处理您在使用本软件过程中产生的任何对话数据,包括但不限于聊天内容、指令信息、知识库信息、向量数据及其他自定义内容;

• 不会收集、保存、传输或处理任何可识别个人身份的敏感信息。

三、数据交互说明

本软件采用您自行申请并配置的第三方模型服务提供商的 API Key,以完成相关模型的调用与对话功能。您使用的模型服务(例如大模型、API 接口等)由您选择的第三方提供商提供并完全由其负责,Cherry Studio 仅作为本地工具提供与第三方模型服务的接口调用功能。

因此:

• 所有您与大模型服务产生的对话数据与 Cherry Studio 无关,我们既不参与数据的存储,也不会进行任何形式的数据传输或中转;

• 您需要自行查看并接受对应第三方模型服务提供商的隐私协议及相关政策,这些服务的隐私协议可访问各提供商官方网站进行查看。

四、第三方模型服务提供商隐私策略声明

您需自行承担因使用第三方模型服务提供商而可能涉及的隐私风险。具体隐私政策、数据安全措施与相关责任,请查阅所选模型服务提供商官方网站相关内容,我们对此不承担任何责任。

五、协议更新与修改

本协议可能随软件版本更新进行适当调整,请您定期关注。协议发生实质性变更时,我们将以适当方式提醒您。

六、联系我们

若您对本协议内容或 Cherry Studio 隐私保护措施存在任何疑问,欢迎随时联系我们。

感谢您选择并信任 Cherry Studio,我们将持续为您提供安全可靠的产品体验。

翻译

Cherry Studio 的翻译功能为您提供快速、准确的文本翻译服务,支持多种语言之间的互译。

界面概览

翻译界面主要由以下几个部分组成:

  1. 源语言选择区:

    • 任意语言:Cherry Studio 会自动识别源语言并进行翻译。

  2. 目标语言选择区:

    • 下拉菜单:选择您希望将文本翻译成的语言。

  3. 设置按钮:

    • 点击后将跳转到 默认模型设置。

  4. 滚动同步:

    • 点击可以切换滚动同步(在任意一边进行滚动,另一边也会一起滚动)。

  5. 文本输入框(左侧):

    • 输入或粘贴您需要翻译的文本。

  6. 翻译结果框(右侧):

    • 显示翻译后的文本。

    • 复制按钮:点击按钮可将翻译结果复制到剪贴板。

  7. 翻译按钮:

    • 点击此按钮开始翻译。

  8. 翻译历史(左上角):

    • 点击后可以查看翻译历史记录。

使用步骤

  1. 选择目标语言:

    • 在目标语言选择区选择您希望翻译成的语言。

  2. 输入或粘贴文本:

    • 在左侧的文本输入框中输入或粘贴您要翻译的文本。

  3. 开始翻译:

    • 点击 翻译 按钮。

  4. 查看和复制结果:

    • 翻译结果将显示在右侧的翻译结果框中。

    • 点击复制按钮即可将翻译结果复制到剪贴板。

常见问题解答 (FAQ)

  • Q: 翻译不准确怎么办?

    • A: AI 翻译虽然强大,但并非完美。对于专业领域或复杂语境的文本,建议进行人工校对。 您也可以尝试切换不同的模型。

  • Q: 支持哪些语言?

    • A: Cherry Studio 翻译功能支持多种主流语言,具体支持的语言列表请参考 Cherry Studio 的官方网站或应用内说明。

  • Q: 可以翻译整个文件吗?

    • A: 目前的界面主要用于文本翻译。 对于文件翻译,可能需要进入 Cherry Studio 的对话页面添加文件进行翻译。

  • Q: 翻译速度慢怎么办?

    • A: 翻译速度可能受网络连接、文本长度、服务器负载等因素影响。请确保您的网络连接稳定,并耐心等待。

模型服务设置

当前页面仅做界面功能的介绍,配置教程可以参考基础教程中的 服务商配置 教程。

  • 在使用内置服务商时只需要填写对应的秘钥即可。

  • 不同服务商对秘钥的叫法可能有所不同,秘钥、Key、API Key、令牌等都指的是同一个东西。

API 秘钥

在 Cherry Studio 当中,单个服务商支持多 Key 轮询使用,轮询方式为从前到后列表循环的方式。

  • 多 Key 用英文逗号隔开添加。如以下示例方式:

sk-xxxx1,sk-xxxx2,sk-xxxx3,sk-xxxx4

必须使用 英文 逗号。

API 地址

在使用内置服务商时一般不需要填写 API 地址,如果需要修改请严格按照对应的官方文档给的地址填写。

如果服务商给的地址为 https://xxx.xxx.com/v1/chat/completions 这种格式,只需要填写根地址部分(https://xxx.xxx.com)即可。

Cherry Studio 会自动拼接剩余的路径(/v1/chat/completions),未按要求填写可能会导致无法正常使用。

说明:大多数服务商的大语言模型路由是统一的,一般情况下不需要进行如下操作。如果服务商的API路径是v2、v3/chat/completions或者其他版本时,可在地址栏手动输入对应版本以"/"结尾;当服务商请求路由不是常规的/v1/chat/completions时使用服务商提供的完整的地址,并以 #结尾。

即:

  • API地址使用 / 结尾时只拼接"chat/completions"

  • API地址使用 # 结尾时不执行拼接操作,只使用填入的地址。

添加模型

一般情况下点击服务商配置页面最左下角的 管理 按钮会自动获取该服务商所有支持调用的模型,从获取列表中点击 + 号添加到模型列表即可。

点击管理按钮时弹窗列表里的模型不会全部添加,需要点击模型右侧的 + ,添加到服务商配置页面的模型列表才可以在模型选择列表当中出现。

连通性检查

点击API 秘钥输入框后的检查按钮即可测试是否成功配置。

模型检查时默认使用模型列表已添加模型的最后一个对话模型,如果检查时有失败的情况请检查模型列表是否有错误的或不被支持的模型。

配置成功后务必打开右上角的开关,否则该服务商仍处于未启用状态,无法在模型列表中找到对应模型。

字节跳动(豆包)

  • 登录 火山引擎

  • 直接点击 这里直达

获取API Key

  • 点击侧栏下方的 API Key管理

  • 创建 API Key

  • 创建成功后,点击创建好的 API Key 后的小眼睛打开并复制

  • 将复制的 API Key 填入到 CherryStudio 当中后,打开服务商开关。

开通并添加模型

  • 在方舟控制台侧栏最下方的 开通管理 开通需要使用的模型,这里可以按需开通豆包系列和 DeepSeek 等模型。

  • 在 模型列表文档 里,找到所需模型对应的 模型ID。

  • 打开 Cherry Studio 的 模型服务 设置找到火山引擎

  • 点击添加,将之前获得的 模型ID 复制至 模型ID 文本对话框即可

  • 按照此流程依次添加模型

API地址

API地址有两种写法

  • 第一种为客户端默认的:https://ark.cn-beijing.volces.com/api/v3/

  • 第二种写法为:https://ark.cn-beijing.volces.com/api/v3/chat/completions#

两种写法没什么区别,保持默认即可,无需修改。

关于 / 和 # 结尾的区别参考文档服务商设置的 API 地址部分,点击前往

华为云

一、到华为云创建账号登录

二、点击此链接,进入Maa S控制台

三、授权

四、点击侧栏鉴权管理,创建API Key(秘钥)并复制

然后在CherryStudio里创建新服务商

创建完成后填入秘钥

五、点击侧栏模型部署,全部领取

六、点击调用

把①处的地址复制,粘贴到CherryStudio的服务商地址当中并在结尾加上“#”号

并在结尾加上“#”号

并在结尾加上“#”号

并在结尾加上“#”号

并在结尾加上“#”号

为什么加“#”号看这里

当然也可以不看那里,直接按照教程操作即可;

也可以使用删除v1/chat/completions的方法填写,只要会填按照自己方法怎么填都行,不会填务必按照教程操作。

然后把②处模型名称复制,到CherryStudio当中点“+添加”按钮新建模型

输入模型名称,不要添油加醋,不要带引号,示例当中怎么写就怎么抄。

点击添加模型按钮即可添加完成。

在华为云当中由于每个模型的地址不一样,所以每个模型都需要新建一个服务商,按照以上步骤重复操作即可。

Google Gemini

获取APIKey

  • 获取 Gemini 的 api key 前,你需要有一个 Google Cloud 项目(如果你已有,此过程可跳过)

  • 进入 Google Cloud 创建项目,填写项目名称并点击创建项目

  • 在官方 API Key页面 点击 密钥 创建API密钥

  • 将生成的 key 复制,并打开 CherryStudio 的 服务商设置

  • 找到服务商 Gemini,填入刚刚获取到的 key

  • 点击最下方管理或者添加,加入支持的模型并打开右上角服务商开关就可以使用了。

  • 中国除台湾之外其他地区无法直接使用 Google Gemini 服务,需自行解决代理问题;

无问芯穹

你是否正在经历:微信收藏了 26 篇干货文章却再也没打开过,电脑里存着"学习资料"文件夹中散落的 10+ 个文件,想找半年前读过的某个理论却只记得零星关键词。而当每日信息量超过大脑处理极限时,90% 珍贵知识会在 72 小时内被遗忘。 现在,通过无问芯穹大模型服务平台 API +Cherry Studio 打造个人知识库,可以将收藏吃灰的微信文章、碎片化的课程内容转化为结构化知识,实现精准调用。

一、个人知识库搭建

1. 无问芯穹API服务:知识库“思考中枢”,好用、稳定

作为知识库的"思考中枢",无问芯穹大模型服务平台提供 DeepSeek R1 满血版等模型版本,提供稳定的 API 服务,目前注册后,无门槛免费用。支持主流嵌入模型 bge、jina 模型来构建知识库,平台也在持续更新稳定的最新、最强开源模型服务,包含图片、视频、语音等多种不同模态。

2. Cherry Studio:零代码搭建知识库

Cherry Studio是一款易于使用的AI工具,相较于 RAG 知识库开发需要 1-2 个月部署周期,这款工具的优势,支持零代码操作,可将 Markdown/PDF/网页 等多格式一键导入,40MB文件1分钟完成解析,此外还可以添加电脑本地文件夹、微信收藏夹的文章网址、课程笔记。

二、3步构建你的专属知识管家

Step 1:基础准备

  1. 访问 Cherry Studio 官网下载适配版本(https://cherry-ai.com/)

  2. 注册账号:登录无问芯穹大模型服务平台 (https://cloud.infini-ai.com/genstudio/model?cherrystudio)

  • 获取 API 密钥:可以在「模型广场」选择deepseek-r1,点击创建并获取APIKEY,复制模型名称

Step 2:打开 CherryStudio 设置,在模型服务中选择无问芯穹,填写好 API 密钥,并开启无问芯穹模型服务

完成以上步骤,在交互时选择需要大模型,即可在 CherryStudio 中使用 无问芯穹 的 API 服务。 为了方便使用,这里也可以设置「默认模型」

Step 3:添加知识库

选择无问芯穹大模型服务平台的嵌入模型 bge系列或 jina 系列模型任一版本

三、真实用户场景实测

  • 导入学习资料后,输入"梳理《机器学习》第三章核心公式推导"

附生成结果图

Vertex AI

暂时不支持Claude模型

教程概述

1. 获取 API Key

  • 获取 Gemini 的 API Key 前,你需要有一个 Google Cloud 项目(如果你已有,此过程可跳过)

  • 进入 Google Cloud 创建项目,填写项目名称并点击创建项目

  • 进入Vertex AI控制台

  • 在创建的项目中开通 Vertex AI API

2. 设置 API 访问权限

  • 打开 服务账号 权限界面,创建服务账号

  • 在服务账号管理页面找到刚刚创建的服务账号,点击密钥并创建一个新的 JSON 格式密钥

  • 创建成功后,密钥文件将会以 JSON 文件的格式自动保存到你的电脑上,请 妥善保存

3. 在Cherry Studio中配置Vertex AI

  • 选择Vertex AI服务商

  • 将JSON文件的对应字段填入

点击添加 模型,就可以愉快地开始使用了!

Tavily 联网登录注册教程

如何注册tavily?

一、tavily官网

https://app.tavily.com/home

有的同学访问可能比较慢,如果有代理,可以使用代理。

二、tavily注册详细步骤

访问上述官网,或者从cherry studio-设置-网络搜索-点击获取秘钥,会直接跳转到tavily登录注册页面。

如果是第一次使用,要先注册一个(Sign up)账号,才能登录(Log in)使用。默认跳转的是登录页面哦。

  1. 点击注册账号,进入下面的界面,输入自己的常用邮箱,或者使用谷歌、github账号,然后下一步输入密码,常规操作。

  1. 🚨🚨🚨【关键步骤】 注册成功后,会有一个动态验证码的步骤,需要扫描二维码,生成一次性Code才能继续使用。

很简单,此时你有2个办法。

  1. 下载一个验证身份的APP,微软出的—— Authenticator 【略微繁琐】

  2. 使用微信小程序:腾讯身份验证器 。【简单,有手就行,建议】

  1. 打开微信小程序,搜索:腾讯身份验证器

三、🎉注册成功🎉

上面的步骤做完,就会进入下面的界面,说明你注册成功了,复制key到cherry studio就可以开始愉快的使用了。

Notion 配置教程

Cherry Studio 支持将话题导入 Notion 的数据库。

第一步

打开网站 Notion Integrations 创建一个应用

第二步

创建一个应用

名字:Cherry Studio

类型:选第一个

图标:可以保存一下这个图片

第三步

复制密钥填写到 Cherry Studio 设置里

第四步

打开 Notion 网站创建一个新页面,在下方选择数据库类型,名称填写 Cherry Studio, 按图示操作连接

第五步

如果你的 Notion 数据库的 URL 类似这样:

https://www.notion.so/<long_hash_1>?v=<long_hash_2>

那么 Notion 数据库 ID 就是 <long_hash_1> 这部分

第六步

填写 页面标题字段名:

若你的网页时英文的,则填写 Name 若你的网页端是中文的,则填写 名称

第七步

恭喜你,Notion 的配置已经完成了 ✅ 接下来就可以将 Cherry Studio 内容导出到你的 Notion 数据库了

配置和使用 MCP

  1. 打开 Cherry Studio 设置。

  2. 找到 MCP 服务器 选项。

  3. 点击 添加服务器。

  4. 将 MCP Server 的相关参数填入(参考链接)。可能需要填写的内容包括:

    • 名称:自定义一个名称,例如 fetch-server

    • 类型:选择 STDIO

    • 命令:填写 uvx

    • 参数:填写 mcp-server-fetch

    • (可能还有其他参数,视具体 Server 而定)

  5. 点击 保存。

完成上述配置后,Cherry Studio 会自动下载所需的 MCP Server - fetch server。下载完成后,我们就可以开始使用了!注意:当 mcp-server-fetch 配置不成功的时候,可以尝试重启一下电脑。

在聊天框中启用 MCP 服务

  • 在 MCP 服务器 设置成功添加了 MCP 服务器

使用效果展示

从上图可以看出,结合了 MCP 的 fetch 功能后,Cherry Studio 能够更好地理解用户的查询意图,并从网络上获取相关信息,给出更准确、更全面的回答。

配置 Dify 知识库

Dify 知识库 MCP 需要将 Cherry Studio 升级至 v1.2.9 或更高版本。

添加 Dify 知识库 MCP 服务器

  1. 打开 搜索MCP。

  2. 添加 dify-knowledge 服务器。

配置 Dify 知识库

需要配置参数和环境变量

  1. Dify知识库key可以通过以下方式获取

使用Dify知识库mcp

商务合作

联系人:王先生

📮:[email protected]

📱:18954281942 (非客服电话)

使用问题咨询,可以在官网首页底部加入我们的用户交流群,也可邮件 [email protected]

或提交 issues:https://github.com/CherryHQ/cherry-studio/issues

如果您需要更多指导,可以加入我们的知识星球

商用授权详情:https://docs.cherry-ai.com/contact-us/questions/cherrystudio-xu-ke-xie-yi

数据设置

该界面可以进行客户端数据的云端和本地备份、本地数据目录查询和清除缓存等操作。

数据备份

目前数据备份只支持 WebDAV 的方式进行备份。你可以选择支持 WebDAV 的服务来进行云端备份。

以坚果云为例

  1. 登录坚果云,点击右上角用户名,选择“账户信息”:

  1. 选择“安全选项”,点击“添加应用”

  1. 输入应用名称,生成随机密码;

  1. 复制记录密码;

  1. 获取服务器地址,账户和密码;

  1. 在 Cherry Studio 设置——数据设置中,填写 WebDAV 信息;

  1. 选择备份或者恢复数据,并可以设置自动备份的时间周期。

WebDAV 服务门槛比较低的一般就是网盘:

其次是一些需要自己部署服务:

PPIO 派欧云

Cherry Studio 接入 PPIO LLM API

Cherry Studio 是一款多模型桌面客户端,目前支持:Windows 、Linux 、MacOS 系电脑安装包。它聚合主流 LLM 模型,提供多场景辅助。用户可通过智能会话管理、开源定制、多主题界面来提升工作效率。

Cherry Studio 现已与 PPIO 高性能 API 通道 深度适配——通过企业级算力保障,实现 DeepSeek-R1/V3 高速响应 与 99.9% 服务可用性,带给您快速流畅的体验。

下方教程包含完整接入方案(含密钥配置),3 分钟开启「Cherry Studio 智能调度 + PPIO 高性能 API」的进阶模式。

(1)先点击左下角设置,自定义提供商名称为:PPIO,点击“确定”

点击 【+ 创建】按钮来创建新的 API 密钥。自定义一个密钥名称,生成的密钥仅在生成时呈现,务必复制并保存到文档中,以免影响后续使用

(3)在 CherryStudio 填入密钥 点击设置,选择【PPIO 派欧云】,输入官网生成的 API 密钥,最后点击【检查】

(4)选择模型:deepseek/deepseek-r1/community 为例,如需更换其他模型,可直接更换。

DeepSeek R1 和 V3 community 版本仅供大家尝鲜,也是全参数满血版模型,稳定性和效果无差异,如需大量调用则须 充值并切换到非 community 版本。

(1)点击【检查】显示连接成功后即可正常使用

(2)最后点击【@】选择 PPIO 供应商下刚刚添加的 DeepSeek R1 模型,即可成功开始聊天~

【视频素材来源:sola】

自动安装 MCP

自动安装 MCP 需要将 Cherry Studio 升级至 v1.1.18 或更高版本。

功能简介

除了手动安装外,Cherry Studio 还内置了 @mcpmarket/mcp-auto-install 工具,这是一个更便捷的 MCP 服务器安装方式。你只需要在支持 MCP 服务的大模型对话中输入相应的指令即可。

测试阶段提醒:

  • @mcpmarket/mcp-auto-install 目前仍处于测试阶段

  • 效果依赖大模型的"智商",有些会自动添加,有些还是需要在 MCP 设置中再手动更改某些参数

  • 目前搜索源是从 @modelcontextprotocol 中进行搜索,可以自行配置(下方说明)

使用说明

例如,你可以输入:

系统会自动识别你的需求,并通过 @mcpmarket/mcp-auto-install 完成安装。这个工具支持多种类型的 MCP 服务器,包括但不限于:

  • filesystem(文件系统)

  • fetch(网络请求)

  • sqlite(数据库)

  • 等等...

MCP_PACKAGE_SCOPES 变量可以自定义 MCP 服务搜索源,默认值为:@modelcontextprotocol,可以自定义配置。

@mcpmarket/mcp-auto-install 库的介绍

默认配置参考:

如何高效提问

Cherry Studio 是一个免费开源的项目,随着项目壮大,项目小组的工作量也日渐增多。为了减少沟通成本以及能够快速高效的解决您的问题,我们希望大家在提问之前尽可能按照以下步骤和方式来处理遇到的问题,为项目小组留出更多的时间放在项目的维护和开发上。感谢您的配合!

一、文档查阅和搜索

大多数基础的问题仔细查阅文档基本都能帮你解决

  • 比较复杂的问题可以直接通过搜索或在搜索框提问来解决;

  • 务必仔细阅读每一篇文档当中的提示框内容,可以帮你避免很多问题;

二、网络搜索、提问AI

模型的使用等跟客户端功能无关的问题(如模型报错、回答不符合预期、参数设置等问题)建议先在网络上搜索相关解决方案,或将报错内容和问题等描述给 AI 来寻找解决方案。

三、官方社群提问或在GitHub提出issue

  1. 如果是软件Bug,请提供具体的错误描述和详细的步骤,方便开发者调试和修复。如果是偶发问题无法复现,请尽可能详细描述问题出现时的相关场景、背景和配置参数等。 除此之外你还需要将平台信息(Window、Mac或Linux)、软件版本号等信息一并列入问题描述当中。

求文档或提供文档建议

可以联系tg频道 @Wangmouuu 或 QQ(1355873789),也可以发送邮件至:[email protected]。

Star History

授权步骤(已授权跳过)
  1. 进入(二)的链接页面后,根据提示进入授权页面(点击IAM子用户→新增委托→普通用户)

  1. 点击创建后重新返回(二)处链接页面

  2. 会提示访问权限不足,点击提示里的"点击此处"

  3. 追加已有授权并确定

注意:该方法适用于小白,不用看过多内容,只需要根据提示点击,如果你可以一次性授权成功按照自己的方式来即可。

你也可以通过 A电脑 WebDAV B电脑 的方式来实现多端数据同步。

(需要会员)

(需要购买)

(免费空间容量为10GB,单个文件大小限制为250MB。)

(Dropbox免费2GB,可以邀请好友扩容16GB 。)

(免费空间为10GB,另外一个通过邀请可以获得5GB额外空间。)

(免费用户提供10GB容量。)

教程概述

1. 进入 CherryStudio,添加 “PPIO” 作为模型提供商

首先前往官网下载 Cherry Studio: (如果进不去可以打开下面的夸克网盘链接下载自己需要的版本:

(2)前往 ,点击【用户头像】—【API 密钥管理】进入控制台

2. 模型使用配置

【部分素材来源:】

3. PPIO×Cherry Studio 视频使用教程

若您更倾向直观学习,我们在 B 站准备了视频教程。通过手把手教学,助您快速掌握「PPIO API+Cherry Studio」的配置方法,点击下方链接直达视频,开启流畅开发体验 →

@mcpmarket/mcp-auto-install 是一个开源的 npm 包,你可以在 查看其详细信息和使用文档。@mcpmarket 为 Cherry Studi 官方 MCP 服务集合。

软件的功能和使用问题可以到 文档里查看;

高频问题会收录在 页面,可以先在常见问题页面查看是否有解决方案;

在 GitHub 的 页面查看或搜索是否有类似问题和解决方案。

如果上述一、二两步并没有找到答案或者无法解决你的问题,可以到官方 、、()详细描述问题并寻求帮助。

如果是模型报错,请提供完整的界面截图以及控制台报错信息。敏感信息可以打码处理,但是模型名称、参数设置、报错内容务必保留在截图当中。控制台报错信息查看方法 。

→备份\xrightarrow{\text{备份}}备份​
→恢复\xrightarrow{\text{恢复}}恢复​
帮我安装一个 filesystem mcp server
// `axun-uUpaWEdMEMU8C61K` 为服务id,自定义即可
"axun-uUpaWEdMEMU8C61K": {
  "name": "mcp-auto-install",
  "description": "Automatically install MCP services (Beta version)",
  "isActive": false,
  "registryUrl": "https://registry.npmmirror.com",
  "command": "npx",
  "args": [
    "-y",
    "@mcpmarket/mcp-auto-install",
    "connect",
    "--json"
  ],
  "env": {
    "MCP_REGISTRY_PATH": "详情见https://www.npmjs.com/package/@mcpmarket/mcp-auto-install"
  },
  "disabledTools": []
}
坚果云
123盘
阿里云盘
Box
Dropbox
TeraCloud
Yandex Disk
Alist
Cloudreve
sharelist
​
​
https://cherry-ai.com/download
https://pan.quark.cn/s/c8533a1ec63e#/list/share
派欧算力云 API 密钥管理
​
陈恩
​
《 【还在为 DeepSeek 疯狂转圈抓狂?】派欧云+DeepSeek 满血版 =?不再拥堵,即刻起飞》
npm 官方仓库
功能介绍
常见问题
Issue
tg频道
Discord频道
一键进群
点击这里
Drawing

自定义服务商

Cherry Studio 不仅集成了主流的 AI 模型服务,还赋予了您强大的自定义能力。通过 自定义 AI 服务商 功能,您可以轻松接入任何您需要的 AI 模型。

为什么需要自定义 AI 服务商?

  • 灵活性: 不再受限于预置的服务商列表,自由选择最适合您需求的 AI 模型。

  • 多样性: 尝试各种不同平台的 AI 模型,发掘它们的独特优势。

  • 可控性: 直接管理您的 API 密钥和访问地址,确保安全和隐私。

  • 定制化: 接入私有化部署的模型,满足特定业务场景的需求。

如何添加自定义 AI 服务商?

只需简单几步,即可在 Cherry Studio 中添加您的自定义 AI 服务商:

  1. 打开设置: 在 Cherry Studio 界面左侧导航栏中,点击“设置”(齿轮图标)。

  2. 进入模型服务: 在设置页面中,选择“模型服务”选项卡。

  3. 添加提供商: 在“模型服务”页面中,您会看到已有的服务商列表。点击列表下方的“+ 添加”按钮,打开“添加提供商”弹窗。

  4. 填写信息: 在弹窗中,您需要填写以下信息:

    • 提供商名称: 为您的自定义服务商起一个易于识别的名称(例如:MyCustomOpenAI)。

    • 提供商类型: 从下拉列表中选择您的服务商类型。目前支持:

      • OpenAI

      • Gemini

      • Anthropic

      • Azure OpenAI

  5. 保存配置: 填写完毕后,点击“添加”按钮保存您的配置。

配置自定义 AI 服务商

添加完成后,您需要在列表中找到您刚刚添加的服务商,并进行详细配置:

  1. 启用状态 自定义服务商列表最右侧有一个启用开关,打开代表启用该自定义服务。

  2. API 密钥:

    • 填写您的 AI 服务商提供的 API 密钥(API Key)。

    • 点击右侧的“检查”按钮,可以验证密钥的有效性。

  3. API 地址:

    • 填写 AI 服务的 API 访问地址(Base URL)。

    • 请务必参考您的 AI 服务商提供的官方文档,获取正确的 API 地址。

  4. 模型管理:

    • 点击“+ 添加”按钮,手动添加此提供商下您想要使用的模型ID。例如 gpt-3.5-turbo、gemini-pro 等。

    • 如果您不确定具体的模型名称,请参考您的 AI 服务商提供的官方文档。

    • 点击"管理"按钮,可以对已经添加的模型进行编辑或者删除。

开始使用

完成以上配置后,您就可以在 Cherry Studio 的聊天界面中,选择您自定义的 AI 服务商和模型,开始与 AI 进行对话了!

使用 vLLM 作为自定义 AI 服务商

vLLM 是一个类似Ollama的快速且易于使用的 LLM 推理库。以下是如何将 vLLM 集成到 Cherry Studio 中的步骤:

  1. 安装 vLLM: 按照 vLLM 官方文档(https://docs.vllm.ai/en/latest/getting_started/quickstart.html)安装 vLLM。

    pip install vllm # 如果你使用 pip
    uv pip install vllm # 如果你使用 uv
  2. 启动 vLLM 服务: 使用 vLLM 提供的 OpenAI 兼容接口启动服务。主要有两种方式,分别如下:

    • 使用vllm.entrypoints.openai.api_server启动

    python -m vllm.entrypoints.openai.api_server --model gpt2
    • 使用uvicorn启动

    vllm --model gpt2 --served-model-name gpt2

确保服务成功启动,并监听在默认端口 8000 上。 当然, 您也可以通过参数--port指定 vLLM 服务的端口号。

  1. 在 Cherry Studio 中添加 vLLM 服务商:

    • 按照前面描述的步骤,在 Cherry Studio 中添加一个新的自定义 AI 服务商。

    • 提供商名称: vLLM

    • 提供商类型: 选择 OpenAI。

  2. 配置 vLLM 服务商:

    • API 密钥: 因为 vLLM 不需要 API 密钥,可以将此字段留空,或者填写任意内容。

    • API 地址: 填写 vLLM 服务的 API 地址。默认情况下,地址为: http://localhost:8000/(如果使用了不同的端口,请相应地修改)。

    • 模型管理: 添加您在 vLLM 中加载的模型名称。 在上面运行python -m vllm.entrypoints.openai.api_server --model gpt2的例子中, 应该在此处填入gpt2

  3. 开始对话: 现在,您可以在 Cherry Studio 中选择 vLLM 服务商和 gpt2 模型,开始与 vLLM 驱动的 LLM 进行对话了!

提示与技巧

  • 仔细阅读文档: 在添加自定义服务商之前,请务必仔细阅读您所使用的 AI 服务商的官方文档,了解 API 密钥、访问地址、模型名称等关键信息。

  • 检查 API 密钥: 使用“检查”按钮可以快速验证 API 密钥的有效性,避免因密钥错误导致无法使用。

  • 关注 API 地址: 不同的 AI 服务商和模型,API 地址可能有所不同,请务必填写正确的地址。

  • 模型按需添加: 请只添加您实际上会用到的模型, 避免添加过多无用模型.

Ollama

Ollama 是一款优秀的开源工具,让您可以在本地轻松运行和管理各种大型语言模型(LLMs)。Cherry Studio 现已支持 Ollama 集成,让您可以在熟悉的界面中,直接与本地部署的 LLM 进行交互,无需依赖云端服务!

什么是 Ollama?

Ollama 是一个简化大型语言模型(LLM)部署和使用的工具。它具有以下特点:

  • 本地运行: 模型完全在您的本地计算机上运行,无需联网,保护您的隐私和数据安全。

  • 简单易用: 通过简单的命令行指令,即可下载、运行和管理各种 LLM。

  • 模型丰富: 支持 Llama 2、Deepseek、Mistral、Gemma 等多种流行的开源模型。

  • 跨平台: 支持 macOS、Windows 和 Linux 系统。

  • 开放API:支持与OpenAI兼容的接口,可以和其他工具集成。

为什么要在 Cherry Studio 中使用 Ollama?

  • 无需云服务: 不再受限于云端 API 的配额和费用,尽情体验本地 LLM 的强大功能。

  • 数据隐私: 您的所有对话数据都保留在本地,无需担心隐私泄露。

  • 离线可用: 即使在没有网络连接的情况下,也能继续与 LLM 进行交互。

  • 定制化: 可以根据您的需求,选择和配置最适合您的 LLM。

在 Cherry Studio 中配置 Ollama

1. 安装和运行 Ollama

首先,您需要在您的计算机上安装并运行 Ollama。请按照以下步骤操作:

  • 下载 Ollama: 访问 Ollama 官网(https://ollama.com/),根据您的操作系统下载对应的安装包。 在 Linux 下,可直接运行命令安装ollama:

    curl -fsSL https://ollama.com/install.sh | sh
  • 安装 Ollama: 按照安装程序的指引完成安装。

  • 下载模型: 打开终端(或命令提示符),使用 ollama run 命令下载您想要使用的模型。例如,要下载 Llama 2 模型,可以运行:

    ollama run llama3.2

    Ollama 会自动下载并运行该模型。

  • 保持 Ollama 运行: 在您使用 Cherry Studio 与 Ollama 模型交互期间,请确保 Ollama 保持运行状态。

2. 在 Cherry Studio 中添加 Ollama 服务商

接下来,在 Cherry Studio 中添加 Ollama 作为自定义 AI 服务商:

  • 打开设置: 在 Cherry Studio 界面左侧导航栏中,点击“设置”(齿轮图标)。

  • 进入模型服务: 在设置页面中,选择“模型服务”选项卡。

  • 添加提供商: 点击列表中的 Ollama。

3. 配置 Ollama 服务商

在服务商列表中找到刚刚添加的 Ollama,并进行详细配置:

  1. 启用状态:

    • 确保 Ollama 服务商最右侧的开关已打开,表示已启用。

  2. API 密钥:

    • Ollama 默认不需要 API 密钥。您可以将此字段留空,或者填写任意内容。

  3. API 地址:

    • 填写 Ollama 提供的本地 API 地址。通常情况下,地址为:

      http://localhost:11434/

      如果修改了端口,请自行更改。

  4. 保持活跃时间: 此选项是设置会话的保持时间,单位是分钟。如果在设定时间内没有新的对话,Cherry Studio 会自动断开与 Ollama 的连接,释放资源。

  5. 模型管理:

    • 点击“+ 添加”按钮,手动添加您在 Ollama 中已经下载的模型名称。

    • 比如您已经通过ollama run llama3.2下载了llama3.2模型, 那么此处可以填入llama3.2

    • 点击“管理”按钮,可以对已添加的模型进行编辑或删除。

开始使用

完成以上配置后,您就可以在 Cherry Studio 的聊天界面中,选择 Ollama 服务商和您已下载的模型,开始与本地 LLM 进行对话了!

技巧与提示

  • 首次运行模型: 第一次运行某个模型时,Ollama 需要下载模型文件,可能需要较长时间,请耐心等待。

  • 查看可用模型: 在终端中运行 ollama list 命令,可以查看您已下载的 Ollama 模型列表。

  • 硬件要求: 运行大型语言模型需要一定的计算资源(CPU、内存、GPU),请确保您的计算机配置满足模型的要求。

  • Ollama 文档: 可以点击配置页面中的查看Ollama文档和模型链接快速跳转至Ollama官网文档。

联网模式

如何在 Cherry Studio 使用联网模式

需要联网的场景举例:

  • 时效性信息:比如今天/本周/刚刚 黄金期货价格等。

  • 实时数据:比如天气,汇率等动态数值。

  • 新兴知识:比如新事物,新概念,新技术等等...

一、如何开启联网

在Cherry Studio 的提问窗口,点击 【小地球】 图标即可开启联网。

二、特别注意:联网有两种模式

模式1:模型服务商的大模型自带联网功能

这种情况下,开启联网后,直接就可以使用联网服务了,非常简单。

可以通过问答界面上方,模型名字后面是否带有小地图标记,迅速判断该模型是否支持联网。

在模型管理页面,这个方法也可以让你快速分辨出哪些模型支持联网,哪些不支持。

Cherry Studio 目前已经支持的联网模型服务商有

  • Google Gemini

  • OpenRouter(全部模型支持联网)

  • 腾讯混元

  • 智谱AI

  • 阿里云百炼等

特别注意:

存在一种特殊的情况,即便模型上没带小地球标记,但是它也能实现联网,比如下面这个攻略教程解释的情况。


模式2:模型不带联网功能,使用 Tavily服务 实现联网功能

当我们使用一个不带联网功能的大模型时(名字后面没有小地球图标),而我们又需要它获取一些实时性的信息进行处理,此时就需要用到Tavily网络搜索服务。

初次使用Tavily服务,会弹窗提示去设置一些信息,请根据指引操作即可-非常简单!

点击获取秘钥后,会自动跳转到tavily的官网登录注册页面,注册并登录后,创建APIkey,然后复制key到Cherry Studio即可。

不会注册,参考本文档同目录下tavily联网登录注册教程。

tavily注册参考文档:

显示下面的界面表示注册成功。

再来试一次看看效果。结果表明,已经正常联网搜索了,并且搜索结果数是我们设置的默认值:5个。

注意:tavily 每个月有白嫖限制,超过了要付费~~

PS:如果发现错误,欢迎大家随时联系。

知识库教程

在 0.9.1 版本中,CherryStudio 带来了期待已久的知识库功能。

下面我们将按步骤呈现 CherryStudio 的详细使用说明。

添加嵌入模型

  1. 在模型管理服务中查找模型,可以点击“嵌入模型”快速筛选;

  2. 找到需要的模型,添加到我的模型。

创建知识库

  1. 知识库入口:在 CherryStudio 左侧工具栏,点击知识库图标,即可进入管理页面;

  2. 添加知识库:点击添加,开始创建知识库;

  3. 命名:输入知识库的名称并添加嵌入模型,以 bge-m3 为例,即可完成创建。

添加文件并向量化

  1. 添加文件:点击添加文件的按钮,打开文件选择;

  2. 选择文件:选择支持的文件格式,如 pdf,docx,pptx,xlsx,txt,md,mdx 等,并打开;

  3. 向量化:系统会自动进行向量化处理,当显示完成时(绿色 ✓),代表向量化已完成。

添加多种来源的数据

CherryStudio 支持多种添加数据的方式:

  1. 文件夹目录:可以添加整个文件夹目录,该目录下支持格式的文件会被自动向量化;

  2. 网址链接:支持网址 url,如https://docs.siliconflow.cn/introduction;

  3. 站点地图:支持 xml 格式的站点地图,如https://docs.siliconflow.cn/sitemap.xml;

  4. 纯文本笔记:支持输入纯文本的自定义内容。

提示:

  1. 导入知识库的文档中的插图暂不支持转换为向量,需要手动转换为文本;

  2. 使用网址作为知识库来源时不一定会成功,有些网站有比较严格的反扒机制(或需要登录、授权等),因此该方式不一定能获取到准确内容。创建完成后建议先搜索测试一下。

  3. 一般网站都会提供sitemap,如CherryStudio的sitemap,一般情况下在网站的根地址(即网址)后加/sitemap.xml可以获取到相关信息。如aaa.com/sitemap.xml 。

  4. 如果网站没提供sitemap或者网址比较杂可自行组合一个sitemap的xml文件使用,文件暂时需要使用公网可直接访问的直链的方式填入,本地文件链接不会被识别。

  1. 可以让AI生成sitemap文件或让AI写一个sitemap的HTML生成器工具;

  2. 直链可以使用oss直链或者网盘直链等方式来生成。如果没有现成工具也可到ocoolAI官网,登录后使用网站顶栏的免费文件上传工具来生成直链。

搜索知识库

当文件等资料向量化完成后,即可进行查询:

  1. 点击页面下方的搜索知识库按钮;

  2. 输入查询的内容;

  3. 呈现搜索的结果;

  4. 并显示该条结果的匹配分数。

对话中引用知识库生成回复

  1. 创建一个新的话题,在对话工具栏中,点击知识库,会展开已经创建的知识库列表,选择需要引用的知识库;

  2. 输入并发送问题,模型即返回通过检索结果生成的答案 ;

  3. 同时,引用的数据来源会附在答案下方,可快捷查看源文件。

Obsidian 配置教程

数据设置→Obsidian配置

Cherry Studio 支持与 Obsidian 联动,将完整对话或单条对话导出到 Obsidian 库中。

最新教程

相比旧版导出到 Obsidian,新版导出到 Obsidian 功能可以自动选择库路径,不再需要手动输入库名、文件夹名。

第一步:配置 Cherry Studio

打开 Cherry Studio 的设置 → 数据设置 → Obsidian 配置菜单,下拉框中会自动出现在本机打开过的 Obsidian 库名,选择你的目标 Obsidian 库:

第二步:导出对话

导出完整对话

回到 Cherry Studio 的对话界面,右键点击对话,选择导出,点击导出到 Obsidian:

此时会弹出一个窗口,用于调整这条导出到 Obsidian 中的对话笔记的 Properties(属性)、所放置在Obsidian的文件夹位置以及导出到 Obsidian 中的处理方式:

  • 保管库:点击下拉菜单可以选择其他 Obsidian 库

  • 路径:点击下拉菜单可以选择存放导出对话笔记的文件夹

  • 作为 Obsidian 笔记属性(Properties):

    • 标签(tags)

    • 创建时间(created)

    • 来源(source)

  • 导出到 Obsidian 中的处理方式有以下三种可选:

  • 导出到 Obsidian 中的处理方式有以下三种可选:

    • 新建(如果存在就覆盖):在路径处填写的文件夹 里新建一篇对话笔记,如果存在同名笔记则会覆盖旧笔记

    • 前置:在已存在同名笔记的情况下,将选中的对话内容导出添加到该笔记的开头

    • 追加:在已存在同名笔记的情况下,将选中的对话内容导出添加到该笔记的末尾

只有第一种方式会附带 Properties(属性),后两种方式不会附带 Properties(属性)。

选择完所有选项后,点击确定即可导出完整对话到对应的 Obsidian 库的对应文件夹。

导出单条对话

对于单条对话的导出,则点击对话下方的三条杠菜单,选择导出,点击导出到 Obsidian:

导出成功

🎉 到这里,恭喜你完成了 Cherry Studio 联动 Obsidian 的所有配置,并完整地将导出流程走了一遍,enjoy yourselves!


旧教程(适用于Cherry Studio<v1.1.13)

第一步:准备 Obsidian

打开 Obsidian 库,创建一个用于保存导出对话的文件夹(图中以 Cherry Studio 文件夹为例):

注意记住左下角框出来的文字,这里是你的保管库名。

第二步:配置 Cherry Studio

全局标签处是可选的,可设定所有对话导出后在 Obsidian 中的标签,按需填写。

第三步:导出对话

导出完整对话

回到 Cherry Studio 的对话界面,右键点击对话,选择导出,点击导出到 Obsidian。

此时会弹出一个窗口,用于调整这条导出到 Obsidian 中的对话笔记的 Properties(属性),以及导出到 Obsidian 中的处理方式。导出到 Obsidian 中的处理方式有以下三种可选:

  • 前置:在已存在同名笔记的情况下,将选中的对话内容导出添加到该笔记的开头

  • 追加:在已存在同名笔记的情况下,将选中的对话内容导出添加到该笔记的末尾

只有第一种方式会附带 Properties(属性),后两种方式不会附带 Properties(属性)。

导出单条对话

对于单条对话的导出,则点击对话下方的三条杠菜单,选择导出,点击导出到 Obsidian。

导出成功

🎉 到这里,恭喜你完成了 Cherry Studio 联动 Obsidian 的所有配置,并完整地将导出流程走了一遍,enjoy yourselves!

自定义 CSS

通过自定义 CSS 可以修改软件的外观更加符合自己的喜好,例如这样:

内置变量

相关推荐

修改存储位置

默认存储位置

Cherry Studio 数据存储遵循系统规范,数据会自动放在用户目录下,具体目录位置如下:

macOS: /Users/username/Library/Application Support/CherryStudioDev

Windows: C:\Users\username\AppData\Roaming\CherryStudio

Linux: /home/username/.config/CherryStudio

也可以在以下位置查看:

修改存储位置(供参考)

方法一:

可以通过创建软连接的方式来实现。将软件退出,将数据移动到你希望保存的位置,然后在原位置创建一个链接指向移动后的位置即可。

方法二: 基于 Electron 应用特点、通过配置启动参数进行存储位置修改。

--user-data-dir 如: Cherry-Studio-*-x64-portable.exe --user-data-dir="%user_data_dir%"

Example:

init_cherry_studio.bat (encoding: ANSI)

目录 user-data-dir 初始化后结构:

知识库处理流程图

该过程无需安装额外的 Obsidian 插件。但由于 Cherry Studio 导入到 Obsidian 采用的原理与 Obsidian Web Clipper 类似,因此建议用户最好将 Obsidian 升级至最新版本(当前 Obsidian 版本至少应大于 1.7.2),以免。

之后也会弹出与导出完整对话时一样的窗口,要求你配置笔记属性与笔记的处理方式,一样按照完成即可。

在 Cherry Studio 的设置 → 数据设置 → Obsidian 配置菜单中,输入在中获取到的保管库名与文件夹名:

新建(如果存在就覆盖):在中填写的文件夹 里新建一篇对话笔记,如果存在同名笔记则会覆盖旧笔记

之后也会弹出与导出完整对话时一样的窗口,要求你配置笔记属性与笔记的处理方式,一样按照完成即可。

更多主题变量请参考源代码:

Cherry Studio 主题库:

分享一些中国风 Cherry Studio 主题皮肤:

具体操作步骤可以参考:

火山引擎接入联网
Tavily 联网登录注册教程
:root {
  --color-background: #1a462788;
  --color-background-soft: #1a4627aa;
  --color-background-mute: #1a462766;
  --navbar-background: #1a4627;
  --chat-background: #1a4627;
  --chat-background-user: #28b561;
  --chat-background-assistant: #1a462722;
}

#content-container {
  background-color: #2e5d3a !important;
}
:root {
  font-family: "汉仪唐美人" !important; /* 字体 */
}

/* 深度思考展开字体颜色 */
.ant-collapse-content-box .markdown {
  color: red;
}

/* 主题变量 */
:root {
  --color-black-soft: #2a2b2a; /* 深色背景色 */
  --color-white-soft: #f8f7f2; /* 浅色背景色 */
}

/* 深色主题 */
body[theme-mode="dark"] {
  /* Colors */
  --color-background: #2b2b2b; /* 深色背景色 */
  --color-background-soft: #303030; /* 浅色背景色 */
  --color-background-mute: #282c34; /* 中性背景色 */
  --navbar-background: var(-–color-black-soft); /* 导航栏背景色 */
  --chat-background: var(–-color-black-soft); /* 聊天背景色 */
  --chat-background-user: #323332; /* 用户聊天背景色 */
  --chat-background-assistant: #2d2e2d; /* 助手聊天背景色 */
}

/* 深色主题特定样式 */
body[theme-mode="dark"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* 内容容器背景色 */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* 消息背景色 */
  }

  .inputbar-container {
    background-color: #3d3d3a; /* 输入框背景色 */
    border: 1px solid #5e5d5940; /* 输入框边框颜色 */
    border-radius: 8px; /* 输入框边框圆角 */
  }

  /* 代码样式 */
  code {
    background-color: #e5e5e20d; /* 代码背景色 */
    color: #ea928a; /* 代码文字颜色 */
  }

  pre code {
    color: #abb2bf; /* 预格式化代码文字颜色 */
  }
}

/* 浅色主题 */
body[theme-mode="light"] {
  /* Colors */
  --color-white: #ffffff; /* 白色 */
  --color-background: #ebe8e2; /* 浅色背景色 */
  --color-background-soft: #cbc7be; /* 浅色背景色 */
  --color-background-mute: #e4e1d7; /* 中性背景色  */
  --navbar-background: var(-–color-white-soft); /* 导航栏背景色 */
  --chat-background: var(-–color-white-soft); /* 聊天背景色 */
  --chat-background-user: #f8f7f2; /* 用户聊天背景色 */
  --chat-background-assistant: #f6f4ec; /* 助手聊天背景色 */
}

/* 浅色主题特定样式 */
body[theme-mode="light"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* 内容容器背景色 */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* 消息背景色 */
  }

  .inputbar-container {
    background-color: #ffffff; /* 输入框背景色 */
    border: 1px solid #87867f40; /* 输入框边框颜色 */
    border-radius: 8px; /* 输入框边框圆角,修改为您喜欢的大小 */
  }

  /* 代码样式 */
  code {
    background-color: #3d39290d; /* 代码背景色 */
    color: #7c1b13; /* 代码文字颜色 */
  }

  pre code {
    color: #000000; /* 预格式化代码文字颜色 */
  }
}
PS D:\CherryStudio> dir


    目录: D:\CherryStudio


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:05                user-data-dir
-a----         2025/4/14     23:05       94987175 Cherry-Studio-1.2.4-x64-portable.exe
-a----         2025/4/18     14:05            701 init_cherry_studio.bat
@title CherryStudio 初始化
@echo off

set current_path_dir=%~dp0
@echo 当前路径:%current_path_dir%
set user_data_dir=%current_path_dir%user-data-dir
@echo CherryStudio 数据路径:%user_data_dir%

@echo 查找当前路径下 Cherry-Studio-*-portable.exe
setlocal enabledelayedexpansion

for /f "delims=" %%F in ('dir /b /a-d "Cherry-Studio-*-portable*.exe" 2^>nul') do ( #此代码适配 GitHub 和官网下载的版本,其他请自行修改
    set "target_file=!cd!\%%F"
    goto :break
)
:break
if defined target_file (
    echo 找到文件: %target_file%
) else (
    echo 未找到匹配文件,退出该脚本
    pause
    exit
)

@echo 确认请继续
pause

@echo 启动 CherryStudio
start %target_file% --user-data-dir="%user_data_dir%"

@echo 操作结束
@echo on
exit
PS D:\CherryStudio> dir .\user-data-dir\


    目录: D:\CherryStudio\user-data-dir


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:29                blob_storage
d-----         2025/4/18     14:07                Cache
d-----         2025/4/18     14:07                Code Cache
d-----         2025/4/18     14:07                Data
d-----         2025/4/18     14:07                DawnGraphiteCache
d-----         2025/4/18     14:07                DawnWebGPUCache
d-----         2025/4/18     14:07                Dictionaries
d-----         2025/4/18     14:07                GPUCache
d-----         2025/4/18     14:07                IndexedDB
d-----         2025/4/18     14:07                Local Storage
d-----         2025/4/18     14:07                logs
d-----         2025/4/18     14:30                Network
d-----         2025/4/18     14:07                Partitions
d-----         2025/4/18     14:29                Session Storage
d-----         2025/4/18     14:07                Shared Dictionary
d-----         2025/4/18     14:07                WebStorage
-a----         2025/4/18     14:07             36 .updaterId
-a----         2025/4/18     14:29             20 config.json
-a----         2025/4/18     14:07            434 Local State
-a----         2025/4/18     14:29             57 Preferences
-a----         2025/4/18     14:09           4096 SharedStorage
-a----         2025/4/18     14:30            140 window-state.json
如果对话过长造成导入失败
上方的教程
第一步
第二步
上方的教程
https://github.com/CherryHQ/cherry-studio/tree/main/src/renderer/src/assets/styles
https://github.com/boilcy/cherrycss
https://linux.do/t/topic/325119/129
https://github.com/CherryHQ/cherry-studio/issues/621#issuecomment-2588652880

Cherry Studio 商用许可协议

使用或分发 Cherry Studio 材料的任何部分或元素,您将被视为已认可并接受本协议的内容,本协议立即生效。

一. 定义

  1. 本 Cherry Studio 许可协议(以下简称“协议”)应指由本协议定义的,关于材料的使用、复制、分发和修改的条款和条件。

  2. “我们”(或“我方”)应指 上海千彗科技有限公司。

  3. “您”(或“贵方”)应指行使本协议授予的权利,和/或出于任何目的和在任何使用领域使用材料的自然人或法人实体。

  4. “第三方”应指与我们或您均无共同控制权的个人或法人实体。

  5. “Cherry Studio” 应指 本软件套件,包括但不限于 [例如:核心库、编辑器、插件、示例项目],以及源代码、文档、示例代码以及我们分发的上述各项的其他元素。 (请根据 CherryStudio 的实际构成详细描述)

  6. “材料”应统指 上海千彗科技有限公司 的专有 Cherry Studio 和文档(及其任何部分),根据本协议提供。

  7. “源”形式应指进行修改的首选形式,包括但不限于源代码、文档源文件和配置文件。

  8. “目标”形式应指源形式经过机械转换或翻译后产生的任何形式,包括但不限于编译后的目标代码、生成的文档以及转换为其他媒体类型的形式。

  9. “商业用途” 指用于直接或间接商业利益或商业优势的目的,包括但不限于销售、许可、订阅、广告、市场营销、培训、咨询服务等。

  10. “修改” 指对材料的源形式进行任何更改、调整、衍生或二次开发,包括但不限于修改应用名称、Logo、代码、功能、界面等。

二. 权利授予

  1. 免费商业使用(限于未修改代码): 我们在此根据我们拥有的或我们拥有的体现在材料中的知识产权或其他权利,授予您一项非独家的、全球范围的、不可转让的、免版税的许可,以使用、复制、分发、拷贝、和分发未经修改的材料,包括用于商业用途,但须遵守本协议的条款和条件。

  2. 商业授权(必要时): 在满足第 3 条 “商业授权” 所述的条件时,您需要从我们处获得明确的书面商业授权才能行使本协议项下的权利。

三. 商业授权

在以下任何一种情况下,您需要联系我们并获得明确的书面商业授权后,方可继续使用 Cherry Studio 材料:

  1. 修改与衍生: 您对 Cherry Studio 材料进行修改或基于其进行衍生开发(包括但不限于修改应用名称、Logo、代码、功能、界面等)。

  2. 企业服务: 在您的企业内部,或为企业客户提供基于 Cherry Studio 的服务,且该服务支持 10 人及以上累计用户使用。

  3. 硬件捆绑销售: 您将 Cherr yStudio 预装或集成到硬件设备或产品中进行捆绑销售。

  4. 政府或教育机构大规模采购: 您的使用场景属于政府或教育机构的大规模采购项目,特别是涉及安全、数据隐私等敏感需求时。

  5. 面向公众的云服务:基于 Cherry Studio,提供面向公众的云服务。

四. 再分发

您可以分发未经修改的材料副本,或将其作为包含未经修改的材料的产品或服务的一部分提供,以源形式或目标形式分发,但您须满足以下条件:

  1. 您应向材料的任何其他接收者提供本协议的副本;

  2. 您应在您分发的所有材料副本中,保留以下署名声明,并将其放在作为此类副本一部分分发的 “NOTICE” 或类似文本文件中: `"Cherry Studio is licensed under the Cherry Studio LICENSE AGREEMENT, Copyright (c) 上海千彗科技有限公司. All Rights Reserved."` (Cherry Studio 根据 Cherry Studio 许可协议获得许可,版权所有 (c) 上海千彗科技有限公司。保留所有权利。)

五. 使用规则

  1. 材料可能受出口管制或限制。您在使用材料时应遵守适用的法律法规。

  2. 如果您使用材料或其任何输出或结果来创建、训练、微调或改进将被分发或提供的软件或模型,我们鼓励您在相关产品文档中显著标示 “Built with Cherry Studio” 或 “Powered by Cherry Studio”。

六. 知识产权

  1. 我们保留对材料以及由我们或为我们制作的衍生作品的所有知识产权的所有权。在遵守本协议的条款和条件的前提下,对于您制作的材料的修改和衍生作品,其知识产权归属将根据具体商业授权协议约定。 在未获得商业授权的情况下,您对材料的修改和衍生作品不享有所有权,其知识产权仍归属于我们。

  2. 除履行本协议项下的通知义务或在描述和再分发材料时进行合理和惯常的使用所必需的情况外,未授予使用我方商号、商标、服务标志或产品名称的商标许可。

  3. 如果您对我们或任何实体提起诉讼或其他法律程序(包括诉讼中的反诉或反请求),声称材料或其任何输出,或上述任何部分侵犯了您拥有或可许可的任何知识产权或其他权利,则根据本协议授予您的所有许可应自该诉讼或其他法律程序开始或提起之日起终止。

七. 免责声明和责任限制

  1. 我们没有义务支持、更新、提供培训或开发任何进一步版本的 CherryStudio 材料,也没有义务授予任何相关许可。

  2. 材料按“现状”提供,不附带任何明示或暗示的保证,包括对适销性、不侵权性或特定用途适用性的保证。对于材料及其任何输出的安全或稳定性,我们不作任何保证,也不承担任何责任。

  3. 在任何情况下,对于因您使用或无法使用材料或其任何输出而引起的任何损害,包括但不限于任何直接、间接、特殊或后果性损害,无论其如何引起,我们均不对您承担责任。

  4. 对于任何第三方因您使用或分发材料而引起或与之相关的任何索赔,您将为我们辩护、赔偿并使我们免受损害。

八. 存续和终止

  1. 本协议的期限应在您接受本协议或访问材料时开始,并将持续有效,直至根据本协议的条款和条件终止。

  2. 如果您违反本协议的任何条款或条件,我们可能终止本协议。在本协议终止后,您必须停止使用材料。第 7 条、第 9 条和 “二. 贡献者协议” 在本协议终止后仍然有效。

九. 适用法律和管辖

  1. 本协议及因本协议引起或与之相关的任何争议将受中国法律管辖。

  2. 上海市人民法院对因本协议引起的任何争议具有专属管辖权。

Edge 浏览器正在下载
快捷助手界面示意图

Monaspace

英文字体 可商用

GitHub 推出了名为 Monaspace 的开源字体家族,拥有五种风格可选:Neon(现代风格)、Argon(人文风格)、Xenon(衬线风格)、Radon(手写风格)、Krypton(机械风格)。

Cover
Cover

MiSans Global

多语言 可商用

MiSans Global 是由小米主导,联合蒙纳字库、汉仪字库共同打造的全球语言字体定制项目。

这是一个庞大的字体家族,涵盖 20 多种书写系统,支持 600 多种语言。

只需要复制https://xxx.xxx.com即可,“/”及其之后的内容不需要
阿里云百炼复制API密钥
只需要复制https://xxx.xxx.com即可,“/”及其之后的内容不需要
阿里云百炼创建API密钥
查看导出结果
将笔记本ID填写到数据设置里
软件安装界面
GitHub授权.png 示例图片
GitHub 授权
导出到思源笔记
阿里云百炼填入API密钥
点击复制笔记本ID按钮
Edge 下载列表
获取 Device Code 失败示例图片
获取 Device Code 失败
打开笔记本设置
复制思源笔记令牌
打开官方网站
bin 目录
填写数据库 ID 并点击检查
获取 Device Code 示例图片
获取 Device Code
什么是 MCP(Model Context Protocol)?

常见问题

常见错误代码

  • 4xx(客户端错误状态码):一般为请求语法错误、鉴权失败或认证失败等无法完成请求。

  • 5xx(服务器错误状态码):一般为服务端错误,服务器宕机、请求处理超时等。

错误码
可能的情况
解决方法

400

请求体格式错误等

401

认证失败:模型不被支持或服务端账户被封禁等

联系或查看对应服务商账户状态

403

请求操作无权限

404

无法找到请求资源

检查请求路径等

422

请求格式正确,但语义错误

这类错误服务端能解析,但无法处理。常见于JSON语义错误(如:空值;要求值为字符串,但写成了数字或布尔值等情况)。

429

请求速率达到上限

请求速率(TPM 或 RPM)达到上限,冷静一会再用

500

服务器内部错误,无法完成请求

持续出现的话联系上游服务商

501

服务器不支持请求的功能,无法完成请求

502

作为网关或者代理工作的服务器尝试执行请求时,从远程服务器接收到了一个无效的响应

503

由于超载或系统维护,服务器暂时的无法处理客户端的请求。延时的长度可包含在服务器的Retry-After头信息中

504

充当网关或代理的服务器,未及时从远端服务器获取请求


控制台报错查看方法

  • 点击 Cherry Studio 客户端窗口后按下快捷键 Ctrl + Shift + I(Mac端:Command + Option + I)

  • 当前活动窗口必须为 Cherry Studio 的客户端窗口才能调出控制台;

  • 需要先打开控制台,再点击测试或者发起对话等请求才能收集到请求信息。

  • 在弹出的控制台窗口中点击 Network → 点击查看②处最后一个标有红色 × 的 completions(对话类、翻译、模型连通性检查等遇到错误时) 或 generations(绘画遇到错误时) → 点击Response查看完整的返回内容(图中④的区域)。

如果你无法判断该错误的原因,请将该界面截图发送到 官方交流群 中寻求帮助。

该检查方法不仅在对话时可以获取错误信息,在模型测试时、添加知识库时、绘画时等都可以使用。无论哪种情况下都需要先打开调试窗口,再进行请求操作来获取请求信息。·

不同场景下Name(上图②处)栏里的名称会有所区别

对话、翻译、模型检查:completions

绘画:generations

知识库创建:embeddings


公式没被渲染/公式渲染错误

  • 公式未被渲染而是直接显示的公式的代码时检查公式是否有定界符

定界符用法

行内公式

  • 使用单个美元符号: $formula$

  • 或使用\( 和 \),如:\(formula\)

独立公式块

  • 使用双美元符号: $$formula$$

  • 或使用 \[formula\]

  • 示例: $$\sum_{i=1}^n x_i$$ ∑i=1nxi\sum_{i=1}^n x_i∑i=1n​xi​

  • 公式渲染错误/乱码 常见在公式内包含中文内容时,尝试切换公式引擎为 KateX。


无法创建知识库/提示获取嵌入维度失败

  1. 模型状态不可用

确认服务商是否支持该模型或确认服务商该模型服务状态是否正常。

2.使用了非嵌入模型


模型不能识图/无法上传或选择图片

首先需要确认模型是否支持识图,热门模型 Cherry Studio 会对其分类,模型名称后带小眼睛图标的即支持识图。

识图模型会支持图像文件的上传,如果模型功能未被正确匹配可在对应服务商的模型列表当中找到该模型,点击其名称后的设置按钮并勾选图像选项。

模型具体的信息可以到对应服务商找到其信息查阅。同嵌入模型一样,不支持视觉的模型不需要强制开启图像功能,勾选了图像的选项也没有作用。

Cover
Cover
Cover
Cover
Cover

知识科普

什么是 tokens?

Tokens 是 AI 模型处理文本的基本单位,可以理解为模型"思考"的最小单元。它不完全等同于我们理解的字符或单词,而是模型自己的一种特殊的文本分割方式。

1. 中文分词

  • 一个汉字通常会被编码为 1-2 个 tokens

  • 例如:"你好" ≈ 2-4 tokens

2. 英文分词

  • 常见单词通常是 1 个 token

  • 较长或不常见的单词会被分解成多个 tokens

  • 例如:

    • "hello" = 1 token

    • "indescribable" = 4 tokens

3. 特殊字符

  • 空格、标点符号等也会占用 tokens

  • 换行符通常是 1 个 token

不同服务商的 Tokenizer 都不一样,甚至同服务商不同模型的 Tokenizer 也有所差别,该知识仅用于明确 token 的概念。


什么是 Tokenizer?

Tokenizer(分词器)是 AI 模型将文本转换为 tokens 的工具。它决定了如何把输入文本切分成模型可以理解的最小单位。

为什么不同模型的 Tokenizer 不一样?

1. 训练数据不同

  • 不同的语料库导致优化方向不同

  • 多语言支持程度差异

  • 特定领域(医疗、法律等)的专门优化

2. 分词算法不同

  • BPE (Byte Pair Encoding) - OpenAI GPT 系列

  • WordPiece - Google BERT

  • SentencePiece - 适合多语言场景

3. 优化目标不同

  • 有的注重压缩效率

  • 有的注重语义保留

  • 有的注重处理速度

实际影响

同样的文本在不同模型中的 token 数量可能不同:


什么是嵌入模型 (Embedding Model)?

基本概念: 嵌入模型是一种将高维离散数据(文本、图像等)转换为低维连续向量的技术,这种转换让机器能更好地理解和处理复杂数据。想象一下,就像把复杂的拼图简化成一个简单的坐标点,但这个点仍然保留了拼图的关键特征。在大模型生态中,它作为"翻译官",将人类可理解的信息转换为 AI 可计算的数字形式。

工作原理: 以自然语言处理为例,嵌入模型可以将词语映射到向量空间中的特定位置。在这个空间里,语义相近的词会自动聚集在一起。比如:

  • "国王"和"王后"的向量会很接近

  • "猫"和"狗"这样的宠物词也会距离相近

  • 而"汽车"和"面包"这样语义无关的词则会距离较远

主要应用场景:

  • 文本分析:文档分类、情感分析

  • 推荐系统:个性化内容推荐

  • 图像处理:相似图片检索

  • 搜索引擎:语义搜索优化

核心优势:

  1. 降维效果:将复杂数据简化为易处理的向量形式

  2. 语义保持:保留原始数据中的关键语义信息

  3. 计算效率:显著提升机器学习模型的训练和推理效率

技术价值: 嵌入模型是现代 AI 系统的基础组件,为机器学习任务提供了高质量的数据表示,是推动自然语言处理、计算机视觉等领域发展的关键技术。


Embedding 模型在知识检索中的工作原理

基本工作流程:

  1. 知识库预处理阶段

  • 将文档分割成适当大小的 chunk(文本块)

  • 使用 embedding 模型将每个 chunk 转换为向量

  • 将向量和原文存储到向量数据库中

  1. 查询处理阶段

  • 将用户问题转换为向量

  • 在向量库中检索相似内容

  • 将检索到的相关内容作为上下文提供给 LLM


什么是 MCP(Model Context Protocol)?

MCP 是一种开源协议,旨在以标准化的方式向大型语言模型(LLM)提供上下文信息。

  • 类比理解: 可以把 MCP 想象成 AI 领域的“U盘”。我们知道,U盘可以存储各种文件,插入电脑后就能直接使用。类似地,MCP Server 上可以“插”上各种提供上下文的“插件”,LLM 可以根据需要向 MCP Server 请求这些插件,从而获取更丰富的上下文信息,增强自身能力。

  • 与 Function Tool 的对比: 传统的 Function Tool(函数工具)也可以为 LLM 提供外部功能,但 MCP 更像是一种更高维度的抽象。Function Tool 更多的是针对具体任务的工具,而 MCP 则提供了一种更通用的、模块化的上下文获取机制。

MCP 的核心优势

  1. 标准化: MCP 提供了统一的接口和数据格式,使得不同的 LLM 和上下文提供者可以无缝协作。

  2. 模块化: MCP 允许开发者将上下文信息分解为独立的模块(插件),方便管理和复用。

  3. 灵活性: LLM 可以根据自身需求动态选择所需的上下文插件,实现更智能、更个性化的交互。

  4. 可扩展性: MCP 的设计支持未来添加更多类型的上下文插件,为 LLM 的能力拓展提供了无限可能。


Cherry Studio - 全能的AI助手Cherry Studio
Cherry Studio - 全能的AI助手Cherry Studio
启用快捷助手示意图
获取模型列表
填入你的思源笔记地址
阿里云百炼创建API密钥弹窗
点击新建笔记本
GitHub 连接成功
订阅源配置
阿里云百炼查看API密钥

查看对话返回的错误内容或

根据对话返回的错误信息或错误信息提示进行相应操作

输入:"Hello, world!"
GPT-3: 4 tokens
BERT: 3 tokens
Claude: 3 tokens
控制台</a 查看报错内容,根据提示操作。
【常见情况1】:如果是gemini模型,可能需要进行绑卡操作; 【常见情况2】:数据体积超限,常见于视觉模型,图片体积超过上游单个请求流量上限会返回该错误码; 【常见情况3】:加了不支持的参数或参数填写错误。尝试新建一个纯净的助手测试是否正常; 【常见情况4】:上下文超过限制,清除上下文或新建对话或减少上下文条数。
控制台
抖音
微博
小红书
哔哩哔哩
推特(X)
管理按钮获取模型列表示例图片
GitHub连接成功示例图片

客户端下载

当前最新正式版:v1.4.4

直链下载

Windows 版本

注意:Windows 7 系统不支持安装 Cherry Studio。

安装版(Setup)

x64 版本

主线路:

【Cherry Studio 官网】 【GitHub】

备用线路:

【线路1】 【线路2】 【线路3】

ARM64 版本

主线路:

【Cherry Studio 官网】 【GitHub】

备用线路:

【线路1】 【线路2】 【线路3】

便携版(Portable)

x64 版本

主线路:

【Cherry Studio 官网】 【GitHub】

备用线路:

【线路1】 【线路2】 【线路3】

ARM64 版本

主线路:

【Cherry Studio 官网】 【GitHub】

备用线路:

【线路1】 【线路2】 【线路3】


macOS 版本

Intel 芯片版本(x64)

主线路:

【Cherry Studio 官网】 【GitHub】

备用线路:

【线路1】 【线路2】 【线路3】

Apple Silicon 版本(ARM64,M 系列芯片)

主线路:

【Cherry Studio 官网】 【GitHub】

备用线路:

【线路1】 【线路2】 【线路3】


Linux 版本

x86_64 版本

主线路:

【Cherry Studio 官网】 【GitHub】

备用线路:

【线路1】 【线路2】 【线路3】

ARM64 版本

主线路:

【Cherry Studio 官网】 【GitHub】

备用线路:

【线路1】 【线路2】 【线路3】


网盘下载

夸克

输入指令安装 MCP 服务器
MCP 服务器配置界面
点击获取秘钥
点击地球图标 - 开启联网
复制key
弹窗,点击:去设置

嵌入模型参考信息

为了防止出错,在本文档中部分模型的 max input 的值没有写成极限值,如:在官方给出的最大输入值为8k(未明确给出具体数值)时,本文档中给出的参考值为8191或8000等。(看不懂忽视,按照文档中的参考值填写即可)

火山-豆包

官方模型信息参考地址

名称
max input

Doubao-embedding

4095

Doubao-embedding-vision

8191

Doubao-embedding-large

4095

阿里

官方模型信息参考地址

名称
max input

text-embedding-v3

8192

text-embedding-v2

2048

text-embedding-v1

2048

text-embedding-async-v2

2048

text-embedding-async-v1

2048

OpenAI

官方模型信息参考地址

名称
max input

text-embedding-3-small

8191

text-embedding-3-large

8191

text-embedding-ada-002

8191

百度

官方模型信息参考地址

名称
max input

Embedding-V1

384

tao-8k

8192

智谱

官方模型信息参考地址

名称
max input

embedding-2

1024

embedding-3

2048

混元

官方模型信息参考地址

名称
max input

hunyuan-embedding

1024

百川

官方模型信息参考地址

名称
max input

Baichuan-Text-Embedding

512

together

官方模型信息参考地址

名称
max input

M2-BERT-80M-2K-Retrieval

2048

M2-BERT-80M-8K-Retrieval

8192

M2-BERT-80M-32K-Retrieval

32768

UAE-Large-v1

512

BGE-Large-EN-v1.5

512

BGE-Base-EN-v1.5

512

Jina

官方模型信息参考地址

名称
max input

jina-embedding-b-en-v1

512

jina-embeddings-v2-base-en

8191

jina-embeddings-v2-base-zh

8191

jina-embeddings-v2-base-de

8191

jina-embeddings-v2-base-code

8191

jina-embeddings-v2-base-es

8191

jina-colbert-v1-en

8191

jina-reranker-v1-base-en

8191

jina-reranker-v1-turbo-en

8191

jina-reranker-v1-tiny-en

8191

jina-clip-v1

8191

jina-reranker-v2-base-multilingual

8191

reader-lm-1.5b

256000

reader-lm-0.5b

256000

jina-colbert-v2

8191

jina-embeddings-v3

8191

硅基流动

官方模型信息参考地址

名称
max input

BAAI/bge-m3

8191

netease-youdao/bce-embedding-base_v1

512

BAAI/bge-large-zh-v1.5

512

BAAI/bge-large-en-v1.5

512

Pro/BAAI/bge-m3

8191

Gemini

官方模型信息参考地址

名称
max input

text-embedding-004

2048

nomic

官方模型信息参考地址

名称
max input

nomic-embed-text-v1

8192

nomic-embed-text-v1.5

8192

gte-multilingual-base

8192

console

官方模型信息参考地址

名称
max input

embedding-query

4000

embedding-passage

4000

cohere

官方模型信息参考地址

名称
max input

embed-english-v3.0

512

embed-english-light-v3.0

512

embed-multilingual-v3.0

512

embed-multilingual-light-v3.0

512

embed-english-v2.0

512

embed-english-light-v2.0

512

embed-multilingual-v2.0

256

粘贴key,大功告成
报错截图
火山引擎模型ID列表示例
微信小程序-搜索-点击打开
点击后,扫描刚才tavily页面的二维码
你会得到一串数字
会提示你复制code到安全的地方,听劝照做,虽然不咋会用上
点击加号创建应用
填写应用信息
点击复制密钥
将密钥填写到数据设置里
创建一个新页面选择数据库类型
输入页面的名字,并选择连接到 APP
复制数据库 ID
填写数据库 ID 并点击检查
填写页面标题字段名
查看导出结果

注意:Gemini 图片生成需要在对话界面使用,因为 Gemini 是多模态交互式的图片生成,也不支持参数调节。

表示 - 已开启联网功能
选择路径
查看导出结果
查看导出结果
配置笔记属性
导出单条对话
选择处理方式
自定义 CSS
导出到 Obsidian
导出到 Obsidian
配置笔记属性
官方文档cURL示例
注册账号
很多同学卡在这一步,人麻了....莫慌
导出到 Notion
导出完整对话
导出单条对话
复制到tavily页面

对话界面

助手和话题

助手

助手 是对所选模型做一些个性化的设置来使用模型,如提示词预设和参数预设等,通过这些设置让所选模型能更加符合你预期的工作。

系统默认助手 预设了一个比较通用的参数(无提示词),您可以直接使用或者到 智能体页面 寻找你需要的预设来使用。

话题

助手 是 话题 的父集,单个助手下可以创建多个话题(即对话),所有 话题 共用 助手 的参数设置和预设词(prompt)等模型设置。

对话框内按钮

由于技术原因,您必须手动点亮按钮才能生成图片,该按钮在此功能优化后会移除。

此功能仅用于预估 Token 数,实际 Token 数每个模型都是不一样的,请以模型提供商的数据为准。

对话设置

模型设置

模型设置与助手设置当中的 模型设置 参数同步,详见 助手设置。

在对话设置当中,仅该模型设置作用于当前助手,其余设置作用于全局。如:设置消息样式为气泡后在任何助手的任何话题下都是气泡样式。

消息设置

消息分割线:

使用分割线将消息正文与操作栏隔开。

使用衬线字体:

字体样式切换,现在你也可以通过 自定义css 来更换字体。

代码显示行号:

模型输出代码片段时显示代码块行号。

代码块可折叠:

打开后,当代码片段中代码较长时,将自动折叠代码块。、

代码块可换行:

打开后,当代码片段中但行代码较长时(超出窗口),将自动换行。

思考内容自动折叠:

打开后,支持思考的模型在思考完成后会自动折叠思考过程。

消息样式:

可切对话界面换为气泡样式或列表样式。

代码风格:

可切换代码片段的显示风格。

数学公式引擎:

  • KaTeX 渲染速度更快,因为它是专门为性能优化设计的;

  • MathJax 渲染较慢,但功能更全面,支持更多的数学符号和命令。

消息字体大小:

调整对话界面字体的大小。

输入设置

显示预估 Token 数:

在输入框显示输入文本预估消耗的Token数(非实际上下文消耗的Token,仅供参考)。

长文本粘贴为文件:

当从其他地方复制长段文本粘贴到输入框时会自动显示为文件的样式,减少后续输入内容时的干扰。

Markdown 渲染输入消息:

关闭时只渲染模型回复的消息,不渲染发送的消息。

快速敲击3次空格翻译:

在对话界面输入框输入消息后,连敲三次空格可翻译输入的内容为英文。

注意:该操作会覆盖原文。

目标语言:

设置输入框翻译按钮以及快速敲击3次空格翻译的目标语言。

助手设置

在助手界面选择需要设置的助手名称→在右键菜单中选对应设置

编辑助手

助手设置作用于该助手下的所有话题。

提示词设置

名称:

可自定义方便辨识的助手名称。

提示词:

即 prompt ,可以参照智能体页面的提示词写法来编辑内容。

模型设置

默认模型:

可以为该助手固定一个默认模型,从智能体页面添加时或复制助手时初始模型为该模型。不设置该项初始模型则为全局初始模型(即 默认助手模型 )。

助手的默认模型有两种,一为 全局默认对话模型 ,另一为助手默认模型;助手的默认模型优先级高于全局默认对话模型。当不设置助手默认模型时,助手默认模型=全局默认对话模型。

自动重置模型:

打开时 - 当在该话题下使用过程中切换其他模型使用时,再次新建话题会将新话题的重置为助手的默认模型。当该项关闭时新建话题的模型会跟随上一话题所使用的模型。

如助手的默认模型为gpt-3.5-turbo,我在该助手下创建话题1,在话题1的对话过程中切换了gpt-4o使用,此时:

如果开启了自动重置:新建话题2时,话题2默认选择的模型为gpt-3.5-turbo;

如果未开启自动重置:新建话题2时,话题2默认选择的模型为gpt-4o。

温度 (Temperature) :

温度参数控制模型生成文本的随机性和创造性程度(默认值为0.7)。具体表现为:

  • 低温度值(0-0.3):

    • 输出更确定、更专注

    • 适合代码生成、数据分析等需要准确性的场景

    • 倾向于选择最可能的词汇输出

  • 中等温度值(0.4-0.7):

    • 平衡了创造性和连贯性

    • 适合日常对话、一般性写作

    • 推荐用于聊天机器人对话(0.5左右)

  • 高温度值(0.8-1.0):

    • 产生更具创造性和多样性的输出

    • 适合创意写作、头脑风暴等场景

    • 但可能降低文本的连贯性

Top P (核采样):

默认值为 1,值越小,AI 生成的内容越单调,也越容易理解;值越大,AI 回复的词汇范围越大,越多样化。

核采样通过控制词汇选择的概率阈值来影响输出:

  • 较小值(0.1-0.3):

    • 仅考虑最高概率的词汇

    • 输出更保守、更可控

    • 适合代码注释、技术文档等场景

  • 中等值(0.4-0.6):

    • 平衡词汇多样性和准确性

    • 适合一般对话和写作任务

  • 较大值(0.7-1.0):

    • 考虑更广泛的词汇选择

    • 产生更丰富多样的内容

    • 适合创意写作等需要多样化表达的场景

  • 这两个参数可以独立使用或组合使用

  • 根据具体任务类型选择合适的参数值

  • 建议通过实验找到最适合特定应用场景的参数组合

  • 以上内容仅供参考和了解概念,所给参数范围不一定适合所有模型,具体可参考模型相关文档给出的参数建议。

上下文数量 (Context Window)

要保留在上下文中的消息数量,数值越大,上下文越长,消耗的 token 越多:

  • 5-10:适合普通对话

  • >10:需要更长记忆的复杂任务(例如:按照写作提纲分步生成长文的任务,需要确保生成的上下文逻辑连贯)

  • 注意:消息数越多,token 消耗越大

开启消息长度限制 (MaxToken)

单次回答最大 Token 数,在大语言模型中,max token(最大令牌数)是一个关键参数,它直接影响模型生成回答的质量和长度。

如:在CherryStudio当中填写好key后测试模型是否连通时,只需要知道模型是否有正确返回消息而不需特定内容,这种情况下设置MaxToken为1即可。

多数模型的MaxToken上限为32k Tokens,当然也有64k,甚至更多的,具体需要到对应介绍页面查看。

具体设置多少取决于自己的需要,当然也可以参考以下建议。

建议:

  • 普通聊天:500-800

  • 短文生成:800-2000

  • 代码生成:2000-3600

  • 长文生成:4000及以上 (需要模型本身支持)

一般情况下模型生成的回答将被限制在 MaxToken 的范围内,当然也有可能会出现被截断(如写长代码时)或表达不完整等情况出现,特殊情况下也需要根据实际情况来灵活调整。

流式输出(Stream)

流式输出是一种数据处理方式,它允许数据以连续的流形式进行传输和处理,而不是一次性发送所有数据。这种方式使得数据可以在生成后立即被处理和输出,极大地提高了实时性和效率。

在 CherryStudio 客户端等类似环境下简单来说就是打字机效果。

关闭后(非流):模型生成完信息后整段一次性输出(想象一下微信收到消息的感觉);

打开时:逐字输出,可以理解为大模型每生成一个字就立马发送给你,直到全部发送完。

如果某些特殊模型不支持流式输出需要将该开关关闭,比如刚开始只支持非流的o1-mini等。

自定义参数

在请求体(body)中加入额外请求参数,如 presence_penalty 等字段,一般人一般情况下用不到。

上述top-p、maxtokens、stream等参数就是这些参数之一。

填法:参数名称—参数类型(文本、数字等)—值,参考文档:点击前往

各个模型提供商都或多或少有自己独有的参数,需要到提供商的文档中寻找使用方法

  • 自定义参数优先级高于内置参数。即自定义参数如果与内置参数重复,则自定义参数会覆盖内置参数。

如:自定义参数中设置 model 为 gpt-4o 后,在对话中无论选择哪个模型都使用的是 gpt-4o 模型。

  • 使用 参数名称:undefined 的设置可排除参数。

新话题 在当前助手内创建一个新话题。

上传图片或文档 上传图片需要模型支持,上传文档会自动解析为文字作为上下文提供给模型。

网络搜索 须在设置中配置网络搜索相关信息,搜索结果作为上下文返回给大模型,详见 联网模式。

知识库 开启知识库,详见 知识库教程。

MCP 服务器 开启 MCP 服务器功能,详见 MCP 使用教程。

生成图片 默认不显示,对于支持生成图片的模型(如 Gemini),需手动点亮后才能生成图片。

选择模型 对于接下来的对话,切换成指定的模型,保留上下文。

快捷短语 需要先在设置中预设常用短语,在此处调用,直接输入,支持变量。

清空消息 删除该话题下所有内容。

展开 让对话框变得更大,以便输入长文。

清除上下文 在不删除内容的情况下,截断模型能获得的上下文,也就是说模型将“忘记”之前的对话内容。

预估 Token 数 展示预估 Token 数,四个数据分别为 当前上下文数 、 最大上下文数 ( ∞ 表示无限上下文)、 当前输入框内消息字数 、 预估 Token 数 。

翻译 将当前输入框内内容翻译成英文。

SearXNG 本地部署与配置

CherryStudio 支持通过 SearXNG 进行网络搜索,SearXNG 是一个可本地部署也可在服务器上部署的开源项目,所以与其他需要 API 提供商的配置方式略有不同。

SearXNG 项目链接:SearXNG

SearXNG 的优势

  • 开源免费,无需 API

  • 隐私性相对较高

  • 可高度定制化

本地部署

一、Docker 直接部署

由于 SearXNG 不需要复杂的环境配置,可以不用 docker compose,只需要简单提供一个空闲端口即可部署,所以最快捷的方式可以使用 Docker 直接拉取镜像进行部署。

1. 下载安装并配置 docker

安装后选择一个镜像存储路径:

2. 搜索并拉取 SearXNG 镜像

搜索栏输入 searxng :

拉取镜像:

3. 运行镜像

拉取成功后来到 images 页面:

选择拉取的镜像点击运行:

打开设置项进行配置:

以 8085 端口为例:

运行成功后点击链接即可打开 SearXNG 的前端界面:

出现这个页面说明部署成功:

服务器部署

鉴于 Windows 下安装 Docker 是一件较为麻烦的事情,用户可以将 SearXNG 部署在服务器上,也可借此共享给其他人使用。但是很遗憾,SearXNG 自身暂不支持鉴权,导致他人可以通过技术手段扫描到并滥用你部署的实例。

为此,Cherry Studio 目前已支持配置 HTTP 基本认证(RFC7617),如果用户欲将自己部署的 SearXNG 暴露在公网环境下,请务必通过 Nginx 等反向代理软件配置 HTTP 基本认证。下面提供简要教程,需要你有基本的 Linux 运维知识。

部署 SearXNG

类似地,仍然使用 Docker 部署。假设你已经按照官方教程在服务器上安装好了最新版 Docker CE,以下提供一条龙命令,适用于 Debian 系统下全新安装:

sudo apt update
sudo apt install git -y

# 拉取官方仓库
cd /opt
git clone https://github.com/searxng/searxng-docker.git
cd /opt/searxng-docker

# 如果你的服务器带宽很小, 可以设置为 false
export IMAGE_PROXY=true

# 修改配置文件
cat <<EOF > /opt/searxng-docker/searxng/settings.yml
# see https://docs.searxng.org/admin/settings/settings.html#settings-use-default-settings
use_default_settings: true
server:
  # base_url is defined in the SEARXNG_BASE_URL environment variable, see .env and docker-compose.yml
  secret_key: $(openssl rand -hex 32)
  limiter: false  # can be disabled for a private instance
  image_proxy: $IMAGE_PROXY
ui:
  static_use_hash: true
redis:
  url: redis://redis:6379/0
search:
  formats:
    - html
    - json
EOF

如果你需要修改本地监听端口、复用本地已有的 nginx,可以编辑 docker-compose.yaml 文件,参考如下:

version: "3.7"

services:
# 如果不需要 Caddy 而复用本地已经有的 Nginx, 就把下面的去掉. 我们默认不需要 Caddy.
  caddy:
    container_name: caddy
    image: docker.io/library/caddy:2-alpine
    network_mode: host
    restart: unless-stopped
    volumes:
      - ./Caddyfile:/etc/caddy/Caddyfile:ro
      - caddy-data:/data:rw
      - caddy-config:/config:rw
    environment:
      - SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}
      - SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}
    cap_drop:
      - ALL
    cap_add:
      - NET_BIND_SERVICE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"
# 如果不需要 Caddy 而复用本地已经有的 Nginx, 就把上面的去掉. 我们默认不需要 Caddy.
  redis:
    container_name: redis
    image: docker.io/valkey/valkey:8-alpine
    command: valkey-server --save 30 1 --loglevel warning
    restart: unless-stopped
    networks:
      - searxng
    volumes:
      - valkey-data2:/data
    cap_drop:
      - ALL
    cap_add:
      - SETGID
      - SETUID
      - DAC_OVERRIDE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

  searxng:
    container_name: searxng
    image: docker.io/searxng/searxng:latest
    restart: unless-stopped
    networks:
      - searxng
    # 默认映射到宿主机 8080 端口, 假如你想监听 8000 就改成 "127.0.0.1:8000:8080"
    ports:
      - "127.0.0.1:8080:8080"
    volumes:
      - ./searxng:/etc/searxng:rw
    environment:
      - SEARXNG_BASE_URL=https://${SEARXNG_HOSTNAME:-localhost}/
      - UWSGI_WORKERS=${SEARXNG_UWSGI_WORKERS:-4}
      - UWSGI_THREADS=${SEARXNG_UWSGI_THREADS:-4}
    cap_drop:
      - ALL
    cap_add:
      - CHOWN
      - SETGID
      - SETUID
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

networks:
  searxng:

volumes:
# 如果不需要 Caddy 而复用本地已经有的 Nginx, 就把下面的去掉
  caddy-data:
  caddy-config:
# 如果不需要 Caddy 而复用本地已经有的 Nginx, 就把上面的去掉
  valkey-data2:

执行 docker compose up -d 启动。执行 docker compose logs -f searxng 可以看到日志。

部署 Nginx 反向代理和 HTTP 基本认证

如果你使用了一些服务器面板程序,例如宝塔面板或 1Panel,请参阅其文档添加网站并配置 nginx 反向代理,随后找到修改 nginx 配置文件的地方, 参考下面的示例进行修改:

server
{
    listen 443 ssl;

    # 这行是你的主机名
    server_name search.example.com;

    # index index.html;
    # root /data/www/default;

    # 如果配置了 SSL 应该有这两行
    ssl_certificate    /path/to/your/cert/fullchain.pem;
    ssl_certificate_key    /path/to/your/cert/privkey.pem;

    # HSTS
    # add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload";

    # 默认情况下通过面板配置反向代理, 默认的 location 块就是这样
    location / {
        # 只需要在 location 块添加下面两行, 其他保留原状就行.
        # 此处示例假设你的配置文件保存在 /etc/nginx/conf.d/ 目录下.
        # 如果是宝塔应该是保存在 /www 之类的目录下, 需要注意.
        auth_basic "Please enter your username and password";
        auth_basic_user_file /etc/nginx/conf.d/search.htpasswd;

        proxy_http_version 1.1;
        proxy_set_header Connection "";
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Forwarded-For $proxy_protocol_addr;
        proxy_pass http://127.0.0.1:8000;
        client_max_body_size 0;
    }

    # access_log  ...;
    # error_log  ...;
}

假设 Nginx 配置文件保存于 /etc/nginx/conf.d 下,我们将将密码文件保存在同目录下。

执行命令(自行将 example_name、example_password 替换为你将要设定的用户名和密码):

echo "example_name:$(openssl passwd -5 'example_password')" > /etc/nginx/conf.d/search.htpasswd

重启 Nginx(重载配置也可以)。

这时可以打开一下网页,已经会提示你输入用户名和密码,请输入前面设定的用户名和密码查看能否成功进入 SearXNG 搜索页面,藉此检查配置是否正确。

Cherry Studio 相关配置

SearXNG 本地或在服务器部署成功后,接下来是 CherryStudio 的相关配置。

来到网络搜索设置页面,选择 Searxng :

直接输入本地部署的链接发现验证失败,此时不用担心:

因为直接部署后默认并没有配置 json 返回类型,所以无法获取数据,需要修改配置文件。

回到 Docker,来到 Files 标签页找到镜像中找到带标签的文件夹:

展开后继续往下翻,会发现另一个带标签的文件夹:

继续展开,找到 settings.yml 配置文件:

点击打开文件编辑器:

找到 78 行,可以看到类型只有一个 html

添加 json 类型后保存,重新运行镜像

重新回到 Cherry Studio 进行验证,验证成功:

地址既可以填写本地: http://localhost : 端口号 也可以填写 docker 地址:http://host.docker.internal : 端口号

如果用户遵循前面的示例在服务器上部署并正确配置了反向代理,已经开启了 json 返回类型。输入地址后进行验证,由于已给反向代理配置了 HTTP 基本认证,此时验证则应返回 401 错误码:

在客户端配置 HTTP 基本认证,输入刚才设置的用户名与密码:

进行验证,应当验证成功。

其他配置

此时 SearXNG 已具备默认联网搜索能力,如需定制搜索引擎需要自行进行配置

需要注意的是此处首选项并不能影响大模型调用时的配置

如需配置需要大模型调用的搜索引擎,需在配置文件中设置:

配置语言参考:

若内容太长直接修改不方便,可将其复制到本地 IDE 中,修改后粘贴到配置文件中即可。

验证失败常见原因

返回格式未添加 json 格式

在配置文件中将返回格式加上 json:

未正确配置搜索引擎

Cherry Studio 会默认选取 categories 同时包含 web general 的引擎进行搜索,默认情况下会选中 google 等引擎,由于大陆无法直接访问 google 等网站导致失败。增加以下配置使得 searxng 强制使用 baidu 引擎,即可解决问题:

use_default_settings:
  engines:
    keep_only:
      - baidu
engines:
  - name: baidu
    engine: baidu 
    categories: 
      - web
      - general
    disabled: false

访问速率过快

searxng 的 limiter 配置阻碍了 API 访问,请尝试将其在设置中设为 false:

常见模型参考信息

  • 以下信息仅供参考,如有错误可联系纠正,部分模型的服务商不同其上下文大小和模型信息可能也会有所不同;

  • 在客户端输入数据时需要将“k”转换成实际数值(理论上1k=1024 tokens;1m=1024k tokens),如8k为8×1024=8192 tokens。建议在实际使用时×1000即可,防止报错,如8k为8×1000=8000,1m=1×1000000=1000000;

  • 最大输出为“-”的为未从官方查询到该模型明确的最大输出信息。

模型名称
最大输入
最大输出
函数调用
模型能力
服务商
简介

360gpt-pro

8k

-

不支持

对话

360AI_360gpt

360智脑系列效果最好的主力千亿级大模型,广泛适用于各领域复杂任务场景。

360gpt-turbo

7k

-

不支持

对话

360AI_360gpt

兼顾性能和效果的百亿级大模型,适合对性能/成本要求较高 的场景。

360gpt-turbo-responsibility-8k

8k

-

不支持

对话

360AI_360gpt

兼顾性能和效果的百亿级大模型,适合对性能/成本要求较高 的场景。

360gpt2-pro

8k

-

不支持

对话

360AI_360gpt

360智脑系列效果最好的主力千亿级大模型,广泛适用于各领域复杂任务场景。

claude-3-5-sonnet-20240620

200k

16k

不支持

对话,识图

Anthropic_claude

于2024年6月20日发布的快照版本,Claude 3.5 Sonnet是一个平衡了性能和速度的模型,在保持高速度的同时提供顶级性能,支持多模态输入。

claude-3-5-haiku-20241022

200k

16k

不支持

对话

Anthropic_claude

于2024年10月22日发布的快照版本,Claude 3.5 Haiku在各项技能上都有所提升,包括编码、工具使用和推理。作为Anthropic系列中速度最快的模型,它提供快速响应时间,适用于需要高互动性和低延迟的应用,如面向用户的聊天机器人和即时代码补全。它在数据提取和实时内容审核等专业任务中也表现出色,使其成为各行业广泛应用的多功能工具。它不支持图像输入。

claude-3-5-sonnet-20241022

200k

8K

不支持

对话,识图

Anthropic_claude

于2024年10月22日发布的快照版本,Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。

claude-3-5-sonnet-latest

200K

8k

不支持

对话,识图

Anthropic_claude

动态指向最新的Claude 3.5 Sonnet版本,Claude 3.5 Sonnet提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务,该模型指向最新的版本。

claude-3-haiku-20240307

200k

4k

不支持

对话,识图

Anthropic_claude

Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。

claude-3-opus-20240229

200k

4k

不支持

对话,识图

Anthropic_claude

Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。

claude-3-sonnet-20240229

200k

8k

不支持

对话,识图

Anthropic_claude

于2024年2月29日发布的快照版本,Sonnet 特别擅长于: - 编码:能够自主编写、编辑和运行代码,并具备推理和故障排除能力 - 数据科学:增强人类的数据科学专业知识;在使用多种工具获取洞察时,能够处理非结构化数据 - 视觉处理:擅长解读图表、图形和图像,准确转录文本以获取超越文本本身的洞察 - 代理任务:工具使用出色,非常适合处理代理任务(即需要与其他系统交互的复杂多步骤问题解决任务)

google/gemma-2-27b-it

8k

-

不支持

对话

Google_gamma

Gemma 是由 Google 开发的轻量级、最先进的开放模型系列,采用与 Gemini 模型相同的研究和技术构建。这些模型是仅解码器的大型语言模型,支持英语,提供预训练和指令微调两种变体的开放权重。Gemma 模型适用于各种文本生成任务,包括问答、摘要和推理。

google/gemma-2-9b-it

8k

-

不支持

对话

Google_gamma

Gemma 是 Google 开发的轻量级、最先进的开放模型系列之一。它是一个仅解码器的大型语言模型,支持英语,提供开放权重、预训练变体和指令微调变体。Gemma 模型适用于各种文本生成任务,包括问答、摘要和推理。该 9B 模型是通过 8 万亿个 tokens 训练而成。

gemini-1.5-pro

2m

8k

不支持

对话

Google_gemini

Gemini 1.5 Pro 的最新稳定版本。作为一个强大的多模态模型,它可以处理长达6 万行代码或 2,000 页文本。特别适合需要复杂推理的任务。

gemini-1.0-pro-001

33k

8k

不支持

对话

Google_gemini

这是 Gemini 1.0 Pro 的稳定版本。作为一个 NLP 模型,它专门处理多轮文本和代码聊天以及代码生成等任务。该模型将于 2025 年 2 月 15 日停用,建议迁移到 1.5 系列模型。

gemini-1.0-pro-002

32k

8k

不支持

对话

Google_gemini

这是 Gemini 1.0 Pro 的稳定版本。作为一个 NLP 模型,它专门处理多轮文本和代码聊天以及代码生成等任务。该模型将于 2025 年 2 月 15 日停用,建议迁移到 1.5 系列模型。

gemini-1.0-pro-latest

33k

8k

不支持

对话,已废弃或即将废弃

Google_gemini

这是 Gemini 1.0 Pro 的最新版本。作为一个 NLP 模型,它专门处理多轮文本和代码聊天以及代码生成等任务。该模型将于 2025 年 2 月 15 日停用,建议迁移到 1.5 系列模型。

gemini-1.0-pro-vision-001

16k

2k

不支持

对话

Google_gemini

这是 Gemini 1.0 Pro 的视觉版本。该模型将于 2025 年 2 月 15 日停用,建议迁移到 1.5 系列模型。

gemini-1.0-pro-vision-latest

16k

2k

不支持

识图

Google_gemini

这是 Gemini 1.0 Pro 的视觉最新版本。该模型将于 2025 年 2 月 15 日停用,建议迁移到 1.5 系列模型。

gemini-1.5-flash

1m

8k

不支持

对话,识图

Google_gemini

这是 Gemini 1.5 Flash 的最新稳定版本。作为一个平衡的多模态模型,它可以处理音频、图片、视频和文本输入。

gemini-1.5-flash-001

1m

8k

不支持

对话,识图

Google_gemini

这是 Gemini 1.5 Flash 的稳定版本。它们提供与 gemini-1.5-flash 相同的基本功能,但版本固定,适合生产环境使用。

gemini-1.5-flash-002

1m

8k

不支持

对话,识图

Google_gemini

这是 Gemini 1.5 Flash 的稳定版本。它们提供与 gemini-1.5-flash 相同的基本功能,但版本固定,适合生产环境使用。

gemini-1.5-flash-8b

1m

8k

不支持

对话,识图

Google_gemini

Gemini 1.5 Flash-8B是谷歌最新推出的一款多模态人工智能模型,专为高效处理大规模任务而设计。该模型具有80亿个参数,能够支持文本、图像、音频和视频的输入,适用于多种应用场景,如聊天、转录和翻译等。与其他Gemini模型相比,Flash-8B在速度和成本效益上进行了优化,特别适合对成本敏感的用户。其速率限制提高了一倍,使得开发者能够更高效地进行大规模任务处理。此外,Flash-8B还采用了“知识蒸馏”技术,从更大的模型中提炼出关键知识,确保在保持核心能力的同时实现轻量化和高效化

gemini-1.5-flash-exp-0827

1m

8k

不支持

对话,识图

Google_gemini

这是 Gemini 1.5 Flash 的实验版本,会定期更新以包含最新的改进。适合探索性测试和原型开发,不建议用于生产环境。

gemini-1.5-flash-latest

1m

8k

不支持

对话,识图

Google_gemini

这是 Gemini 1.5 Flash 的尖端版本,会定期更新以包含最新的改进。适合探索性测试和原型开发,不建议用于生产环境。

gemini-1.5-pro-001

2m

8k

不支持

对话,识图

Google_gemini

这是 Gemini 1.5 Pro 的稳定版本,提供固定的模型行为和性能特征。适合需要稳定性的生产环境使用。

gemini-1.5-pro-002

2m

8k

不支持

对话,识图

Google_gemini

这是 Gemini 1.5 Pro 的稳定版本,提供固定的模型行为和性能特征。适合需要稳定性的生产环境使用。

gemini-1.5-pro-exp-0801

2m

8k

不支持

对话,识图

Google_gemini

Gemini 1.5 Pro 的试验版本。作为一个强大的多模态模型,它可以处理长达6 万行代码或 2,000 页文本。特别适合需要复杂推理的任务。

gemini-1.5-pro-exp-0827

2m

8k

不支持

对话,识图

Google_gemini

Gemini 1.5 Pro 的试验版本。作为一个强大的多模态模型,它可以处理长达6 万行代码或 2,000 页文本。特别适合需要复杂推理的任务。

gemini-1.5-pro-latest

2m

8k

不支持

对话,识图

Google_gemini

这是 Gemini 1.5 Pro 的最新版本,动态指向最新的快照版本

gemini-2.0-flash

1m

8k

不支持

对话,识图

Google_gemini

Gemini 2.0 Flash是谷歌最新推出的模型,相比1.5版本具有更快的首次生成速度(TTFT),同时保持了与Gemini Pro 1.5相当的质量水平;该模型在多模态理解、代码能力、复杂指令执行和函数调用等方面都有显著提升,从而能够提供更流畅和强大的智能体验。

gemini-2.0-flash-exp

100k

8k

支持

对话,识图

Google_gemini

Gemini 2.0 Flash 引入多模态实时API、改进速度和性能、提升质量、增强代理能力,并增加图像生成和语音转换功能。

gemini-2.0-flash-lite-preview-02-05

1M

8k

不支持

对话,识图

Google_gemini

Gemini 2.0 Flash-Lite是谷歌最新发布的高性价比AI模型,在保持与1.5 Flash相同速度的同时质量更好;支持100万tokens的上下文窗口,能够处理图像、音频和代码等多模态任务;作为目前谷歌成本效益最高的模型,采用简化的单一定价策略,特别适合需要控制成本的大规模应用场景。

gemini-2.0-flash-thinking-exp

40k

8k

不支持

对话,推理

Google_gemini

gemini-2.0-flash-thinking-exp是一个实验模型,它能生成在作出反应时所经历的 "思考过程"。因此,与基本的Gemini 2.0 Flash 模型相比,"思考模式 "的反应具有更强的推理能力。

gemini-2.0-flash-thinking-exp-01-21

1m

64k

不支持

对话,推理

Google_gemini

Gemini 2.0 Flash Thinking EXP-01-21 是谷歌最新推出的人工智能模型,专注于提升推理能力和用户交互体验。该模型具备强大的推理能力,尤其在数学和编程领域表现突出,并支持高达100万token的上下文窗口,适用于复杂任务和深入分析场景。其独特之处在于能够生成思考过程,提高AI思维的可理解性,同时支持原生代码执行,增强了交互的灵活性和实用性。通过优化算法,模型减少了逻辑矛盾,进一步提升了回答的准确性和一致性。

gemini-2.0-flash-thinking-exp-1219

40k

8k

不支持

对话,推理,识图

Google_gemini

gemini-2.0-flash-thinking-exp-1219是一个实验模型,它能生成在作出反应时所经历的 "思考过程"。因此,与基本的Gemini 2.0 Flash 模型相比,"思考模式 "的反应具有更强的推理能力。

gemini-2.0-pro-exp-01-28

2m

64k

不支持

对话,识图

Google_gemini

预加模型,还未上线

gemini-2.0-pro-exp-02-05

2m

8k

不支持

对话,识图

Google_gemini

Gemini 2.0 Pro Exp 02-05是谷歌2024年2月发布的最新实验性模型,在世界知识、代码生成和长文本理解方面表现突出;该模型支持200万tokens的超长上下文窗口,能处理2小时视频、22小时音频、6万多行代码和140万多单词的内容;作为Gemini 2.0系列的一部分,该模型采用了新的Flash Thinking训练策略,性能得到显著提升,在多个LLM评分榜单中名列前茅,展现了强大的综合能力。

gemini-exp-1114

8k

4k

不支持

对话,识图

Google_gemini

这是一个实验性模型,于 2024 年 11 月 14 日发布,主要关注质量改进。

gemini-exp-1121

8k

4k

不支持

对话,识图,代码

Google_gemini

这是一个实验性模型,于 2024 年 11 月 21 日发布,改进了编码、推理和视觉能力。

gemini-exp-1206

8k

4k

不支持

对话,识图

Google_gemini

这是一个实验性模型,于 2024 年 12 月 6 日发布,改进了编码、推理和视觉能力。

gemini-exp-latest

8k

4k

不支持

对话,识图

Google_gemini

这是一个实验性模型,动态指向最新版本

gemini-pro

33k

8k

不支持

对话

Google_gemini

同gemini-1.0-pro,是gemini-1.0-pro的别名

gemini-pro-vision

16k

2k

不支持

对话,识图

Google_gemini

这是 Gemini 1.0 Pro 的视觉版本。该模型将于 2025 年 2 月 15 日停用,建议迁移到 1.5 系列模型。

grok-2

128k

-

不支持

对话

Grok_grok

X.ai于2024.12.12发布的新版本grok模型.

grok-2-1212

128k

-

不支持

对话

Grok_grok

X.ai于2024.12.12发布的新版本grok模型.

grok-2-latest

128k

-

不支持

对话

Grok_grok

X.ai于2024.12.12发布的新版本grok模型.

grok-2-vision-1212

32k

-

不支持

对话,识图

Grok_grok

X.ai于2024.12.12发布的grok视觉版本模型.

grok-beta

100k

-

不支持

对话

Grok_grok

性能与 Grok 2 相当,但效率、速度和功能有所提高。

grok-vision-beta

8k

-

不支持

对话,识图

Grok_grok

最新的图像理解模型可以处理各种视觉信息,包括文档、图表、截图和照片。

internlm/internlm2_5-20b-chat

32k

-

支持

对话

internlm

InternLM2.5-20B-Chat 是一个开源的大规模对话模型,基于 InternLM2 架构开发。该模型拥有 200 亿参数,在数学推理方面表现出色,超越了同量级的 Llama3 和 Gemma2-27B 模型。InternLM2.5-20B-Chat 在工具调用能力方面有显著提升,支持从上百个网页收集信息进行分析推理,并具备更强的指令理解、工具选择和结果反思能力。

meta-llama/Llama-3.2-11B-Vision-Instruct

8k

-

不支持

对话,识图

Meta_llama

目前Llama系列模型不仅能够处理文本数据,还能够处理图像数据;Llama3.2的部分模型加入了视觉理解的功能,该模型支持同时输入文本和图像数据,对图像进行理解并输出文本信息。

meta-llama/Llama-3.2-3B-Instruct

32k

-

不支持

对话

Meta_llama

Meta Llama 3.2多语言大语言模型(LLM),其中1B、3B是可在边缘和移动设备上的运行的轻量级模型,本模型为3B版本。

meta-llama/Llama-3.2-90B-Vision-Instruct

8k

-

不支持

对话,识图

Meta_llama

目前Llama系列模型不仅能够处理文本数据,还能够处理图像数据;Llama3.2的部分模型加入了视觉理解的功能,该模型支持同时输入文本和图像数据,对图像进行理解并输出文本信息。

meta-llama/Llama-3.3-70B-Instruct

131k

-

不支持

对话

Meta_llama

Meta 的最新款 70B LLM,性能与 llama 3.1 405B 相当。

meta-llama/Meta-Llama-3.1-405B-Instruct

32k

-

不支持

对话

Meta_llama

Meta Llama 3.1多语言大语言模型(LLM)集合是8B、70B和405B尺寸的预训练和指令微调生成模型的集合,本模型为405B版本。Llama 3.1指令微调文本模型(8B、70B、405B)针对多语言对话进行了优化,在常见的行业基准上优于许多可用的开源和闭源聊天模型。

meta-llama/Meta-Llama-3.1-70B-Instruct

32k

-

不支持

对话

Meta_llama

Meta Llama 3.1 是由 Meta 开发的多语言大型语言模型家族,包括 8B、70B 和 405B 三种参数规模的预训练和指令微调变体。该 70B 指令微调模型针对多语言对话场景进行了优化,在多项行业基准测试中表现优异。模型训练使用了超过 15 万亿个 tokens 的公开数据,并采用了监督微调和人类反馈强化学习等技术来提升模型的有用性和安全性。

meta-llama/Meta-Llama-3.1-8B-Instruct

32k

-

不支持

对话

Meta_llama

Meta Llama 3.1多语言大语言模型(LLM)集合是8B、70B和405B尺寸的预训练和指令微调生成模型的集合,本模型为8B版本。Llama 3.1指令微调文本模型(8B、70B、405B)针对多语言对话进行了优化,在常见的行业基准上优于许多可用的开源和闭源聊天模型。

abab5.5-chat

16k

-

支持

对话

Minimax_abab

中文人设对话场景

abab5.5s-chat

8k

-

支持

对话

Minimax_abab

中文人设对话场景

abab6.5g-chat

8k

-

支持

对话

Minimax_abab

英文等多语种人设对话场景

abab6.5s-chat

245k

-

支持

对话

Minimax_abab

通用场景

abab6.5t-chat

8k

-

支持

对话

Minimax_abab

中文人设对话场景

chatgpt-4o-latest

128k

16k

不支持

对话,识图

OpenAI

chatgpt-4o-latest 模型版本持续指向 ChatGPT 中使用的 GPT-4o 版本,并在有重大变化时最快更新。

gpt-4o-2024-11-20

128k

16k

支持

对话

OpenAI

2024 年 11 月 20 日的最新 gpt-4o 快照版本。

gpt-4o-audio-preview

128k

16k

不支持

对话

OpenAI

OpenAI的实时语音对话模型

gpt-4o-audio-preview-2024-10-01

128k

16k

支持

对话

OpenAI

OpenAI的实时语音对话模型

o1

128k

32k

不支持

对话,推理,识图

OpenAI

OpenAI针对复杂任务的新推理模型,该任务需要广泛的常识。该模型具有 200k 上下文,目前全球最强模型,支持图片识别

o1-mini-2024-09-12

128k

64k

不支持

对话,推理

OpenAI

o1-mini的固定快照版本,比 o1-preview 更小、更快,成本低80%,在代码生成和小上下文操作方面表现良好。

o1-preview-2024-09-12

128k

32k

不支持

对话,推理

OpenAI

o1-preview的固定快照版本

gpt-3.5-turbo

16k

4k

支持

对话

OpenAI_gpt-3

基于 GPT-3.5: GPT-3.5 Turbo 是建立在 GPT-3.5 模型基础上的改进版本,由 OpenAI 开发。 性能目标: 设计目的是通过优化模型结构和算法,提高模型的推理速度、处理效率和资源利用率。 提升的推理速度: 相对于 GPT-3.5,GPT-3.5 Turbo 在相同硬件条件下通常能够提供更快的推理速度,这对于需要大规模文本处理的应用特别有益。 更高的吞吐量: 在处理大量请求或数据时,GPT-3.5 Turbo 可以实现更高的并发处理能力,从而提升整体的系统吞吐量。 优化的资源消耗: 在保持性能的同时,可能降低了对硬件资源(如内存和计算资源)的需求,这有助于降低运行成本和提高系统的可扩展性。 广泛的自然语言处理任务: GPT-3.5 Turbo 适用于多种自然语言处理任务,包括但不限于文本生成、语义理解、对话系统、机器翻译等。 开发者工具和API支持: 提供了便于开发者集成和使用的 API 接口,支持快速开发和部署应用程序。

gpt-3.5-turbo-0125

16k

4k

支持

对话

OpenAI_gpt-3

更新后的 GPT 3.5 Turbo,响应请求格式的准确性更高,并修复了一个导致非英语语言函数调用文本编码问题的错误。返回最多 4,096 个输出令牌。

gpt-3.5-turbo-0613

16k

4k

支持

对话

OpenAI_gpt-3

更新后的 GPT 3.5 Turbo固定快照版本。目前已弃用

gpt-3.5-turbo-1106

16k

4k

支持

对话

OpenAI_gpt-3

具有改进的指令跟随、JSON 模式、可重现输出、并行函数调用等。返回最多 4,096 个输出令牌。

gpt-3.5-turbo-16k

16k

4k

支持

对话,已废弃或即将废弃

OpenAI_gpt-3

(已弃用)

gpt-3.5-turbo-16k-0613

16k

4k

支持

对话,已废弃或即将废弃

OpenAI_gpt-3

gpt-3.5-turbo 于 2023年6月13日的快照。(已弃用)

gpt-3.5-turbo-instruct

4k

4k

支持

对话

OpenAI_gpt-3

与 GPT-3 时代模型类似的能力。与遗留 Completions 端点兼容,不适用于 Chat Completions。

gpt-3.5o

16k

4k

不支持

对话

OpenAI_gpt-3

同gpt-4o-lite

gpt-4

8k

8k

支持

对话

OpenAI_gpt-4

目前指向 gpt-4-0613。

gpt-4-0125-preview

128k

4k

支持

对话

OpenAI_gpt-4

最新的 GPT-4 模型,旨在减少“懒惰”情况,即模型未完成任务。返回最多 4,096 个输出令牌。

gpt-4-0314

8k

8k

支持

对话

OpenAI_gpt-4

gpt-4 2023年3月14日的快照

gpt-4-0613

8k

8k

支持

对话

OpenAI_gpt-4

gpt-4 2023年6月13日的快照,增强了函数调用支持。

gpt-4-1106-preview

128k

4k

支持

对话

OpenAI_gpt-4

GPT-4 Turbo 模型,具有改进的指令跟随、JSON 模式、可再现输出、函数调用等。返回最多 4,096 个输出令牌。这是预览模型。

gpt-4-32k

32k

4k

支持

对话

OpenAI_gpt-4

gpt-4-32k将于2025-06-06弃用。

gpt-4-32k-0613

32k

4k

支持

对话,已废弃或即将废弃

OpenAI_gpt-4

将于2025-06-06弃用。

gpt-4-turbo

128k

4k

支持

对话

OpenAI_gpt-4

最新版的 GPT-4 Turbo 模型新增了视觉功能,支持通过 JSON 模式和函数调用来处理视觉请求。该模型当前版本为 gpt-4-turbo-2024-04-09。

gpt-4-turbo-2024-04-09

128k

4k

支持

对话

OpenAI_gpt-4

带视觉功能的 GPT-4 Turbo 模型。现在,视觉请求能够通过 JSON 模式和函数调用来实现。gpt-4-turbo 目前版本就是这一版。

gpt-4-turbo-preview

128k

4k

支持

对话,识图

OpenAI_gpt-4

目前指向 gpt-4-0125-preview。

gpt-4o

128k

16k

支持

对话,识图

OpenAI_gpt-4

OpenAI的高智能旗舰模型,适用于复杂的多步骤任务。GPT-4o 比 GPT-4 Turbo 更便宜、更快速。

gpt-4o-2024-05-13

128k

4k

支持

对话,识图

OpenAI_gpt-4

2024 年 5 月 13 日的原始 gpt-4o 快照。

gpt-4o-2024-08-06

128k

16k

支持

对话,识图

OpenAI_gpt-4

支持结构化输出的第一个快照。gpt-4o目前指向此版本。

gpt-4o-mini

128k

16k

支持

对话,识图

OpenAI_gpt-4

OpenAI经济实惠的gpt-4o版本,适用于快速、轻量级任务。GPT-4o mini 比 GPT-3.5 Turbo 更便宜,功能更强大。目前指向 gpt-4o-mini-2024-07-18。

gpt-4o-mini-2024-07-18

128k

16k

支持

对话,识图

OpenAI_gpt-4

gpt-4o-mini的固定快照版本。

gpt-4o-realtime-preview

128k

4k

支持

对话,实时语音

OpenAI_gpt-4

OpenAI的实时语音对话模型

gpt-4o-realtime-preview-2024-10-01

128k

4k

支持

对话,实时语音,识图

OpenAI_gpt-4

gpt-4o-realtime-preview当前指向这个快照版本

o1-mini

128k

64k

不支持

对话,推理

OpenAI_o1

比 o1-preview 更小、更快,成本低80%,在代码生成和小上下文操作方面表现良好。

o1-preview

128k

32k

不支持

对话,推理

OpenAI_o1

o1-preview 是针对需要广泛常识的复杂任务的新推理模型。该模型具有 128K 上下文和 2023 年 10 月的知识截止点。专注于高级推理和解决复杂问题,包括数学和科学任务。非常适合需要深度上下文理解和自主工作流程的应用。

o3-mini

200k

100k

支持

对话,推理

OpenAI_o1

o3-mini是OpenAI最新的小型推理模型,在保持与o1-mini相同成本和延迟的情况下提供高智能,专注于科学、数学和编码任务,支持结构化输出、函数调用、批量API等开发者功能,且知识库截止到2023年10月,展现了在推理能力和经济性方面的显著平衡。

o3-mini-2025-01-31

200k

100k

支持

对话,推理

OpenAI_o1

o3-mini当前指向该版本,o3-mini-2025-01-31是OpenAI最新的小型推理模型,在保持与o1-mini相同成本和延迟的情况下提供高智能,专注于科学、数学和编码任务,支持结构化输出、函数调用、批量API等开发者功能,且知识库截止到2023年10月,展现了在推理能力和经济性方面的显著平衡。

Baichuan2-Turbo

32k

-

不支持

对话

百川_baichuan

相对业界同等尺寸模型,模型效果在保持行业领先的同时,实现了价格的大幅度降低

Baichuan3-Turbo

32k

-

不支持

对话

百川_baichuan

相对业界同等尺寸模型,模型效果在保持行业领先的同时,实现了价格的大幅度降低

Baichuan3-Turbo-128k

128k

-

不支持

对话

百川_baichuan

百川模型通过128k超长上下文窗口处理复杂文本,针对金融等行业进行专门优化,同时在保持高性能的前提下大幅降低成本,为企业提供高性价比的解决方案。

Baichuan4

32k

-

不支持

对话

百川_baichuan

百川的MoE模型通过专门优化、降低成本和提升性能,在企业应用中提供了高效性价比的解决方案。

Baichuan4-Air

32k

-

不支持

对话

百川_baichuan

百川的MoE模型通过专门优化、降低成本和提升性能,在企业应用中提供了高效性价比的解决方案。

Baichuan4-Turbo

32k

-

不支持

对话

百川_baichuan

基于海量优质的场景数据训练,企业高频场景可用性相对Baichuan4提升10%+,信息摘要提升50%,多语言提升31%,内容生成提升13% 针对推理性能专项优化,首token响应速度相对Baichuan4提升51%,token流速提升73%

ERNIE-3.5-128K

128k

4k

支持

对话

百度_ernie

百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。

ERNIE-3.5-8K

8k

1k

支持

对话

百度_ernie

百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。

ERNIE-3.5-8K-Preview

8k

1k

支持

对话

百度_ernie

百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。

ERNIE-4.0-8K

8k

1k

支持

对话

百度_ernie

百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。

ERNIE-4.0-8K-Latest

8k

2k

支持

对话

百度_ernie

ERNIE-4.0-8K-Latest相比ERNIE-4.0-8K能力全面提升,其中角色扮演能力和指令遵循能力提升较大;相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效,支持5K tokens输入+2K tokens输出。本文介绍了ERNIE-4.0-8K-Latest接口调用方法。

ERNIE-4.0-8K-Preview

8k

1k

支持

对话

百度_ernie

百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。

ERNIE-4.0-Turbo-128K

128k

4k

支持

对话

百度_ernie

ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-128K是模型的一个版本,长文档整体效果优于ERNIE-3.5-128K。本文介绍了相关API及使用。

ERNIE-4.0-Turbo-8K

8k

2k

支持

对话

百度_ernie

ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-8K是模型的一个版本。本文介绍了相关API及使用。

ERNIE-4.0-Turbo-8K-Latest

8k

2k

支持

对话

百度_ernie

ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。ERNIE-4.0-Turbo-8K是模型的一个版本。

ERNIE-4.0-Turbo-8K-Preview

8k

2k

支持

对话

百度_ernie

ERNIE 4.0 Turbo是百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。ERNIE-4.0-Turbo-8K-Preview是模型的一个版本

ERNIE-Character-8K

8k

1k

不支持

对话

百度_ernie

百度自研的垂直场景大语言模型,适合游戏NPC、客服对话、对话角色扮演等应用场景,人设风格更为鲜明、一致,指令遵循能力更强,推理性能更优

ERNIE-Lite-8K

8k

4k

不支持

对话

百度_ernie

百度自研的轻量级大语言模型,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。

ERNIE-Lite-Pro-128K

128k

2k

支持

对话

百度_ernie

百度自研的轻量级大语言模型,效果比ERNIE Lite更优,兼顾优异的模型效果与推理性能,适合低算力AI加速卡推理使用。ERNIE-Lite-Pro-128K支持128K上下文长度,效果比ERNIE-Lite-128K更优。

ERNIE-Novel-8K

8k

2k

不支持

对话

百度_ernie

ERNIE-Novel-8K是百度自研通用大语言模型,在小说续写能力上有明显优势,也可用在短剧、电影等场景。

ERNIE-Speed-128K

128k

4k

不支持

对话

百度_ernie

百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。

ERNIE-Speed-8K

8k

1k

不支持

对话

百度_ernie

百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。

ERNIE-Speed-Pro-128K

128k

4k

不支持

对话

百度_ernie

ERNIE Speed Pro是百度2024年最新发布的自研高性能大语言模型,通用能力优异,适合作为基座模型进行精调,更好地处理特定场景问题,同时具备极佳的推理性能。ERNIE-Speed-Pro-128K是2024年8月30日发布的初始版本,支持128K上下文长度,效果比ERNIE-Speed-128K更优。

ERNIE-Tiny-8K

8k

1k

不支持

对话

百度_ernie

百度自研的超高性能大语言模型,部署与精调成本在文心系列模型中最低。

Doubao-1.5-lite-32k

32k

12k

支持

对话

豆包_doubao

Doubao1.5-lite在轻量版语言模型中也处于全球一流水平,在综合(MMLU_pro)、推理(BBH)、数学(MATH)、专业知识(GPQA)权威测评指标持平或超越GPT-4omini,Cluade 3.5 Haiku。

Doubao-1.5-pro-256k

256k

12k

支持

对话

豆包_doubao

Doubao-1.5-Pro-256k,基于Doubao-1.5-Pro全面升级版。相比Doubao-pro-256k/241115,整体效果大幅提升10%。输出长度大幅提升,支持最大12k tokens。

Doubao-1.5-pro-32k

32k

12k

支持

对话

豆包_doubao

Doubao-1.5-pro,全新一代主力模型,性能全面升级,在知识、代码、推理、等方面表现卓越。在多项公开测评基准上达到全球领先水平,特别在知识、代码、推理、中文权威测评基准上获得最佳成绩,综合得分优于GPT4o、Claude 3.5 Sonnet等业界一流模型。

Doubao-1.5-vision-pro

32k

12k

不支持

对话,识图

豆包_doubao

Doubao-1.5-vision-pro,全新升级的多模态大模型,支持任意分辨率和极端长宽比图像识别,增强视觉推理、文档识别、细节信息理解和指令遵循能力。

Doubao-embedding

4k

-

支持

嵌入

豆包_doubao

Doubao-embedding 是一款由字节跳动研发的语义向量化模型,主要面向向量检索的使用场景,支持中、英双语,最长 4K 上下文长度。目前提供以下版本: text-240715:最高维度向量 2560,支持 512、1024、2048 降维使用。中英文 Retrieval效果较 text-240515 版本有较大提升,推荐使用该版本。 text-240515:最高维度向量 2048,支持 512、1024 降维使用。

Doubao-embedding-large

4k

-

不支持

嵌入

豆包_doubao

中英文Retrieval效果较Doubao-embedding/text-240715版本显著提升

Doubao-embedding-vision

8k

-

不支持

嵌入

豆包_doubao

Doubao-embedding-vision,全新升级图文多模态向量化模型,主要面向图文多模向量检索的使用场景,支持图片输入及中、英双语文本输入,最长 8K 上下文长度。

Doubao-lite-128k

128k

4k

支持

对话

豆包_doubao

Doubao-lite 拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持128k上下文窗口的推理和精调。

Doubao-lite-32k

32k

4k

支持

对话

豆包_doubao

Doubao-lite拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持32k上下文窗口的推理和精调。

Doubao-lite-4k

4k

4k

支持

对话

豆包_doubao

Doubao-lite拥有极致的响应速度,更好的性价比,为客户不同场景提供更灵活的选择。支持4k上下文窗口的推理和精调。

Doubao-pro-128k

128k

4k

支持

对话

豆包_doubao

效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持128k上下文窗口的推理和精调。

Doubao-pro-32k

32k

4k

支持

对话

豆包_doubao

效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持32k上下文窗口的推理和精调。

Doubao-pro-4k

4k

4k

支持

对话

豆包_doubao

效果最好的主力模型,适合处理复杂任务,在参考问答、总结摘要、创作、文本分类、角色扮演等场景都有很好的效果。支持4k上下文窗口的推理和精调。

step-1-128k

128k

-

支持

对话

阶跃星辰

step-1-128k模型是一个超大规模的语言模型,能够处理高达128,000个token的输入。这种能力使其在生成长篇内容和进行复杂推理时具有显著优势,适合用于创作小说、剧本等需要丰富上下文的应用。

step-1-256k

256k

-

支持

对话

阶跃星辰

step-1-256k模型是目前最大的语言模型之一,支持256,000个token的输入。它的设计旨在满足极端复杂的任务需求,如大规模数据分析和多轮对话系统,能够在多种领域中提供高质量的输出。

step-1-32k

32k

-

支持

对话

阶跃星辰

step-1-32k模型扩展了上下文窗口,支持32,000个token的输入。这使得它在处理长篇文章和复杂对话时表现出色,适合需要深入理解和分析的任务,如法律文书和学术研究。

step-1-8k

8k

-

支持

对话

阶跃星辰

step-1-8k模型是一个高效的语言模型,专为处理较短文本而设计。它能够在8,000个token的上下文中进行推理,适合需要快速响应的应用场景,如聊天机器人和实时翻译。

step-1-flash

8k

-

支持

对话

阶跃星辰

step-1-flash模型专注于快速响应和高效处理,适合实时应用。它的设计使得在有限的计算资源下仍能提供优质的语言理解和生成能力,适合移动设备和边缘计算场景。

step-1.5v-mini

32k

-

支持

对话,识图

阶跃星辰

step-1.5v-mini模型是一个轻量级版本,旨在在资源受限的环境中运行。尽管体积小,但它仍然保留了良好的语言处理能力,适合嵌入式系统和低功耗设备。

step-1v-32k

32k

-

支持

对话,识图

阶跃星辰

step-1v-32k模型支持32,000个token的输入,适合需要更长上下文的应用。它在处理复杂对话和长文本时表现出色,适合客户服务和内容创作等领域。

step-1v-8k

8k

-

支持

对话,识图

阶跃星辰

step-1v-8k模型是一个优化的版本,专为8,000个token的输入设计,适合快速生成和处理短文本。它在速度和准确性之间取得了良好的平衡,适合实时应用。

step-2-16k

16k

-

支持

对话

阶跃星辰

step-2-16k模型是一个中等规模的语言模型,支持16,000个token的输入。它在多种任务中表现良好,适合教育、培训和知识管理等应用场景。

yi-lightning

16k

-

支持

对话

零一万物_yi

最新高性能模型,保证高质量输出同时,推理速度大幅提升。 适用于实时交互,高复杂推理场景,极高的性价比能够为商业产品提供极好的产品支撑。

yi-vision-v2

16K

-

支持

对话,识图

零一万物_yi

适合需要分析和解释图像、图表的场景,如图片问答、图表理解、OCR、视觉推理、教育、研究报告理解或多语种文档阅读等。

qwen-14b-chat

8k

2k

支持

对话

千问_qwen

阿里云官方的通义千问-开源版。

qwen-72b-chat

32k

2k

支持

对话

千问_qwen

阿里云官方的通义千问-开源版。

qwen-7b-chat

7.5k

1.5k

支持

对话

千问_qwen

阿里云官方的通义千问-开源版。

qwen-coder-plus

128k

8k

支持

对话,代码

千问_qwen

Qwen-Coder-Plus是Qwen系列中的一款编程专用模型,旨在提升代码生成和理解能力。该模型通过大规模的编程数据训练,能够处理多种编程语言,支持代码补全、错误检测和代码重构等功能。其设计目标是为开发者提供更高效的编程辅助,提升开发效率。

qwen-coder-plus-latest

128k

8k

支持

对话,代码

千问_qwen

Qwen-Coder-Plus-Latest是Qwen-Coder-Plus的最新版本,包含了最新的算法优化和数据集更新。该模型在性能上有显著提升,能够更准确地理解上下文,生成更符合开发者需求的代码。它还引入了更多的编程语言支持,增强了多语言编程的能力。

qwen-coder-turbo

128k

8k

支持

对话,代码

千问_qwen

通义千问系列代码及编程模型是专门用于编程和代码生成的语言模型,推理速度快,成本低。该版本始终指向最新稳定版快照

qwen-coder-turbo-latest

128k

8k

支持

对话,代码

千问_qwen

通义千问系列代码及编程模型是专门用于编程和代码生成的语言模型,推理速度快,成本低。该版本始终指向最新版快照

qwen-long

10m

6k

支持

对话

千问_qwen

Qwen-Long是在通义千问针对超长上下文处理场景的大语言模型,支持中文、英文等不同语言输入,支持最长1000万tokens(约1500万字或1.5万页文档)的超长上下文对话。配合同步上线的文档服务,可支持word、pdf、markdown、epub、mobi等多种文档格式的解析和对话。 说明:通过HTTP直接提交请求,支持1M tokens长度,超过此长度建议通过文件方式提交。

qwen-math-plus

4k

3k

支持

对话

千问_qwen

Qwen-Math-Plus是专注于数学问题解决的模型,旨在提供高效的数学推理和计算能力。该模型通过大量的数学题库进行训练,能够处理复杂的数学表达式和问题,支持从基础算术到高等数学的多种计算需求。其应用场景包括教育、科研和工程等领域。

qwen-math-plus-latest

4k

3k

支持

对话

千问_qwen

Qwen-Math-Plus-Latest是Qwen-Math-Plus的最新版本,集成了最新的数学推理技术和算法改进。该模型在处理复杂数学问题时表现更为出色,能够提供更准确的解答和推理过程。它还扩展了对数学符号和公式的理解能力,适用于更广泛的数学应用场景。

qwen-math-turbo

4k

3k

支持

对话

千问_qwen

Qwen-Math-Turbo是一个高性能的数学模型,专为快速计算和实时推理而设计。该模型优化了计算速度,能够在极短的时间内处理大量数学问题,适合需要快速反馈的应用场景,如在线教育和实时数据分析。其高效的算法使得用户能够在复杂计算中获得即时结果。

qwen-math-turbo-latest

4k

3k

支持

对话

千问_qwen

Qwen-Math-Turbo-Latest是Qwen-Math-Turbo的最新版本,进一步提升了计算效率和准确性。该模型在算法上进行了多项优化,能够处理更复杂的数学问题,并在实时推理中保持高效性。它适合用于需要快速响应的数学应用,如金融分析和科学计算。

qwen-max

32k

8k

支持

对话

千问_qwen

通义千问2.5系列千亿级别超大规模语言模型,支持中文、英文等不同语言输入。随着模型的升级,qwen-max将滚动更新升级。

qwen-max-latest

32k

8k

支持

对话

千问_qwen

通义千问系列效果最好的模型,本模型是动态更新版本,模型更新不会提前通知,适合复杂、多步骤的任务,模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升,提升对Table、JSON等结构化数据的理解和生成能力。

qwen-plus

128k

8k

支持

对话

千问_qwen

通义千问系列能力均衡的模型,推理效果和速度介于通义千问-Max和通义千问-Turbo之间,适合中等复杂任务。模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升。

qwen-plus-latest

128k

8k

支持

对话

千问_qwen

Qwen-Plus是通义千问系列中的增强版视觉语言模型,旨在提升细节识别能力和文字识别能力。该模型支持超百万像素分辨率和任意长宽比规格的图像,能够在多种视觉语言任务中表现出色,适合需要高精度图像理解的应用场景。

qwen-turbo

128k

8k

支持

对话

千问_qwen

通义千问系列速度最快、成本很低的模型,适合简单任务。模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升。

qwen-turbo-latest

1m

8k

支持

对话

千问_qwen

Qwen-Turbo是为简单任务设计的高效模型,强调速度和成本效益。它在处理基本的视觉语言任务时表现出色,适合对响应时间有严格要求的应用,如实时图像识别和简单的问答系统。

qwen-vl-max

32k

2k

支持

对话

千问_qwen

通义千问VL-Max(qwen-vl-max),即通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。在更多复杂任务上提供最佳的性能。

qwen-vl-max-latest

32k

2k

支持

对话,识图

千问_qwen

Qwen-VL-Max是Qwen-VL系列中的最高级版本,专为解决复杂的多模态任务而设计。它结合了先进的视觉和语言处理技术,能够理解和分析高分辨率图像,推理能力极强,适合需要深度理解和复杂推理的应用场景。

qwen-vl-ocr

34k

4k

支持

对话,识图

千问_qwen

只支持ocr,不支持对话。

qwen-vl-ocr-latest

34k

4k

支持

对话,识图

千问_qwen

只支持ocr,不支持对话。

qwen-vl-plus

8k

2k

支持

对话,识图

千问_qwen

通义千问VL-Plus(qwen-vl-plus),即通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。在广泛的视觉任务上提供卓越的性能。

qwen-vl-plus-latest

32k

2k

支持

对话,识图

千问_qwen

Qwen-VL-Plus-Latest是Qwen-VL-Plus的最新版本,增强了模型的多模态理解能力。它在图像和文本的结合处理上表现出色,适合需要高效处理多种输入格式的应用,如智能客服和内容生成。

Qwen/Qwen2-1.5B-Instruct

32k

6k

不支持

对话

千问_qwen

Qwen2-1.5B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 1.5B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型。

Qwen/Qwen2-72B-Instruct

128k

6k

不支持

对话

千问_qwen

Qwen2-72B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 72B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它能够处理大规模输入。该模型在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型

Qwen/Qwen2-7B-Instruct

128k

6k

不支持

对话

千问_qwen

Qwen2-7B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 7B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它能够处理大规模输入。该模型在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型

Qwen/Qwen2-VL-72B-Instruct

32k

2k

不支持

对话

千问_qwen

Qwen2-VL 是 Qwen-VL 模型的最新迭代版本,在视觉理解基准测试中达到了最先进的性能,包括 MathVista、DocVQA、RealWorldQA 和 MTVQA 等。Qwen2-VL 能够理解超过 20 分钟的视频,用于高质量的基于视频的问答、对话和内容创作。它还具备复杂推理和决策能力,可以与移动设备、机器人等集成,基于视觉环境和文本指令进行自动操作。

Qwen/Qwen2-VL-7B-Instruct

32k

-

不支持

对话

千问_qwen

Qwen2-VL-7B-Instruct 是 Qwen-VL 模型的最新迭代版本,在视觉理解基准测试中达到了最先进的性能,包括 MathVista、DocVQA、RealWorldQA 和 MTVQA 等。Qwen2-VL 能够用于高质量的基于视频的问答、对话和内容创作,还具备复杂推理和决策能力,可以与移动设备、机器人等集成,基于视觉环境和文本指令进行自动操作。

Qwen/Qwen2.5-72B-Instruct

128k

8k

不支持

对话

千问_qwen

Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。它支持长达 128K tokens 的输入,可以生成超过 8K tokens 的长文本。

Qwen/Qwen2.5-72B-Instruct-128K

128k

8k

不支持

对话

千问_qwen

Qwen2.5-72B-Instruct 是阿里云发布的最新大语言模型系列之一。该 72B 模型在编码和数学等领域具有显著改进的能力。它支持长达 128K tokens 的输入,可以生成超过 8K tokens 的长文本。

Qwen/Qwen2.5-7B-Instruct

128k

8k

不支持

对话

千问_qwen

Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升

Qwen/Qwen2.5-Coder-32B-Instruct

128k

8k

不支持

对话,代码

千问_qwen

Qwen2.5-32B-Instruct 是阿里云发布的最新大语言模型系列之一。该 32B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升

Qwen/Qwen2.5-Coder-7B-Instruct

128k

8k

不支持

对话

千问_qwen

Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升

Qwen/QwQ-32B-Preview

32k

16k

不支持

对话,推理

千问_qwen

QwQ-32B-Preview 是由 Qwen 团队开发的实验性研究模型,旨在提升人工智能的推理能力。作为预览版本,它展示了出色的分析能力,但也存在一些重要的限制: 1. 语言混合和代码切换:模型可能会混合使用语言或在语言之间意外切换,影响响应的清晰度。 2. 递归推理循环:模型可能会进入循环推理模式,导致冗长的回答而没有明确的结论。 3. 安全和伦理考量:模型需要加强安全措施以确保可靠和安全的性能,用户在使用时应谨慎。 4. 性能和基准限制:模型在数学和编程方面表现出色,但在常识推理和细微语言理解等其他领域仍有改进空间。

qwen1.5-110b-chat

32k

8k

不支持

对话

千问_qwen

-

qwen1.5-14b-chat

8k

2k

不支持

对话

千问_qwen

-

qwen1.5-32b-chat

32k

2k

不支持

对话

千问_qwen

-

qwen1.5-72b-chat

32k

2k

不支持

对话

千问_qwen

-

qwen1.5-7b-chat

8k

2k

不支持

对话

千问_qwen

-

qwen2-57b-a14b-instruct

65k

6k

不支持

对话

千问_qwen

-

Qwen2-72B-Instruct

-

-

不支持

对话

千问_qwen

-

qwen2-7b-instruct

128k

6k

不支持

对话

千问_qwen

-

qwen2-math-72b-instruct

4k

3k

不支持

对话

千问_qwen

-

qwen2-math-7b-instruct

4k

3k

不支持

对话

千问_qwen

-

qwen2.5-14b-instruct

128k

8k

不支持

对话

千问_qwen

-

qwen2.5-32b-instruct

128k

8k

不支持

对话

千问_qwen

-

qwen2.5-72b-instruct

128k

8k

不支持

对话

千问_qwen

-

qwen2.5-7b-instruct

128k

8k

不支持

对话

千问_qwen

-

qwen2.5-coder-14b-instruct

128k

8k

不支持

对话,代码

千问_qwen

-

qwen2.5-coder-32b-instruct

128k

8k

不支持

对话,代码

千问_qwen

-

qwen2.5-coder-7b-instruct

128k

8k

不支持

对话,代码

千问_qwen

-

qwen2.5-math-72b-instruct

4k

3k

不支持

对话

千问_qwen

-

qwen2.5-math-7b-instruct

4k

3k

不支持

对话

千问_qwen

-

deepseek-ai/DeepSeek-R1

64k

-

不支持

对话,推理

深度求索_deepseek

DeepSeek-R1模型是一款基于纯强化学习的开源推理模型,其在数学、代码和自然语言推理等任务上表现出色,性能可与OpenAI的o1模型相媲美,且在多个基准测试中取得了优异的成绩。

deepseek-ai/DeepSeek-V2-Chat

128k

-

不支持

对话

深度求索_deepseek

DeepSeek-V2 是一个强大、经济高效的混合专家(MoE)语言模型。它在 8.1 万亿个 token 的高质量语料库上进行了预训练,并通过监督微调(SFT)和强化学习(RL)进一步提升了模型能力。与 DeepSeek 67B 相比, DeepSeek-V2 在性能更强的同时,节省了 42.5% 的训练成本,减少了 93.3% 的 KV 缓存,并将最大生成吞吐量提高到了 5.76 倍。

deepseek-ai/DeepSeek-V2.5

32k

-

支持

对话

深度求索_deepseek

DeepSeek-V2.5 是 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct 的升级版本,集成了两个先前版本的通用和编码能力。该模型在多个方面进行了优化,包括写作和指令跟随能力,更好地与人类偏好保持一致。

deepseek-ai/DeepSeek-V3

128k

4k

不支持

对话

深度求索_deepseek

deepseek开源版本,相对官方版上下文更长,无敏感词拒答等问题。

deepseek-chat

64k

8k

支持

对话

深度求索_deepseek

236B 参数量,64K 上下文(API),中文综合能力(AlignBench)位列开源榜首,与 GPT-4-Turbo,文心 4.0 等闭源模型在评测中处于同一梯队

deepseek-coder

64k

8k

支持

对话,代码

深度求索_deepseek

236B 参数量,64K 上下文(API),中文综合能力(AlignBench)位列开源榜首,与 GPT-4-Turbo,文心 4.0 等闭源模型在评测中处于同一梯队

deepseek-reasoner

64k

8k

支持

对话,推理

深度求索_deepseek

DeepSeek-Reasoner(DeepSeek-R1)是DeepSeek最新推出的推理模型,旨在通过强化学习训练来提升推理能力。该模型的推理过程包含大量的反思和验证,能够处理复杂的逻辑推理任务,其思维链长度可达数万字。DeepSeek-R1在数学、代码及其他复杂问题的解答上表现出色,已被广泛应用于多种场景,显示出其强大的推理能力和灵活性。与其他模型相比,DeepSeek-R1在推理性能上接近顶尖的闭源模型,展现了开源模型在推理领域的潜力和竞争力。

hunyuan-code

4k

4k

不支持

对话,代码

腾讯_hunyuan

混元最新代码生成模型,经过 200B 高质量代码数据增训基座模型,迭代半年高质量 SFT 数据训练,上下文长窗口长度增大到 8K,五大语言代码生成自动评测指标上位居前列;五大语言10项考量各方面综合代码任务人工高质量评测上,性能处于第一梯队。

hunyuan-functioncall

28k

4k

支持

对话

腾讯_hunyuan

混元最新 MOE 架构 FunctionCall 模型,经过高质量的 FunctionCall 数据训练,上下文窗口达 32K,在多个维度的评测指标上处于领先。

hunyuan-large

28k

4k

不支持

对话

腾讯_hunyuan

Hunyuan-large 模型总参数量约 389B,激活参数量约 52B,是当前业界参数规模最大、效果最好的 Transformer 架构的开源 MoE 模型。

hunyuan-large-longcontext

128k

6k

不支持

对话

腾讯_hunyuan

擅长处理长文任务如文档摘要和文档问答等,同时也具备处理通用文本生成任务的能力。在长文本的分析和生成上表现优异,能有效应对复杂和详尽的长文内容处理需求。

hunyuan-lite

250k

6k

不支持

对话

腾讯_hunyuan

升级为 MOE 结构,上下文窗口为 256k ,在 NLP,代码,数学,行业等多项评测集上领先众多开源模型。

hunyuan-pro

28k

4k

支持

对话

腾讯_hunyuan

万亿级参数规模 MOE-32K 长文模型。在各种 benchmark 上达到绝对领先的水平,复杂指令和推理,具备复杂数学能力,支持 functioncall,在多语言翻译、金融法律医疗等领域应用重点优化。

hunyuan-role

28k

4k

不支持

对话

腾讯_hunyuan

混元最新版角色扮演模型,混元官方精调训练推出的角色扮演模型,基于混元模型结合角色扮演场景数据集进行增训,在角色扮演场景具有更好的基础效果。

hunyuan-standard

30k

2k

不支持

对话

腾讯_hunyuan

采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。 MOE-32K 性价比相对更高,在平衡效果、价格的同时,可对实现对长文本输入的处理。

hunyuan-standard-256K

250k

6k

不支持

对话

腾讯_hunyuan

采用更优的路由策略,同时缓解了负载均衡和专家趋同的问题。长文方面,大海捞针指标达到99.9%。 MOE-256K 在长度和效果上进一步突破,极大的扩展了可输入长度。

hunyuan-translation-lite

4k

4k

不支持

对话

腾讯_hunyuan

混元翻译模型支持自然语言对话式翻译;支持中文和英语、日语、法语、葡萄牙语、西班牙语、土耳其语、俄语、阿拉伯语、韩语、意大利语、德语、越南语、马来语、印尼语15种语言互译。

hunyuan-turbo

28k

4k

支持

对话

腾讯_hunyuan

Hunyuan-turbo 模型默认版本,采用全新的混合专家模型(MoE)结构,相比hunyuan-pro推理效率更快,效果表现更强。

hunyuan-turbo-latest

28k

4k

支持

对话

腾讯_hunyuan

Hunyuan-turbo 模型动态更新版本,是混元模型系列效果最好的版本,与C端(腾讯元宝)保持一致。

hunyuan-turbo-vision

8k

2k

支持

识图,对话

腾讯_hunyuan

混元新一代视觉语言旗舰大模型,采用全新的混合专家模型(MoE)结构,在图文理解相关的基础识别、内容创作、知识问答、分析推理等能力上相比前一代模型全面提升。最大输入6k,最大输出2k

hunyuan-vision

8k

2k

支持

对话,识图

腾讯_hunyuan

混元最新多模态模型,支持图片+文本输入生成文本内容。 图片基础识别:对图片中主体、元素、场景等进行识别 图片内容创作:对图片进行概述、创作广告文案、朋友圈、诗词等 图片多轮对话:输出单张图片进行多轮交互问答 图片分析推理:对图片中逻辑关系、数学题、代码、图表进行统计分析 图片知识问答:对图片包含的知识点进行问答,例如历史事件、电影海报 图片 OCR:对自然生活场景、非自然场景的图片识别文字。

SparkDesk-Lite

4k

-

不支持

对话

星火_SparkDesk

支持在线联网搜索功能,响应快速、便捷,适用于低算力推理与模型精调等定制化场景

SparkDesk-Max

128k

-

支持

对话

星火_SparkDesk

基于最新版星火大模型引擎4.0 Turbo 量化而来,支持联网搜索、天气、日期等多个内置插件,核心能力全面升级,各场景应用效果普遍提升,支持System角色人设与FunctionCall函数调用

SparkDesk-Max-32k

32k

-

支持

对话

星火_SparkDesk

推理更强:更强的上下文理解和逻辑推理能力,输入更长:支持32K tokens的文本输入,适用于长文档阅读、私有知识问答等场景

SparkDesk-Pro

128k

-

不支持

对话

星火_SparkDesk

数学、代码、医疗、教育等场景专项优化,支持联网搜索、天气、日期等多个内置插件,覆盖大部分知识问答、语言理解、文本创作等多个场景

SparkDesk-Pro-128K

128k

-

不支持

对话

星火_SparkDesk

专业级大语言模型,具有百亿级参数,在医疗、教育和代码等场景进行了专项优化,搜索场景延时更低。适用于文本、智能问答等对性能和响应速度有更高要求的业务场景。

moonshot-v1-128k

128k

4k

支持

对话

月之暗面_moonshot

长度为 8k 的模型,适用于生成短文本。

moonshot-v1-32k

32k

4k

支持

对话

月之暗面_moonshot

长度为 32k 的模型,适用于生成长文本。

moonshot-v1-8k

8k

4k

支持

对话

月之暗面_moonshot

长度为 128k 的模型,适用于生成超长文本。

codegeex-4

128k

4k

不支持

对话,代码

智谱_codegeex

智谱的代码模型:适用于代码自动补全任务

charglm-3

4k

2k

不支持

对话

智谱_glm

拟人模型

emohaa

8k

4k

不支持

对话

智谱_glm

心理模型:具备专业咨询能力,帮助用户理解情感并应对情绪问题

glm-3-turbo

128k

4k

不支持

对话

智谱_glm

即将弃用(2025年6月30日)

glm-4

128k

4k

支持

对话

智谱_glm

旧版旗舰:发布于2024年1月16日,目前已被GLM-4-0520取代

glm-4-0520

128k

4k

支持

对话

智谱_glm

高智能模型:适用于处理高度复杂和多样化的任务

glm-4-air

128k

4k

支持

对话

智谱_glm

高性价比:推理能力和价格之间最平衡的模型

glm-4-airx

8k

4k

支持

对话

智谱_glm

极速推理:具有超快的推理速度和强大的推理效果

glm-4-flash

128k

4k

支持

对话

智谱_glm

高速低价:超快推理速度

glm-4-flashx

128k

4k

支持

对话

智谱_glm

高速低价:Flash增强版本,超快推理速度

glm-4-long

1m

4k

支持

对话

智谱_glm

超长输入:专为处理超长文本和记忆型任务设计

glm-4-plus

128k

4k

支持

对话

智谱_glm

高智能旗舰: 性能全面提升,长文本和复杂任务能力显著增强

glm-4v

2k

-

不支持

对话,识图

智谱_glm

图像理解:具备图像理解能力和推理能力

glm-4v-flash

2k

1k

不支持

对话,识图

智谱_glm

免费模型:具备强大的图片理解能力

Logo

模型榜单

这是一个基于 Chatbot Arena (lmarena.ai) 数据的排行榜,通过自动化流程生成。

数据更新时间: 2025-06-21 11:41:45 UTC / 2025-06-21 19:41:45 CST (北京时间)

点击排行榜中的 模型名称 可跳转至其详细信息或试用页面。

排行榜

排名(UB)
排名(StyleCtrl)
模型名
分数
置信区间
票数
服务商
许可协议
知识截止日期

1

1

1480

+6/-6

8,825

Google

Proprietary

暂无数据

2

2

1446

+5/-5

13,025

Google

Proprietary

暂无数据

3

2

1427

+4/-4

16,019

OpenAI

Proprietary

暂无数据

3

3

1426

+5/-5

20,638

OpenAI

Proprietary

暂无数据

3

6

1421

+7/-7

8,423

DeepSeek

MIT

暂无数据

3

6

1420

+5/-5

14,034

Google

Proprietary

暂无数据

3

8

1419

+4/-5

22,643

xAI

Proprietary

暂无数据

5

4

1413

+4/-4

15,271

OpenAI

Proprietary

暂无数据

9

8

1398

+4/-4

14,812

Google

Proprietary

暂无数据

9

11

1387

+7/-6

7,837

Alibaba

Apache 2.0

暂无数据

10

6

1385

+6/-4

14,635

OpenAI

Proprietary

暂无数据

10

12

1384

+5/-3

17,365

DeepSeek

MIT

暂无数据

10

12

1377

+10/-8

3,905

Google

Proprietary

暂无数据

10

18

1373

+7/-7

6,747

Tencent

Proprietary

暂无数据

13

6

1373

+4/-4

15,254

Anthropic

Proprietary

暂无数据

13

12

1373

+4/-5

19,430

DeepSeek

MIT

暂无数据

14

18

1365

+4/-5

13,385

Mistral

Proprietary

暂无数据

16

12

1365

+3/-3

29,038

OpenAI

Proprietary

暂无数据

16

22

1363

+5/-6

11,429

Alibaba

Apache 2.0

暂无数据

16

26

1361

+7/-6

6,984

xAI

Proprietary

暂无数据

17

25

1363

+3/-3

34,803

Google

Proprietary

暂无数据

17

12

1362

+4/-4

14,392

OpenAI

Proprietary

暂无数据

17

23

1360

+3/-3

30,065

Alibaba

Proprietary

暂无数据

19

26

1356

+4/-3

22,300

Google

Gemma

暂无数据

25

18

1350

+3/-4

33,177

OpenAI

Proprietary

2023/10

25

12

1346

+5/-5

12,143

Anthropic

Proprietary

暂无数据

26

25

1340

+4/-3

19,404

OpenAI

Proprietary

暂无数据

26

21

1338

+4/-5

13,519

OpenAI

Proprietary

暂无数据

26

33

1336

+8/-10

3,976

Google

Gemma

暂无数据

27

30

1334

+4/-4

22,841

DeepSeek

DeepSeek

暂无数据

28

37

1332

+4/-5

16,438

Alibaba

Apache 2.0

暂无数据

29

32

1328

+3/-3

26,104

Google

Proprietary

暂无数据

29

36

1326

+6/-9

6,028

Zhipu

Proprietary

暂无数据

29

33

1326

+6/-7

6,055

Alibaba

Proprietary

暂无数据

29

33

1325

+6/-3

21,092

Cohere

CC-BY-NC-4.0

暂无数据

30

38

1320

+9/-7

5,126

StepFun

Proprietary

暂无数据

30

31

1318

+11/-10

2,452

Tencent

Proprietary

暂无数据

31

38

1312

+15/-13

2,371

Nvidia

Nvidia

暂无数据

33

32

1321

+3/-2

33,256

OpenAI

Proprietary

暂无数据

34

39

1319

+3/-3

54,951

OpenAI

Proprietary

2023/10

34

33

1317

+2/-3

58,645

Google

Proprietary

暂无数据

34

18

1315

+5/-3

22,385

Anthropic

Proprietary

暂无数据

34

33

1311

+11/-12

2,510

Tencent

Proprietary

暂无数据

40

56

1303

+9/-9

3,913

Google

Gemma

暂无数据

41

21

1307

+4/-3

26,866

Anthropic

Proprietary

暂无数据

42

45

1303

+2/-3

67,084

xAI

Proprietary

2024/3

42

48

1302

+3/-3

28,968

01 AI

Proprietary

暂无数据

43

35

1300

+2/-2

117,747

OpenAI

Proprietary

2023/10

43

25

1299

+2/-2

74,230

Anthropic

Proprietary

2024/4

43

57

1297

+5/-7

10,715

Alibaba

Proprietary

暂无数据

43

51

1294

+6/-4

7,243

DeepSeek

DeepSeek

暂无数据

44

66

1290

+9/-7

4,321

Google

Gemma

暂无数据

48

45

1287

+11/-8

3,856

Tencent

Proprietary

暂无数据

50

58

1291

+3/-4

26,074

NexusFlow

NexusFlow

暂无数据

50

56

1289

+3/-3

27,788

Zhipu AI

Proprietary

暂无数据

50

43

1288

+5/-4

14,164

Meta

Llama 4

暂无数据

50

50

1286

+7/-6

6,302

OpenAI

Proprietary

暂无数据

52

57

1287

+2/-2

72,536

OpenAI

Proprietary

2023/10

52

63

1287

+3/-3

37,021

Google

Proprietary

暂无数据

52

39

1284

+3/-2

43,788

Meta

Llama 3.1 Community

2023/12

52

75

1284

+6/-6

7,577

Nvidia

Llama 3.1

2023/12

54

36

1283

+2/-3

86,159

Anthropic

Proprietary

2024/4

55

42

1283

+2/-2

63,038

Meta

Llama 3.1 Community

2023/12

55

40

1282

+3/-2

52,144

Google

Proprietary

Online

55

56

1276

+9/-9

4,014

Tencent

Proprietary

暂无数据

57

70

1281

+2/-2

55,442

xAI

Proprietary

2024/3

57

44

1280

+2/-3

47,973

OpenAI

Proprietary

2023/10

58

60

1279

+4/-5

17,432

Alibaba

Qwen

暂无数据

67

54

1275

+2/-2

82,435

Google

Proprietary

2023/11

67

66

1273

+3/-4

26,344

DeepSeek

DeepSeek

暂无数据

67

57

1272

+3/-2

45,404

Meta

Llama-3.3

暂无数据

67

72

1272

+2/-3

41,519

Alibaba

Qwen

2024/9

67

69

1266

+9/-10

3,258

Mistral

Apache 2.0

暂无数据

68

52

1272

+2/-2

102,133

OpenAI

Proprietary

2023/12

73

60

1267

+3/-3

48,217

Mistral

Mistral Research

2024/7

73

71

1266

+3/-4

20,580

NexusFlow

CC-BY-NC-4.0

2024/7

73

72

1264

+3/-3

29,633

Mistral

MRL

暂无数据

73

76

1259

+8/-7

3,010

Ai2

Llama 3.1

暂无数据

74

57

1265

+2/-2

103,748

OpenAI

Proprietary

2023/4

74

79

1263

+2/-2

58,637

Meta

Llama 3.1 Community

2023/12

74

54

1262

+2/-1

202,641

Anthropic

Proprietary

2023/8

75

80

1260

+3/-3

26,371

Amazon

Proprietary

暂无数据

76

61

1260

+2/-2

97,079

OpenAI

Proprietary

2023/12

82

79

1250

+6/-6

7,948

Reka AI

Proprietary

暂无数据

83

57

1253

+3/-2

45,698

Anthropic

Propretary

暂无数据

85

83

1242

+2/-3

65,661

Google

Proprietary

2023/11

86

80

1237

+5/-6

9,125

AI21 Labs

Jamba Open

2024/3

87

82

1235

+2/-2

79,538

Google

Gemma license

2024/6

87

92

1233

+6/-5

15,321

Mistral

Apache 2.0

暂无数据

87

89

1232

+6/-7

5,730

Alibaba

Apache 2.0

暂无数据

87

98

1232

+3/-4

20,646

Amazon

Proprietary

暂无数据

87

85

1231

+4/-5

10,548

Princeton

MIT

2024/7

87

85

1231

+4/-5

10,535

Cohere

CC-BY-NC-4.0

2024/8

87

79

1227

+7/-10

3,889

Nvidia

Llama 3.1

2023/12

89

102

1228

+2/-3

37,697

Google

Proprietary

暂无数据

89

96

1224

+4/-3

28,768

Cohere

CC-BY-NC-4.0

暂无数据

89

89

1224

+4/-4

20,608

Nvidia

NVIDIA Open Model

2023/6

89

100

1221

+10/-8

3,460

Allen AI

Apache-2.0

暂无数据

91

92

1222

+5/-5

10,221

Zhipu AI

Proprietary

暂无数据

92

89

1221

+6/-7

8,132

Reka AI

Proprietary

暂无数据

95

90

1222

+1/-2

163,629

Meta

Llama 3 Community

2023/12

95

103

1221

+4/-3

25,213

Microsoft

MIT

暂无数据

98

88

1216

+2/-2

113,067

Anthropic

Proprietary

2023/8

100

111

1213

+4/-5

20,654

Amazon

Proprietary

暂无数据

101

112

1204

+11/-12

2,901

Tencent

Proprietary

暂无数据

104

101

1207

+2/-2

57,197

Google

Gemma license

2024/6

104

113

1201

+8/-9

3,074

Ai2

Llama 3.1

暂无数据

105

98

1205

+2/-3

80,846

Cohere

CC-BY-NC-4.0

2024/3

105

111

1197

+8/-8

5,111

Mistral

MRL

暂无数据

106

100

1202

+2/-3

38,872

Alibaba

Qianwen LICENSE

2024/6

106

85

1201

+2/-3

55,962

OpenAI

Proprietary

2021/9

107

113

1195

+4/-5

10,391

Cohere

CC-BY-NC-4.0

暂无数据

108

103

1195

+4/-5

10,851

Cohere

CC-BY-NC-4.0

2024/8

109

103

1195

+2/-2

122,309

Anthropic

Proprietary

2023/8

109

96

1194

+4/-4

15,753

DeepSeek AI

DeepSeek License

2024/6

109

112

1191

+7/-6

9,274

AI21 Labs

Jamba Open

2024/3

109

128

1191

+2/-3

52,578

Meta

Llama 3.1 Community

2023/12

118

96

1178

+2/-2

91,614

OpenAI

Proprietary

2021/9

118

113

1176

+3/-3

27,430

Alibaba

Qianwen LICENSE

2024/4

118

145

1168

+12/-10

3,410

Alibaba

Apache 2.0

暂无数据

119

128

1173

+4/-5

25,135

01 AI

Apache-2.0

2024/5

119

112

1173

+2/-3

64,926

Mistral

Proprietary

暂无数据

119

113

1171

+5/-4

16,027

Reka AI

Proprietary

Online

121

122

1167

+2/-2

109,056

Meta

Llama 3 Community

2023/3

121

135

1164

+5/-5

10,599

InternLM

Other

2024/8

123

117

1164

+2/-3

56,398

Cohere

CC-BY-NC-4.0

2024/3

123

122

1163

+3/-3

35,556

Mistral

Proprietary

暂无数据

123

122

1163

+4/-4

25,803

Reka AI

Proprietary

2023/11

123

122

1158

+9/-10

3,289

IBM

Apache 2.0

暂无数据

124

116

1163

+2/-3

53,751

Mistral

Apache 2.0

2024/4

124

117

1163

+3/-2

40,658

Alibaba

Qianwen LICENSE

2024/2

124

135

1159

+2/-3

48,892

Google

Gemma license

2024/7

132

116

1147

+4/-5

18,800

Google

Proprietary

2023/4

132

127

1142

+8/-9

4,854

HuggingFace

Apache 2.0

2024/4

133

130

1141

+3/-4

22,765

Alibaba

Qianwen LICENSE

2024/2

133

137

1135

+9/-9

3,380

IBM

Apache 2.0

暂无数据

134

135

1138

+3/-3

26,105

Microsoft

MIT

2023/10

134

145

1134

+4/-4

16,676

Nexusflow

Apache-2.0

2024/3

137

135

1129

+2/-2

76,126

Mistral

Apache 2.0

2023/12

137

140

1126

+4/-4

15,917

01 AI

Yi License

2023/6

137

125

1126

+6/-8

6,557

Google

Proprietary

2023/4

138

137

1124

+3/-4

18,687

Alibaba

Qianwen LICENSE

2024/2

138

138

1122

+6/-6

8,383

Microsoft

Llama 2 Community

2023/8

140

125

1121

+2/-3

68,867

OpenAI

Proprietary

2021/9

140

144

1118

+7/-6

8,390

Meta

Llama 3.2

2023/12

141

135

1118

+3/-3

33,743

Databricks

DBRX LICENSE

2023/12

141

141

1117

+4/-5

18,476

Microsoft

MIT

2023/10

141

144

1114

+7/-7

6,658

AllenAI/UW

AI2 ImpACT Low-risk

2023/11

146

135

1108

+5/-7

7,002

IBM

Apache 2.0

暂无数据

148

155

1108

+2/-3

39,595

Meta

Llama 2 Community

2023/7

148

140

1107

+4/-4

12,990

OpenChat

Apache-2.0

2024/1

148

147

1106

+4/-3

22,936

LMSYS

Non-commercial

2023/8

148

140

1105

+2/-4

34,173

Snowflake

Apache 2.0

2024/4

148

150

1104

+6/-5

10,415

UC Berkeley

CC-BY-NC-4.0

2023/11

148

157

1099

+10/-10

3,836

NousResearch

Apache-2.0

2024/1

149

155

1096

+10/-9

3,636

Nvidia

Llama 2 Community

2023/11

150

141

1099

+4/-3

25,070

Google

Gemma license

2024/2

154

144

1092

+6/-7

4,988

DeepSeek AI

DeepSeek License

2023/11

155

142

1092

+6/-6

8,106

OpenChat

Apache-2.0

2023/11

155

144

1089

+8/-8

5,088

NousResearch

Apache-2.0

2023/11

156

152

1089

+6/-7

7,191

IBM

Apache 2.0

暂无数据

156

161

1088

+4/-4

20,067

Mistral

Apache-2.0

2023/12

156

161

1086

+4/-4

12,808

Microsoft

MIT

2023/10

156

161

1085

+8/-8

4,872

Alibaba

Qianwen LICENSE

2024/2

156

156

1078

+14/-13

1,714

Cognitive Computations

Apache-2.0

2023/10

158

137

1083

+3/-4

17,036

OpenAI

Proprietary

2021/9

158

165

1082

+4/-4

21,097

Microsoft

MIT

2023/10

158

160

1077

+9/-8

4,286

Upstage AI

CC-BY-NC-4.0

2023/11

161

166

1078

+4/-5

19,722

Meta

Llama 2 Community

2023/7

164

161

1074

+6/-7

7,176

Microsoft

Llama 2 Community

2023/7

167

171

1069

+6/-5

8,523

Meta

Llama 3.2

2023/12

167

169

1068

+6/-6

11,321

HuggingFace

MIT

2023/10

167

162

1062

+13/-12

2,375

HuggingFace

Apache 2.0

暂无数据

167

170

1057

+18/-14

1,192

Meta

Llama 2 Community

2024/1

169

161

1061

+8/-11

2,644

MosaicML

CC-BY-NC-SA-4.0

2023/6

169

164

1056

+13/-12

1,811

HuggingFace

MIT

2023/10

171

160

1049

+15/-13

1,327

TII

Falcon-180B TII License

2023/9

172

170

1058

+5/-7

7,509

Meta

Llama 2 Community

2023/7

173

164

1057

+5/-5

19,775

LMSYS

Llama 2 Community

2023/7

173

168

1053

+8/-6

9,176

Google

Gemma license

2024/2

173

170

1052

+3/-3

21,622

Microsoft

MIT

2023/10

173

185

1052

+5/-5

14,532

Meta

Llama 2 Community

2023/7

173

162

1050

+7/-8

5,065

Alibaba

Qianwen LICENSE

2023/8

173

171

1048

+10/-12

2,996

UW

Non-commercial

2023/5

183

174

1036

+5/-5

11,351

Google

Gemma license

2024/2

183

180

1033

+8/-8

5,276

Together AI

Apache 2.0

2023/12

184

191

1030

+6/-8

6,503

Allen AI

Apache-2.0

2024/2

186

184

1023

+7/-6

9,142

Mistral

Apache 2.0

2023/9

186

185

1020

+6/-7

7,017

LMSYS

Llama 2 Community

2023/7

186

174

1019

+6/-7

8,713

Google

Proprietary

2021/6

190

189

1005

+8/-8

4,918

Google

Gemma license

2024/2

191

189

1004

+5/-7

7,816

Alibaba

Qianwen LICENSE

2024/2

193

192

980

+8/-8

7,020

UC Berkeley

Non-commercial

2023/4

193

193

970

+6/-9

4,763

Tsinghua

Apache-2.0

2023/10

194

193

948

+15/-11

1,788

Nomic AI

Non-commercial

2023/3

195

193

943

+9/-11

3,997

MosaicML

CC-BY-NC-SA-4.0

2023/5

195

198

940

+13/-11

2,713

Tsinghua

Apache-2.0

2023/6

195

198

937

+8/-7

4,920

RWKV

Apache 2.0

2023/4

199

193

917

+8/-7

5,864

Stanford

Non-commercial

2023/3

199

199

908

+8/-8

6,368

OpenAssistant

Apache 2.0

2023/4

200

201

894

+9/-8

4,983

Tsinghua

Non-commercial

2023/3

201

201

883

+8/-12

4,288

LMSYS

Apache 2.0

2023/4

203

204

855

+11/-14

3,336

Stability AI

CC-BY-NC-SA-4.0

2023/4

203

201

838

+11/-12

3,480

Databricks

MIT

2023/4

204

202

815

+12/-10

2,446

Meta

Non-commercial

2023/2

说明

  • 排名(UB):基于 Bradley-Terry 模型计算的排名。此排名反映了模型在竞技场中的综合表现,并提供了其 Elo 分数的 上界 估计,帮助理解模型的潜在竞争力。

  • 排名(StyleCtrl):经过对话风格控制后的排名。此排名旨在减少因模型回复风格(例如冗长、简洁)带来的偏好偏差,更纯粹地评估模型的核心能力。

  • 模型名:大型语言模型 (LLM) 的名称。此列已嵌入模型相关链接,点击可跳转。

  • 分数:模型在竞技场中通过用户投票获得的 Elo 评分。Elo 评分是一种相对排名系统,分数越高表示模型表现越好。该分数是动态变化的,反映了模型在当前竞争环境中的相对实力。

  • 置信区间:模型 Elo 评分的95%置信区间(例如:+6/-6)。这个区间越小,表示模型的评分越稳定和可靠;反之,区间越大可能意味着数据量不足或模型表现波动较大。它提供了对评分准确性的量化评估。

  • 票数:该模型在竞技场中收到的总投票数量。投票数越多,通常意味着其评分的统计可靠性越高。

  • 服务商:提供该模型的组织或公司。

  • 许可协议:模型的许可协议类型,例如专有 (Proprietary)、Apache 2.0、MIT 等。

  • 知识截止日期:模型训练数据的知识截止日期。暂无数据 表示相关信息未提供或未知。

数据来源与更新频率

本排行榜数据由 fboulnois/llm-leaderboard-csv 项目自动生成并提供,该项目从 lmarena.ai 获取并处理数据。此排行榜由 GitHub Actions 每天自动更新。

免责声明

本报告仅供参考。排行榜数据是动态变化的,并基于特定时间段内用户在 Chatbot Arena 上的偏好投票。数据的完整性和准确性取决于上游数据源及 fboulnois/llm-leaderboard-csv 项目的更新和处理。不同模型可能采用不同的许可协议,使用时请务必参考模型提供商的官方说明。

Gemini-2.5-Pro-Preview-06-05
Gemini-2.5-Pro-Preview-05-06
o3-2025-04-16
ChatGPT-4o-latest (2025-03-26)
DeepSeek-R1-0528
Gemini-2.5-Flash-Preview-05-20
Grok-3-Preview-02-24
GPT-4.5-Preview
Gemini-2.5-Flash-Preview-04-17
Qwen3-235B-A22B-no-thinking
GPT-4.1-2025-04-14
DeepSeek-V3-0324
Gemini-2.5-Flash-Lite-Preview-06-17-Thinking
Hunyuan-Turbos-20250416
Claude Opus 4 (20250514)
DeepSeek-R1
Mistral Medium 3
o1-2024-12-17
Qwen3-235B-A22B
Grok-3-Mini-beta
Gemini-2.0-Flash-001
o4-mini-2025-04-16
Qwen2.5-Max
Gemma-3-27B-it
o1-preview
Claude Sonnet 4 (20250514)
o3-mini-high
GPT-4.1-mini-2025-04-14
Gemma-3-12B-it
DeepSeek-V3
QwQ-32B
Gemini-2.0-Flash-Lite
GLM-4-Plus-0111
Qwen-Plus-0125
Command A (03-2025)
Step-2-16K-Exp
Hunyuan-TurboS-20250226
Llama-3.3-Nemotron-Super-49B-v1
o3-mini
o1-mini
Gemini-1.5-Pro-002
Claude 3.7 Sonnet (thinking-32k)
Hunyuan-Turbo-0110
Gemma-3n-e4b-it
Claude 3.7 Sonnet
Grok-2-08-13
Yi-Lightning
GPT-4o-2024-05-13
Claude 3.5 Sonnet (20241022)
Qwen2.5-plus-1127
Deepseek-v2.5-1210
Gemma-3-4B-it
Hunyuan-Large-2025-02-10
Athene-v2-Chat-72B
GLM-4-Plus
Llama-4-Maverick-17B-128E-Instruct
GPT-4.1-nano-2025-04-14
GPT-4o-mini-2024-07-18
Gemini-1.5-Flash-002
Meta-Llama-3.1-405B-Instruct-bf16
Llama-3.1-Nemotron-70B-Instruct
Claude 3.5 Sonnet (20240620)
Meta-Llama-3.1-405B-Instruct-fp8
Gemini Advanced App (2024-05-14)
Hunyuan-Standard-2025-02-10
Grok-2-Mini-08-13
GPT-4o-2024-08-06
Qwen-Max-0919
Gemini-1.5-Pro-001
Deepseek-v2.5
Llama-3.3-70B-Instruct
Qwen2.5-72B-Instruct
Mistral-Small-3.1-24B-Instruct-2503
GPT-4-Turbo-2024-04-09
Mistral-Large-2407
Athene-70B
Mistral-Large-2411
Llama-3.1-Tulu-3-70B
GPT-4-1106-preview
Meta-Llama-3.1-70B-Instruct
Claude 3 Opus
Amazon Nova Pro 1.0
GPT-4-0125-preview
Reka-Core-20240904
Claude 3.5 Haiku (20241022)
Gemini-1.5-Flash-001
Jamba-1.5-Large
Gemma-2-27B-it
Mistral-Small-24B-Instruct-2501
Qwen2.5-Coder-32B-Instruct
Amazon Nova Lite 1.0
Gemma-2-9B-it-SimPO
Command R+ (08-2024)
Llama-3.1-Nemotron-51B-Instruct
Gemini-1.5-Flash-8B-001
Aya-Expanse-32B
Nemotron-4-340B-Instruct
OLMo-2-0325-32B-Instruct
GLM-4-0520
Reka-Flash-20240904
Llama-3-70B-Instruct
Phi-4
Claude 3 Sonnet
Amazon Nova Micro 1.0
Hunyuan-Standard-256K
Gemma-2-9B-it
Llama-3.1-Tulu-3-8B
Command R+ (04-2024)
Ministral-8B-2410
Qwen2-72B-Instruct
GPT-4-0314
Aya-Expanse-8B
Command R (08-2024)
Claude 3 Haiku
DeepSeek-Coder-V2-Instruct
Jamba-1.5-Mini
Meta-Llama-3.1-8B-Instruct
GPT-4-0613
Qwen1.5-110B-Chat
QwQ-32B-Preview
Yi-1.5-34B-Chat
Mistral-Large-2402
Reka-Flash-21B-online
Llama-3-8B-Instruct
InternLM2.5-20B-chat
Command R (04-2024)
Mistral Medium
Reka-Flash-21B
Granite-3.1-8B-Instruct
Mixtral-8x22b-Instruct-v0.1
Qwen1.5-72B-Chat
Gemma-2-2b-it
Gemini-1.0-Pro-001
Zephyr-ORPO-141b-A35b-v0.1
Qwen1.5-32B-Chat
Granite-3.1-2B-Instruct
Phi-3-Medium-4k-Instruct
Starling-LM-7B-beta
Mixtral-8x7B-Instruct-v0.1
Yi-34B-Chat
Gemini Pro
Qwen1.5-14B-Chat
WizardLM-70B-v1.0
GPT-3.5-Turbo-0125
Meta-Llama-3.2-3B-Instruct
DBRX-Instruct-Preview
Phi-3-Small-8k-Instruct
Tulu-2-DPO-70B
Granite-3.0-8B-Instruct
Llama-2-70B-chat
OpenChat-3.5-0106
Vicuna-33B
Snowflake Arctic Instruct
Starling-LM-7B-alpha
Nous-Hermes-2-Mixtral-8x7B-DPO
NV-Llama2-70B-SteerLM-Chat
Gemma-1.1-7B-it
DeepSeek-LLM-67B-Chat
OpenChat-3.5
OpenHermes-2.5-Mistral-7B
Granite-3.0-2B-Instruct
Mistral-7B-Instruct-v0.2
Phi-3-Mini-4K-Instruct-June-24
Qwen1.5-7B-Chat
Dolphin-2.2.1-Mistral-7B
GPT-3.5-Turbo-1106
Phi-3-Mini-4k-Instruct
SOLAR-10.7B-Instruct-v1.0
Llama-2-13b-chat
WizardLM-13b-v1.2
Meta-Llama-3.2-1B-Instruct
Zephyr-7B-beta
SmolLM2-1.7B-Instruct
CodeLlama-70B-instruct
MPT-30B-chat
Zephyr-7B-alpha
falcon-180b-chat
CodeLlama-34B-instruct
Vicuna-13B
Gemma-7B-it
Phi-3-Mini-128k-Instruct
Llama-2-7B-chat
Qwen-14B-Chat
Guanaco-33B
Gemma-1.1-2b-it
StripedHyena-Nous-7B
OLMo-7B-instruct
Mistral-7B-Instruct-v0.1
Vicuna-7B
PaLM-Chat-Bison-001
Gemma-2B-it
Qwen1.5-4B-Chat
Koala-13B
ChatGLM3-6B
GPT4All-13B-Snoozy
MPT-7B-Chat
ChatGLM2-6B
RWKV-4-Raven-14B
Alpaca-13B
OpenAssistant-Pythia-12B
ChatGLM-6B
FastChat-T5-3B
StableLM-Tuned-Alpha-7B
Dolly-V2-12B
LLaMA-13B
Logo