仅本页所有页面
由 GitBook 提供支持
1 / 86

中文 (繁體)

Cherry Studio

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

基礎教程

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

知識庫教程

Loading...

Loading...

Loading...

Loading...

進階教程

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

專案貢獻

Loading...

Loading...

問題&回饋

Loading...

Loading...

Loading...

Loading...

聯絡我們

Loading...

Loading...

關於

Loading...

其他內容

Loading...

Loading...

繪畫

此文件由 AI 從中文翻譯而來,尚未經過審閱。

繪畫

繪畫功能目前支援 DMXAPI、TokenFlux、AiHubMix 和 硅基流動 的繪畫模型,你可以到 硅基流動 註冊一個帳戶 新增到服務商 來使用。

有關參數的疑問可以將滑鼠懸停在對應區域的 ? 處檢視介紹。

後續將會增加更多服務商,敬請期待。

知識庫

此文件由 AI 從中文翻譯而來,尚未經過審閱。

知識庫

知識庫使用可參考進階教程中的 知識庫教程。

專案規劃

此文件由 AI 從中文翻譯而來,尚未經過審閱。

專案規劃

To-Do List

小程式

此文件由 AI 從中文翻譯而來,尚未經過審閱。

小程序

在小程序頁面你可以在用戶端內使用各大服務商 AI 相關程式的網頁版,目前暫不支援自訂新增和刪除。

功能介紹

此文件由 AI 從中文翻譯而來,尚未經過審閱。

功能一覽

資料設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

該介面可進行數據本地與雲端備份恢復、本地數據目錄查詢與清除快取、匯出設定及第三方連接等操作。

數據備份

數據備份目前支援本地備份、WebDAV 備份與 S3 相容儲存(物件儲存)備份三種方式。詳細說明與教學請參考以下文件:

  • WebDAV 備份教學

  • S3 相容儲存備份

匯出設定

匯出設定可配置導出選單顯示的匯出項目,另可設定 Markdown 匯出的預設路徑、顯示樣式等。

第三方連接

第三方連接可配置 Cherry Studio 與第三方應用的整合,用於快速導出對話內容至您熟悉的知識管理應用。目前支援的應用包括:Notion、Obsidian、思源筆記、語雀、Joplin,詳細配置教學請參考以下文件:

  • Notion 設定教學

  • Obsidian 設定教學

  • 思源筆記設定教學

智能體

此文件由 AI 從中文翻譯而來,尚未經過審閱。

智能代理

智能代理頁面是一個助手廣場,在這裡你可以選擇或搜尋想要的模型預設,點擊卡片後即可將助手新增到對話頁面的助手清單中。

你也可以在頁面中編輯和建立自己的助手。

  • 點擊 我的,再點擊 創建智能代理 即可開始建立自己的助手。

提示詞輸入框右上角按鈕為 AI 最佳化提示詞按鈕,點擊後會覆蓋原文。所使用的模型為 全域預設助手模型。

MCP 使用教程

此文件由 AI 從中文翻譯而來,尚未經過審閱。

MCP 使用教學

免費聯網模式

此文件由 AI 從中文翻譯而來,尚未經過審閱。

免費聯網模式

安裝教程

此文件由 AI 從中文翻譯而來,尚未經過審閱。

安裝教學

OneAPI 及其分支專案

此文件由 AI 從中文翻譯而來,尚未經過審閱。

OneAPI及其分支項目

快捷鍵設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

快捷鍵設置

在此介面可啟(停)用與設定部分功能的快捷鍵,具體操作請遵循介面指示進行設置。

模型服務配置

此文件由 AI 從中文翻譯而來,尚未經過審閱。

模型服務配置

常規設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

常規設定

在此頁面可設定軟體的介面語言、設定代理等。

貢獻文件

此文件由 AI 從中文翻譯而來,尚未經過審閱。

貢獻文檔

郵件聯繫 [email protected] 獲取編輯身份

標題:申請 Cherry Studio Docs 編輯身份

正文:填寫申請理由

設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

設定

資料設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

數據設定

檔案

此文件由 AI 從中文翻譯而來,尚未經過審閱。

檔案

檔案頁面會顯示所有對話、繪圖、知識庫等相關文件,可在此頁面集中管理及查看。

macOS

macOS 版本安装教程

此文件由 AI 從中文翻譯而來,尚未經過審閱。

macOS

  1. 首先到官網下載頁面點擊下載 Mac 版本,或點擊下方直達

請注意下載 自己 Mac 對應的晶片版本

如果不知道自己的 Mac 應當使用什麼晶片版本:

  • 點擊 Mac 左上角選單欄 

  • 在展開選單中點擊關於本機

  • 在彈出視窗中查看處理器資訊

如果為 Intel 晶片則下載 Intel 版本安裝包

如果為 Apple M* 晶片則下載 Apple 晶片安裝包

  1. 下載完成後點擊這裡

  1. 拖曳圖示安裝

到啟動台中尋找 Cherry Studio 圖示並點擊,能打開 Cherry Studio 主介面則安裝成功。

客戶端下載

此文件由 AI 從中文翻譯而來,尚未經過審閱。

當前最新正式版:v1.4.8

直鏈下載

Windows 版本

注意:Windows 7 系統不支援安裝 Cherry Studio。

安裝版(Setup)

x64 版本

主線路:

【】 【】

備用線路:

【】 【】 【】

ARM64 版本

主線路:

【】 【】

備用線路:

【】 【】 【】

便攜版(Portable)

x64 版本

主線路:

【】 【】

備用線路:

【】 【】 【】

ARM64 版本

主線路:

【】 【】

備用線路:

【】 【】 【】


macOS 版本

Intel 晶片版本(x64)

主線路:

【】 【】

備用線路:

【】 【】 【】

Apple Silicon 版本(ARM64,M 系列晶片)

主線路:

【】 【】

備用線路:

【】 【】 【】


Linux 版本

x86_64 版本

主線路:

【】 【】

備用線路:

【】 【】 【】

ARM64 版本

主線路:

【】 【】

備用線路:

【】 【】 【】


網盤下載

OneAPI

此文件由 AI 從中文翻譯而來,尚未經過審閱。

OneAPI

  • 登入並進入令牌頁面

  • 建立新令牌(亦可直接使用default令牌↑)

  • 複製令牌

  • 開啟CherryStudio的服務商設置,點擊服務商列表最下方的新增

  • 輸入備註名稱,提供商選OpenAI,點擊確認

  • 填入剛剛複製的key

  • 回到取得API Key的頁面,在對應瀏覽器網址列複製根網址,例如:

  • 當地址為IP+連接埠時,填寫http://IP:連接埠即可,例如:http://127.0.0.1:3000

  • 嚴格區分http和https,若未啟用SSL請勿填寫https

  • 新增模型(點擊管理自動取得或手動輸入),開啟右上角開關即可使用

OneAPI其他主題介面可能有所不同,但新增方法與上述操作流程一致。

GitHub Copilot

此文件由 AI 從中文翻譯而來,尚未經過審閱。

GitHub Copilot

使用 GitHub Copilot 需要先擁有一個 GitHub 帳號,並訂閱 GitHub Copilot 服務,免費版本的訂閱也可以,但免費版本不支援最新的 Claude 3.7 模型,具體請參考 。

取得 Device Code

點擊「登入 GitHub」,取得 Device Code 並複製。

在瀏覽器中填寫 Device Code 並授權

成功取得 Device Code 後,點擊連結開啟瀏覽器,在瀏覽器中登入 GitHub 帳號,輸入 Device Code 並授權。

授權成功後,返回 Cherry Studio,點擊「連接 GitHub」,成功後會顯示 GitHub 使用者名稱和頭像。

點擊「管理」取得模型清單

點擊下方的「管理」按鈕,會自動連網取得當前支援的模型清單。

常見問題

取得 Device Code 失敗,請重試

目前使用 Axios 構建請求,Axios 不支援 socks 代理,請使用系統代理或 HTTP 代理,或者直接不在 CherryStudio 中設定代理,使用全域代理。首先請確保您的網路連線正常,以避免取得 Device Code 失敗的情況。

Windows

Windows 版本安装教程

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Windows

開啟官方網站

注意:Windows 7 系統不支援安裝 Cherry Studio。

點擊下載選擇合適的版本

等待下載完成

如果出現瀏覽器提示檔案不被信任等情況,選擇保留即可 選擇保留 → 信任 Cherry-Studio

開啟檔案

安裝

字型推薦

此文件由 AI 從中文翻譯而來,尚未經過審閱。

字體推薦

Vertex AI

暂时不支持Claude模型

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Vertex AI

教程概述

1. 取得 API Key

  • 取得 Gemini 的 API Key 前,你需要有一個 Google Cloud 專案(如果你已有,此過程可跳過)

  • 進入 建立專案,填寫專案名稱並點擊建立專案

  • 進入

  • 在建立的專案中啟用

2. 設定 API 存取權限

  • 開啟 權限介面,建立服務帳號

  • 在服務帳號管理頁面找到剛剛建立的服務帳號,點擊金鑰並建立一個新的 JSON 格式金鑰

  • 建立成功後,金鑰檔案將會以 JSON 檔案的格式自動儲存到你的電腦上,請 妥善保存

3. 在Cherry Studio中設定Vertex AI

  • 選擇Vertex AI服務商

  • 將JSON檔案的對應欄位填入

點擊新增 ,就可以愉快地開始使用了!

S3 相容儲存備份

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Cherry Studio 資料備份支援透過 S3 兼容儲存(物件儲存)的方式進行備份。常見的 S3 兼容儲存服務有:AWS S3、Cloudflare R2、阿里雲 OSS、騰訊雲 COS 以及 MinIO 等。

基於 S3 兼容儲存可透過 A電腦 S3儲存 B電腦 的方式來實現多端資料同步。

配置 S3 兼容儲存

  1. 建立物件儲存桶(Bucket),並記錄下儲存桶名稱。強烈建議將儲存桶設定為私有讀寫以避免備份資料外洩!!

  2. 參考文件,前往雲端服務控制台取得 S3 兼容儲存的 Access Key ID、Secret Access Key、Endpoint、Bucket、Region 等資訊。

    • Endpoint:S3 兼容儲存的存取位址,通常形如 https://<bucket-name>.<region>.amazonaws.com 或 https://<ACCOUNT_ID>.r2.cloudflarestorage.com。

    • Region:儲存桶所在的區域,例如 us-west-1、ap-southeast-1 等,Cloudflare R2 請填寫 auto。

    • Bucket:儲存桶名稱。

    • Access Key ID 與 Secret Access Key:用於身分驗證的憑證。

    • Root Path:選填,指定備份到儲存桶時的根路徑,預設為空。

    • 相關文件

      • AWS S3:

      • Cloudflare R2:

      • 阿里雲 OSS:

      • 騰訊雲 COS:

  3. 在 S3 備份設定中填寫上述資訊,點擊備份按鈕即可進行備份,點擊管理按鈕可檢視和管理備份檔案清單。

MCP 環境安裝

此文件由 AI 從中文翻譯而來,尚未經過審閱。

MCP 環境安裝

MCP (Model Context Protocol) 是一種開源協定,旨在以標準化的方式向大型語言模型(LLM)提供上下文資訊。更多關於 MCP 的介紹請見

在 Cherry Studio 中使用 MCP

以下以 fetch 功能為例,示範如何在 Cherry Studio 中使用 MCP,可在 中查看詳情。

準備工作:安裝 uv、bun

Cherry Studio 目前只使用內建的 和 ,不會復用系統中已經安裝的 uv 和 bun。

在 設定 - MCP 伺服器 中,點擊 安裝 按鈕,即可自動下載並安裝。由於直接從 GitHub 下載,速度可能較慢,且有較大可能失敗。安裝成功與否,以下文提到的資料夾內是否有檔案為準。

可執行程式安裝目錄:

Windows: C:\Users\使用者名稱\.cherrystudio\bin

macOS、Linux: ~/.cherrystudio/bin

無法正常安裝的情況下:

可將系統中的相對應命令使用軟連結的方式連結到此處。若無對應目錄,需手動建立。也可手動下載可執行檔案放到此目錄下:

Bun: UV:

清除 CSS 設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

清除CSS設定

當設定了錯誤的CSS,或在設定CSS後無法進入設定界面時,使用此方法清除CSS設定。

  • 開啟控制台:點擊CherryStudio視窗,按下快捷鍵Ctrl+Shift+I(MacOS:command+option+I)。

  • 在彈出的控制台視窗中,點選Console標籤頁

  • 手動輸入document.getElementById('user-defined-custom-css').remove()(複製貼上通常不會被執行)。

  • 輸入完成後按Enter確認,即可清除CSS設定。隨後再次進入CherryStudio的顯示設定中刪除有問題的CSS程式碼。

知識庫資料

此文件由 AI 從中文翻譯而來,尚未經過審閱。

資料儲存說明

在 Cherry Studio 知識庫中添加的數據全部儲存在本機,在添加過程中會複製一份文件放在 Cherry Studio 資料儲存目錄。

向量資料庫:

當文件被添加到 Cherry Studio 知識庫之後,文件會被切分為若干個片段,然後這些片段會交給嵌入模型進行處理。

當使用大模型進行問答的時候,會查詢和問題相關的文字片段一併交給大語言模型處理。

如果對資料隱私有要求,建議使用本機嵌入資料庫和本機大語言模型。

貢獻程式碼

此文件由 AI 從中文翻譯而來,尚未經過審閱。

貢獻程式碼

我們歡迎對 Cherry Studio 的貢獻!您可以通過以下方式貢獻:

1. 貢獻程式碼: 開發新功能或優化現有程式碼。

2. 修復錯誤: 提交您發現的錯誤修復。

3. 維護問題: 協助管理 GitHub 問題。

4. 產品設計: 參與設計討論。

5. 撰寫文件: 改進使用者手冊和指南。

6. 社群參與: 加入討論並幫助使用者。

7. 推廣使用: 宣傳 Cherry Studio。

參與方式

發送郵件至

郵件標題:申請成為開發者

郵件內容:申請理由

商務合作

此文件由 AI 從中文翻譯而來,尚未經過審閱。

商務合作

聯繫人:王先生

📮:[email protected]

📱:18954281942 (非客服電話)

使用問題諮詢,可以在官網首頁底部加入我們的用戶交流群,也可郵件 [email protected]

或提交 issues:

如果您需要更多指導,可以加入我們的

商用授權詳情:

Cherry Studio 官網
GitHub
線路1
線路2
線路3
Cherry Studio 官網
GitHub
線路1
線路2
線路3
Cherry Studio 官網
GitHub
線路1
線路2
線路3
Cherry Studio 官網
GitHub
線路1
線路2
線路3
Cherry Studio 官網
GitHub
線路1
線路2
線路3
Cherry Studio 官網
GitHub
線路1
線路2
線路3
Cherry Studio 官網
GitHub
線路1
線路2
線路3
Cherry Studio 官網
GitHub
線路1
線路2
線路3
夸克
→備份\xrightarrow{\text{備份}}備份​
→恢復\xrightarrow{\text{恢復}}恢復​
取得 Access Key ID 和 Secret Access Key
取得 Access Key ID 和 Secret Access Key
取得 Access Key ID 和 Access Key Secret
取得 SecretId 和 SecretKey
[email protected]
只需複製https://xxx.xxx.com即可,「/」及其後內容無需複製
GitHub Copilot 官網
取得 Device Code 示意圖
取得 Device Code
GitHub授權示意圖
GitHub 授權
GitHub連接成功示意圖
GitHub 連接成功
管理按鈕取得模型清單示意圖
取得模型清單
取得 Device Code 失敗示意圖
取得 Device Code 失敗

Monaspace

英文字體 可商用

GitHub 推出了名為 Monaspace 的開源字體家族,擁有五種風格可選:Neon(現代風格)、Argon(人文風格)、Xenon(襯線風格)、Radon(手寫風格)、Krypton(機械風格)。

MiSans Global

多語言 可商用

MiSans Global 是由小米主導,聯合蒙納字庫、漢儀字庫共同打造的全球語言字體定制項目。

這是一個龐大的字體家族,涵蓋 20 多種書寫系統,支持 600 多種語言。

Google Cloud
Vertex AI控制台
Vertex AI API
服務帳號
模型
https://turso.tech/libsql
知識庫處理流程圖
https://github.com/CherryHQ/cherry-studio/issues
知識星球
https://docs.cherry-ai.com/contact-us/questions/cherrystudio-xu-ke-xie-yi

內建 MCP 配置

此文件由 AI 從中文翻譯而來,尚未經過審閱。

內建 MCP 配置

@cherry/mcp-auto-install

自動安裝 MCP 服務(測試版)

@cherry/memory

基於本體知識圖譜的持久性記憶基礎實現。這使得模型能夠在不同對話間記住用戶的相關資訊。

MEMORY_FILE_PATH=/path/to/your/file.json

@cherry/sequentialthinking

一個 MCP 伺服器實現,提供了透過結構化思維過程進行動態和反思性問題解決的工具。

@cherry/brave-search

一個整合了 Brave 搜尋 API 的 MCP 伺服器實現,提供網頁與本地搜尋雙重功能。

BRAVE_API_KEY=YOUR_API_KEY

@cherry/fetch

用於取得 URL 網頁內容的 MCP 伺服器。

@cherry/filesystem

實現檔案系統操作的模型上下文協議(MCP)的 Node.js 伺服器。

回饋 & 建議

此文件由 AI 從中文翻譯而來,尚未經過審閱。

意見回饋與建議

Telegram 討論群組

討論群組成員會分享使用經驗,協助您解決問題

加入 Telegram 討論群組獲取協助:https://t.me/CherryStudioAI

QQ 群組

QQ 群成員可互相協助,分享下載連結

QQ群(1025067911)

Github Issues

適合記錄重要事項防止開發者遺忘,或參與功能討論

Github Issues 提交:https://github.com/CherryHQ/cherry-studio/issues/new/choose

電子郵件

若未找到其他回饋管道,可聯繫開發者獲取協助

開發者聯絡郵箱:[email protected]

隱私協議

此文件由 AI 從中文翻譯而來,尚未經過審閱。

隱私協議

歡迎使用 Cherry Studio(以下簡稱「本軟體」或「我們」)。我們高度重視您的隱私保護,本隱私協議將說明我們如何處理與保護您的個人信息和數據。請在使用本軟體前仔細閱讀並理解本協議:

一、我們收集的信息範圍

為了優化用戶體驗和提升軟體質量,我們僅可能會匿名收集以下非個人化信息:

• 軟體版本信息;

• 軟體功能的活躍度、使用頻次;

• 匿名的崩潰、錯誤日誌信息;

上述信息完全匿名,不會涉及任何個人身份數據,也無法關聯到您的個人信息。

二、我們不會收集的任何信息

為了最大限度保護您的隱私安全,我們明確承諾:

• 不會收集、保存、傳輸或處理您輸入到本軟體中的模型服務 API Key 信息;

• 不會收集、保存、傳輸或處理您在使用本軟體過程中產生的任何對話數據,包括但不限於聊天內容、指令信息、知識庫信息、向量數據及其他自定義內容;

• 不會收集、保存、傳輸或處理任何可識別個人身份的敏感信息。

三、數據交互說明

本軟體採用您自行申請並配置的第三方模型服務提供商的 API Key,以完成相關模型的調用與對話功能。您使用的模型服務(例如大模型、API 接口等)由您選擇的第三方提供商提供並完全由其負責,Cherry Studio 僅作為本地工具提供與第三方模型服務的接口調用功能。

因此:

• 所有您與大模型服務產生的對話數據與 Cherry Studio 無關,我們既不參與數據的存儲,也不會進行任何形式的數據傳輸或中轉;

• 您需要自行查看並接受對應第三方模型服務提供商的隱私協議及相關政策,這些服務的隱私協議可訪問各提供商官方網站進行查看。

四、第三方模型服務提供商隱私策略聲明

您需自行承擔因使用第三方模型服務提供商而可能涉及的隱私風險。具體隱私政策、數據安全措施與相關責任,請查閱所選模型服務提供商官方網站相關內容,我們對此不承擔任何責任。

五、協議更新與修改

本協議可能隨軟體版本更新進行適當調整,請您定期關注。協議發生實質性變更時,我們將以適當方式提醒您。

六、聯繫我們

若您對本協議內容或 Cherry Studio 隱私保護措施存在任何疑問,歡迎隨時聯繫我們。

感謝您選擇並信任 Cherry Studio,我們將持續為您提供安全可靠的產品體驗。

文件
uv
bun
https://github.com/oven-sh/bun/releases
https://github.com/astral-sh/uv/releases
bin 目錄
開啟官方網站
Edge 瀏覽器正在下載
Edge 下載列表
軟體安裝介面

翻譯

此文件由 AI 從中文翻譯而來,尚未經過審閱。

翻譯

Cherry Studio 的翻譯功能為您提供快速、準確的文字翻譯服務,支援多種語言之間的相互翻譯。

介面概覽

翻譯介面主要由以下幾個部分組成:

  1. 來源語言選擇區:

    • 任意語言:Cherry Studio 會自動識別來源語言並進行翻譯。

  2. 目標語言選擇區:

    • 下拉選單:選擇您希望將文字翻譯成的語言。

  3. 設定按鈕:

    • 點擊後將跳轉到 預設模型設定。

  4. 捲動同步:

    • 點擊可以切換捲動同步(在任何一邊進行捲動,另一邊也會一起捲動)。

  5. 文字輸入框(左側):

    • 輸入或貼上您需要翻譯的文字。

  6. 翻譯結果框(右側):

    • 顯示翻譯後的文字。

    • 複製按鈕:點擊按鈕可將翻譯結果複製到剪貼簿。

  7. 翻譯按鈕:

    • 點擊此按鈕開始翻譯。

  8. 翻譯記錄(左上角):

    • 點擊後可以檢視翻譯歷史記錄。

使用步驟

  1. 選擇目標語言:

    • 在目標語言選擇區選擇您希望翻譯成的語言。

  2. 輸入或貼上文字:

    • 在左側的文字輸入框中輸入或貼上您要翻譯的文字。

  3. 開始翻譯:

    • 點擊 翻譯 按鈕。

  4. 檢視和複製結果:

    • 翻譯結果將顯示在右側的翻譯結果框中。

    • 點擊複製按鈕即可將翻譯結果複製到剪貼簿。

常見問題解答 (FAQ)

  • Q: 翻譯不準確怎麼辦?

    • A: AI 翻譯雖然強大,但並非完美。對於專業領域或複雜語境的文字,建議進行人工校對。您也可以嘗試切換不同的模型。

  • Q: 支援哪些語言?

    • A: Cherry Studio 翻譯功能支援多種主流語言,具體支援的語言清單請參考 Cherry Studio 的官方網站或應用程式內說明。

  • Q: 可以翻譯整個檔案嗎?

    • A: 目前的介面主要用於文字翻譯。對於檔案翻譯,可能需要進入 Cherry Studio 的對話頁面新增檔案進行翻譯。

  • Q: 翻譯速度慢怎麼辦?

    • A: 翻譯速度可能受網路連線、文字長度、伺服器負載等因素影響。請確保您的網路連線穩定,並耐心等待。

字節跳動(豆包)

此文件由 AI 從中文翻譯而來,尚未經過審閱。

字節跳動(豆包)

  • 登入 火山引擎

  • 直接點擊 這裡直達

取得 API Key

  • 點擊側邊欄下方的 API Key 管理

  • 建立 API Key

  • 建立成功後,點擊已建立 API Key 後的眼睛圖示開啟並複製

  • 將複製的 API Key 填入 Cherry Studio 後,開啟服務商開關

開通並新增模型

  • 在方舟控制台側邊欄最下方的 開通管理 開通需要使用的模型,可依需求開通豆包系列和 DeepSeek 等模型

  • 在 模型列表文件 中,找到所需模型對應的 模型ID

  • 開啟 Cherry Studio 的 模型服務 設定找到火山引擎

  • 點擊新增,將取得的 模型ID 複製至 模型ID 文字輸入框

  • 依此流程逐一新增模型

API 地址

API 地址有兩種寫法:

  • 第一種為客戶端預設的:https://ark.cn-beijing.volces.com/api/v3/

  • 第二種寫法為:https://ark.cn-beijing.volces.com/api/v3/chat/completions#

兩種寫法無實質區別,保持預設即可,無需修改。

關於結尾 / 和 # 的差異,請參考文件服務商設定的 API 地址部分,點擊前往

官方文件 cURL 範例

Tavily 聯網登入註冊教程

如何注册tavily?

此文件由 AI 從中文翻譯而來,尚未經過審閱。

tavily聯網登入註冊教程

一、tavily官網

https://app.tavily.com/home

有的同學訪問可能比較慢,如果有代理,可以使用代理。

二、tavily註冊詳細步驟

訪問上述官網,或者從cherry studio-設定-網路搜尋-點擊取得秘鑰,會直接跳轉到tavily登入註冊頁面。

如果是第一次使用,要先註冊一個(Sign up)帳號,才能登入(Log in)使用。預設跳轉的是登入頁面哦。

  1. 點擊註冊帳號,進入下面的界面,輸入自己的常用信箱,或者使用谷歌、github帳號,然後下一步輸入密碼,常規操作。

註冊帳號
  1. 🚨🚨🚨【關鍵步驟】 註冊成功後,會有一個動態驗證碼的步驟,需要掃描二維碼,產生一次性Code才能繼續使用。

很多同學卡在這一步,人麻了....莫慌

很簡單,此時你有2個辦法。

  1. 下載一個驗證身份的APP,微軟出的—— Authenticator 【略微繁瑣】

  2. 使用微信小程式:騰訊身份驗證器 。【簡單,有手就行,建議】

  1. 開啟微信小程式,搜尋:騰訊身份驗證器

微信小程式-搜尋-點擊開啟
點擊後,掃描剛才tavily頁面的二維碼
你會得到一串數字
複製到tavily頁面
會提示你複製code到安全的地方,聽勸照做,雖然不咋會用上

三、🎉註冊成功🎉

上面的步驟做完,就會進入下面的界面,說明你註冊成功了,複製key到cherry studio就可以開始愉快使用了。

矽基流動

此文件由 AI 從中文翻譯而來,尚未經過審閱。

矽基流動

1. 配置 SiliconCloud 的模型服務

​1.2 點擊左下角的設定,在模型服務中選擇【矽基流動】

​1.2 點擊連結取得 SiliconCloud API 金鑰

  1. 登入SiliconCloud(若未註冊首次登入會自動註冊帳號)

  2. 訪問API 金鑰新增或複製已有金鑰

​1.3 點擊管理新增模型

​2. 模型服務使用

  1. 點擊左側選單欄的「對話」按鈕

  2. 在輸入框內輸入文字即可開始聊天

  3. 可以選擇頂端選單中的模型名稱切換模型

NewAPI

此文件由 AI 從中文翻譯而來,尚未經過審閱。

NewAPI

  • 登入並開啟令牌頁面

  • 點擊添加令牌

  • 輸入令牌名稱後點擊提交(其他設定如有需要可自行設定)

  • 開啟CherryStudio的服務商設定點擊服務商列表最下方的添加

  • 輸入備註名稱,提供商選OpenAI,點擊確定

  • 填入剛剛複製的key

  • 回到獲取API Key的頁面,在對應瀏覽器地址欄複製根地址,例:

只需要複製https://xxx.xxx.com即可,“/”及其之後的內容不需要
  • 當地址為IP+端口時填http://IP:端口即可,如:http://127.0.0.1:3000

  • 嚴格區分http和https,如果沒有開啟SSL就不要填https

  • 添加模型(點擊管理自動獲取或手動輸入)開啟右上角開關即可使用。

OpenAI

此文件由 AI 從中文翻譯而來,尚未經過審閱。

OpenAI

取得API Key

  • 在官方 API Key頁面 點擊 + Create new secret key

  • 複製生成的key,並開啟CherryStudio的服務商設置

  • 找到OpenAI服務商,貼上剛取得的key

  • 點擊最下方的管理或添加按鈕,加入支援的模型並開啟右上角服務商開關即可使用

  • 中國除台灣之外的地區無法直接使用OpenAI服務,需自行解決代理問題;

  • 需確保帳戶內有餘額


翻譯要點說明:

  1. 專有名詞保留

    • API Key、OpenAI、Create new secret key 等專有名詞維持原文

    • CherryStudio 服務名稱未翻譯

  2. 技術指令保留 按鈕代碼 <mark style="background-color:green;">+ Create new secret key</mark> 完整保留

  3. 連結與路徑維持

    • 所有超連結 [API Key頁面](...) 和圖檔路徑 src="../../.gitbook/..." 均未修改

    • 特殊連結 (broken-reference) 保持原始標注

  4. 提示框結構保留 `

` 區塊內容翻譯時維持原結構: - 「中國除台灣之外」精準表達地理限制 - 「需確保帳戶內有餘額」強調使用前提

  1. UI元素完整複製 圖示註解 <figcaption></figcaption> 等空白標籤結構完全保留

  2. 行動指令直譯 「點擊」、「開啟」、「複製」等操作動詞採用繁體中文慣用技術術語

  3. 技術語境調整 將「需要有餘額」轉換為商務技術文件常用表述「需確保帳戶內有餘額」

知識庫文件預處理

此文件由 AI 從中文翻譯而來,尚未經過審閱。

知識庫文件預處理 需要將 Cherry Studio 升級至 v1.4.8 或更高版本。

配置OCR服務商

點擊獲取API KEY後會在瀏覽器打開申請地址,點擊立即申請填寫表單後獲取API KEY,並將其填入API KEY中。

配置知識庫文件預處理

在創建好的知識庫中進行如上配置,即可完成知識庫文件預處理配置。

上傳文件

可以通過右上角搜索對知識庫結果檢測

在對話中使用

知識庫使用Tips: 使用能力較強的模型時可以將知識庫搜索模式修改為意圖識別,意圖識別可以更準確、廣泛的描述您的問題。

開啟知識庫意圖識別

顯示設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

顯示設定

在此頁面你可以設定軟體的顏色主題、頁面佈局或者 自訂 CSS 來進行一些個人化的設定。

主題選擇

你可以在這裡設定預設的介面顏色模式(淺色模式、深色模式或跟隨系統)

話題設定

此設定是針對對話介面佈局的設定。

話題位置

自動切換到話題

當開啟此設定時,點擊助手名稱頁面會自動切換到對應話題頁面。

顯示話題時間

開啟時會在話題下方顯示話題 建立 的時間。

自訂 CSS

透過此設定可靈活地對介面進行個人化變更和設定。具體方法參考進階教學中的 自訂 CSS。

模型服務設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

服務商設定

目前頁面僅用於介紹介面功能,設定教學可參考基礎教學中的 教學。

  • 使用內建服務商時,只需填寫對應的祕鑰即可。

  • 不同服務商對祕鑰的稱呼可能有所不同,祕鑰、Key、API Key、令牌等均指同一種憑證。

API 祕鑰

在 Cherry Studio 中,單一服務商支援多 Key 輪詢使用,輪詢方式為從前到後依序循環。

  • 多組 Key 需以英文逗號分隔新增。如下方範例:

必須使用 英文 逗號。

API 網址

使用內建服務商時通常不需填寫 API 網址,如需要修改請嚴格按照對應官方文件提供的網址填寫。

若服務商提供 https://xxx.xxx.com/v1/chat/completions 格式的網址,只需填寫根網址部分(https://xxx.xxx.com)。

Cherry Studio 會自動拼接剩餘路徑(/v1/chat/completions),未按要求填寫可能導致功能異常。

說明:大多數服務商的大型語言模型路由是統一的,通常不需以下操作。若服務商 API 路徑為 v2、v3/chat/completions 或其他版本,請在網址欄手動輸入對應版本並以"/"結尾;當服務商請求路由非常規的/v1/chat/completions時,請使用服務商提供的完整網址,並以 #結尾。

即:

  • API 網址以 / 結尾時,只拼接"chat/completions"

  • API 網址以 # 結尾時,不執行拼接操作,直接使用輸入的網址。

新增模型

通常點擊服務商設定頁面左下角的 管理 按鈕,系統會自動取得該服務商所有可調用模型,從列表中點擊 + 按鈕即可新增至模型清單。

點擊管理按鈕時,彈出視窗中的模型不會全部自動新增,需點擊模型右側的 + 按鈕新增至服務商設定頁面的模型清單後,才會出現在模型選擇清單中。

連線檢查

點擊 API 祕鑰輸入框後方的檢查按鈕,即可測試設定是否成功。

模型檢查預設使用已新增模型清單中的最後一個對話模型。若檢查失敗,請確認模型清單中是否有錯誤或不支援的模型。

設定完成後務必開啟右上角的開關,否則該服務商仍處於未啟用狀態,無法在模型清單中找到對應模型。

WebDAV 備份

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Cherry Studio 資料備份支援透過 WebDAV 的方式進行備份。你可以選擇合適的 WebDAV 服務來進行雲端備份。

基於 WebDAV 可以通過 A電腦 WebDAV B電腦 的方式來實現多端資料同步。

以堅果雲為例

  1. 登入堅果雲,點擊右上角使用者名稱,選擇「帳戶資訊」:

  1. 選擇「安全選項」,點擊「新增應用」

  1. 輸入應用名稱,生成隨機密碼;

  1. 複製記錄密碼;

  1. 取得伺服器地址、帳戶和密碼;

  1. 在 Cherry Studio 設定——資料設定中,填寫 WebDAV 資訊;

  1. 選擇備份或者恢復資料,並可以設定自動備份的時間週期。

WebDAV 服務門檻較低的通常是網盤:

  • (需要會員)

  • (需要購買)

  • (免費空間容量為 10GB,單個檔案大小限制為 250MB。)

  • (Dropbox 免費 2GB,可以邀請好友擴容 16GB 。)

  • (免費空間為 10GB,透過邀請可獲得 5GB 額外空間。)

  • (免費使用者提供 10GB 容量。)

其次是需自行部署的服務:

華為雲

此文件由 AI 從中文翻譯而來,尚未經過審閱。

華為雲

一、前往建立帳號登入

二、點擊,進入ModelArts控制台

三、授權

授權步驟(已授權可跳過)
  1. 進入(二)的連結頁面後,根據提示進入授權頁面(點擊IAM子用戶→新增委託→普通用戶)

  1. 點擊建立後重新返回(二)處連結頁面

  2. 會提示訪問權限不足,點擊提示裡的"點擊此處"

  3. 追加已有授權並確認

注意:該方法適用於新手,不用看過多內容,只需根據提示點擊,若可一次性授權成功則按自己方式操作即可。

四、點擊側欄鑒權管理,建立API Key(密鑰)並複製

然後在CherryStudio裡建立新服務商

建立完成後填入密鑰

五、點擊側欄模型部署,全部領取

六、點擊呼叫

把①處的地址複製,貼上到CherryStudio的服務商地址中並在結尾加上「#」號

並在結尾加上「#」號

並在結尾加上「#」號

並在結尾加上「#」號

並在結尾加上「#」號

為什麼加「#」號

當然也可不看那裡,直接按照教程操作即可;

也可使用刪除v1/chat/completions的方法填寫,只要會填按自己方式怎麼填都行,不會填務必按照教程操作。

然後把②處模型名稱複製,到CherryStudio中點「+添加」按鈕新建模型

輸入模型名稱,不要自行增減內容,不帶引號,示例怎麼寫就怎麼抄。

點擊添加模型按鈕即可完成。

在華為雲中因每個模型的地址不同,所以每個模型都需要新建服務商,按照以上步驟重複操作即可。

自動安裝 MCP

此文件由 AI 從中文翻譯而來,尚未經過審閱。

自動安裝 MCP

自動安裝 MCP 需要將 Cherry Studio 升級至 v1.1.18 或更高版本。

功能簡介

除了手動安裝外,Cherry Studio 還內建了 @mcpmarket/mcp-auto-install 工具,這是一個更便捷的 MCP 伺服器安裝方式。你只需要在支援 MCP 服務的大型模型對話中輸入相應的指令即可。

測試階段提醒:

  • @mcpmarket/mcp-auto-install 目前仍處於測試階段

  • 效果依賴大型模型的「智商」,有些會自動添加,有些還是需要在 MCP 設定中再手動更改某些參數

  • 目前搜尋來源是從 @modelcontextprotocol 中進行搜尋,可以自行設定(下方說明)

使用說明

例如,你可以輸入:

系統會自動識別你的需求,並透過 @mcpmarket/mcp-auto-install 完成安裝。這個工具支援多種類型的 MCP 伺服器,包括但不限於:

  • filesystem(檔案系統)

  • fetch(網路請求)

  • sqlite(資料庫)

  • 等等...

MCP_PACKAGE_SCOPES 變數可以自訂 MCP 服務搜尋來源,預設值為:@modelcontextprotocol,可以自訂設定。

@mcpmarket/mcp-auto-install 函式庫的介紹

預設設定參考:

@mcpmarket/mcp-auto-install 是一個開源的 npm 套件,你可以在 查看其詳細資訊和使用文件。@mcpmarket 為 Cherry Studio 官方 MCP 服務集合。

→備份\xrightarrow{\text{備份}}備份​
→恢復\xrightarrow{\text{恢復}}恢復​
堅果雲
123 盤
阿里雲盤
Box
Dropbox
TeraCloud
Yandex Disk
Alist
Cloudreve
sharelist
華為雲
此連結
看這裡
幫我安裝一個 filesystem mcp server
// `axun-uUpaWEdMEMU8C61K` 為服務id,自訂即可
"axun-uUpaWEdMEMU8C61K": {
  "name": "mcp-auto-install",
  "description": "Automatically install MCP services (Beta version)",
  "isActive": false,
  "registryUrl": "https://registry.npmmirror.com",
  "command": "npx",
  "args": [
    "-y",
    "@mcpmarket/mcp-auto-install",
    "connect",
    "--json"
  ],
  "env": {
    "MCP_REGISTRY_PATH": "详情见https://www.npmjs.com/package/@mcpmarket/mcp-auto-install"
  },
  "disabledTools": []
}
npm 官方倉庫
輸入指令安裝 MCP 伺服器
MCP 伺服器設定介面
sk-xxxx1,sk-xxxx2,sk-xxxx3,sk-xxxx4
服務商設定
火山引擎模型ID列表示例
Drawing

自訂 CSS

此文件由 AI 從中文翻譯而來,尚未經過審閱。

自訂CSS

透過自訂 CSS 可以修改軟體的外觀更加符合自己的喜好,例如這樣:

自訂 CSS
:root {
  --color-background: #1a462788;
  --color-background-soft: #1a4627aa;
  --color-background-mute: #1a462766;
  --navbar-background: #1a4627;
  --chat-background: #1a4627;
  --chat-background-user: #28b561;
  --chat-background-assistant: #1a462722;
}

#content-container {
  background-color: #2e5d3a !important;
}

內建變數

:root {
  font-family: "汉仪唐美人" !important; /* 字體 */
}

/* 深度思考展開字體顏色 */
.ant-collapse-content-box .markdown {
  color: red;
}

/* 主題變數 */
:root {
  --color-black-soft: #2a2b2a; /* 深色背景色 */
  --color-white-soft: #f8f7f2; /* 淺色背景色 */
}

/* 深色主題 */
body[theme-mode="dark"] {
  /* 顏色 */
  --color-background: #2b2b2b; /* 深色背景色 */
  --color-background-soft: #303030; /* 淺色背景色 */
  --color-background-mute: #282c34; /* 中性背景色 */
  --navbar-background: var(-–color-black-soft); /* 導覽列背景色 */
  --chat-background: var(–-color-black-soft); /* 聊天背景色 */
  --chat-background-user: #323332; /* 使用者聊天背景色 */
  --chat-background-assistant: #2d2e2d; /* 助手聊天背景色 */
}

/* 深色主題特定樣式 */
body[theme-mode="dark"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* 內容容器背景色 */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* 訊息背景色 */
  }

  .inputbar-container {
    background-color: #3d3d3a; /* 輸入框背景色 */
    border: 1px solid #5e5d5940; /* 輸入框邊框顏色 */
    border-radius: 8px; /* 輸入框邊框圓角 */
  }

  /* 程式碼樣式 */
  code {
    background-color: #e5e5e20d; /* 程式碼背景色 */
    color: #ea928a; /* 程式碼文字顏色 */
  }

  pre code {
    color: #abb2bf; /* 預格式化程式碼文字顏色 */
  }
}

/* 淺色主題 */
body[theme-mode="light"] {
  /* 顏色 */
  --color-white: #ffffff; /* 白色 */
  --color-background: #ebe8e2; /* 淺色背景色 */
  --color-background-soft: #cbc7be; /* 淺色背景色 */
  --color-background-mute: #e4e1d7; /* 中性背景色  */
  --navbar-background: var(-–color-white-soft); /* 導覽列背景色 */
  --chat-background: var(-–color-white-soft); /* 聊天背景色 */
  --chat-background-user: #f8f7f2; /* 使用者聊天背景色 */
  --chat-background-assistant: #f6f4ec; /* 助手聊天背景色 */
}

/* 淺色主題特定樣式 */
body[theme-mode="light"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* 內容容器背景色 */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* 訊息背景色 */
  }

  .inputbar-container {
    background-color: #ffffff; /* 輸入框背景色 */
    border: 1px solid #87867f40; /* 輸入框邊框顏色 */
    border-radius: 8px; /* 輸入框邊框圓角,修改為您喜歡的大小 */
  }

  /* 程式碼樣式 */
  code {
    background-color: #3d39290d; /* 程式碼背景色 */
    color: #7c1b13; /* 程式碼文字顏色 */
  }

  pre code {
    color: #000000; /* 預格式化程式碼文字顏色 */
  }
}

更多主題變數請參考原始碼:https://github.com/CherryHQ/cherry-studio/tree/main/src/renderer/src/assets/styles

相關推薦

Cherry Studio 主題庫: https://github.com/boilcy/cherrycss

分享一些中國風 Cherry Studio 主題皮膚: https://linux.do/t/topic/325119/129

聯網模式

如何在 Cherry Studio 使用联网模式

此文件由 AI 從中文翻譯而來,尚未經過審閱。

連網模式

需要連網的場景舉例:

  • 時效性訊息:比如今天/本週/剛剛 黃金期貨價格等。

  • 即時數據:比如天氣,匯率等動態數值。

  • 新興知識:比如新事物,新概念,新技術等等...

一、如何開啟連網

在 Cherry Studio 的提問視窗,點擊 【小地球】 圖示即可開啟連網。

點擊地球圖示 - 開啟連網
表示 - 已開啟連網功能

二、特別注意:連網有兩種模式

模式1:模型服務商的大模型自帶連網功能

這種情況下,開啟連網後,直接就可以使用連網服務了,非常簡單。

可以透過問答介面上方,模型名字後面是否帶有小地圖標記,迅速判斷該模型是否支援連網。

在模型管理頁面,這個方法也可以讓你快速分辨出哪些模型支援連網,哪些不支援。

Cherry Studio 目前已支援的連網模型服務商有

  • Google Gemini

  • OpenRouter(全部模型支援連網)

  • 騰訊混元

  • 智譜AI

  • 阿里雲百煉等

特別注意:

存在一種特殊的情況,即便模型上沒帶小地球標記,但是它也能實現連網,比如下面這個攻略教學解釋的情況。


模式2:模型不帶連網功能,使用 Tavily服務 實現連網功能

當我們使用一個不帶連網功能的大模型時(名字後面沒有小地球圖示),而我們又需要它獲取一些即時性的訊息進行處理,此時就需要用到Tavily網絡搜尋服務。

初次使用Tavily服務,會彈窗提示去設定一些資訊,請根據指引操作即可-非常簡單!

彈窗,點擊:去設定
點擊獲取密鑰

點擊獲取密鑰後,會自動跳轉到tavily的官網登入註冊頁面,註冊並登入後,建立APIkey,然後複製key到Cherry Studio即可。

不會註冊,參考本文檔同目錄下tavily連網登入註冊教學。

tavily註冊參考文件:

顯示下面的介面表示註冊成功。

複製key
貼上key,大功告成

再來試一次看看效果。結果表明,已經正常連網搜尋了,並且搜尋結果數是我們設定的預設值:5個。

注意:tavily 每個月有免費限制,超過了要付費~~

PS:如果發現錯誤,歡迎大家隨時聯絡。

知識庫教程

此文件由 AI 從中文翻譯而來,尚未經過審閱。

知識庫教程

在 0.9.1 版本中,CherryStudio 帶來了期待已久的知識庫功能。

下面我們將按步驟呈現 CherryStudio 的詳細使用說明。

添加嵌入模型

  1. 在模型管理服務中查找模型,可以點擊「嵌入模型」快速篩選;

  2. 找到需要的模型,添加到我的模型。

創建知識庫

  1. 知識庫入口:在 CherryStudio 左側工具欄,點擊知識庫圖標,即可進入管理頁面;

  2. 添加知識庫:點擊添加,開始創建知識庫;

  3. 命名:輸入知識庫的名稱並添加嵌入模型,以 bge-m3 為例,即可完成創建。

添加文件並向量化

  1. 添加文件:點擊添加文件的按鈕,打開文件選擇;

  2. 選擇文件:選擇支援的文件格式,如 pdf,docx,pptx,xlsx,txt,md,mdx 等,並打開;

  3. 向量化:系統會自動進行向量化處理,當顯示完成時(綠色 ✓),代表向量化已完成。

添加多種來源的數據

CherryStudio 支援多種添加數據的方式:

  1. 文件夾目錄:可以添加整個文件夾目錄,該目錄下支援格式的文件會被自動向量化;

  2. 網址連結:支援網址 url,如https://docs.siliconflow.cn/introduction;

  3. 站點地圖:支援 xml 格式的站點地圖,如https://docs.siliconflow.cn/sitemap.xml;

  4. 純文本筆記:支援輸入純文本的自定義內容。

提示:

  1. 導入知識庫的文檔中的插圖暫不支援轉換為向量,需要手動轉換為文本;

  2. 使用網址作為知識庫來源時不一定會成功,有些網站有比較嚴格的反扒機制(或需要登入、授權等),因此該方式不一定能獲取到準確內容。創建完成後建議先搜索測試一下。

  3. 一般網站都會提供sitemap,如CherryStudio的sitemap,一般在網站的根地址(即網址)後加/sitemap.xml可以獲取到相關資訊。如aaa.com/sitemap.xml 。

  4. 如果網站沒提供sitemap或者網址比較雜可自行組合一個sitemap的xml文件使用,文件暫時需要使用公網可直接訪問的直鏈的方式填入,本地文件連結不會被識別。

  1. 可以讓AI生成sitemap文件或讓AI寫一個sitemap的HTML生成器工具;

  2. 直鏈可以使用oss直鏈或者網盤直鏈等方式來生成。如果沒有現成工具也可到ocoolAI官網,登入後使用網站頂欄的免費文件上傳工具來生成直鏈。

搜索知識庫

當文件等資料向量化完成後,即可進行查詢:

  1. 點擊頁面下方的搜索知識庫按鈕;

  2. 輸入查詢的內容;

  3. 呈現搜索的結果;

  4. 並顯示該條結果的匹配分數。

對話中引用知識庫生成回覆

  1. 創建一個新的話題,在對話工具欄中,點擊知識庫,會展開已經創建的知識庫列表,選擇需要引用的知識庫;

  2. 輸入並發送問題,模型即返回通過檢索結果生成的答案;

  3. 同時,引用的數據來源會附在答案下方,可快捷查看源文件。

PPIO 派歐雲

此文件由 AI 從中文翻譯而來,尚未經過審閱。

PPIO 派歐雲

Cherry Studio 接入 PPIO LLM API

​教學概述

Cherry Studio 是一款多模型桌面客戶端,目前支援:Windows、Linux、MacOS 系列電腦安裝包。它聚合主流 LLM 模型,提供多場景輔助。使用者可透過智慧會話管理、開源訂製、多主題介面來提升工作效率。

Cherry Studio 現已與 PPIO 高效能 API 通道深度適配——透過企業級算力保障,實現 DeepSeek-R1/V3 高速響應 與 99.9% 服務可用性,帶給您快速流暢的體驗。

下方教學包含完整接入方案(含金鑰配置),3 分鐘開啟「Cherry Studio 智慧調度 + PPIO 高效能 API」的進階模式。

​1. 進入 CherryStudio,添加 "PPIO" 作為模型提供商

首先前往官網下載 Cherry Studio:https://cherry-ai.com/download (如果進不去可以開啟下方的夸克網盤連結下載需要的版本:https://pan.quark.cn/s/c8533a1ec63e#/list/share

(1)先點選左下角設定,自訂提供商名稱為:PPIO,點選「確定」

(2)前往 派歐算力雲 API 金鑰管理,點選【使用者頭像】—【API 金鑰管理】進入控制檯

點選【+ 建立】按鈕來建立新的 API 金鑰。自訂一個金鑰名稱,產生的金鑰僅在產生時呈現,務必複製並儲存到文件中,以免影響後續使用

(3)在 CherryStudio 填入金鑰 點選設定,選擇【PPIO 派歐雲】,輸入官網產生的 API 金鑰,最後點選【檢查】

(4)選擇模型:以 deepseek/deepseek-r1/community 為例,如需更換其他模型,可直接更換。

DeepSeek R1 和 V3 community 版本僅供大家嘗鮮,也是全參數滿血版模型,穩定性和效果無差異,如需大量呼叫則須 充值並切換到非 community 版本。

​2. 模型使用配置

(1)點選【檢查】顯示連線成功後即可正常使用

(2)最後點選【@】選擇 PPIO 供應商下剛剛新增的 DeepSeek R1 模型,即可成功開始聊天~

【部分素材來源:陳恩】

​3. PPIO×Cherry Studio 影片使用教學

若您更傾向直觀學習,我們在 B 站準備了影片教學。透過手把手教學,助您快速掌握「PPIO API+Cherry Studio」的配置方法,點選下方連結直達影片,開啟流暢開發體驗 → 《【還在為 DeepSeek 瘋狂轉圈抓狂?】派歐雲+DeepSeek 滿血版 =?不再擁堵,即刻起飛》

【影片素材來源:sola】

Notion 配置教程

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Notion 配置教學

Cherry Studio 支援將話題導入 Notion 的數據庫。

第一步

開啟網站 Notion Integrations 建立應用程式

點擊加號建立應用程式

第二步

建立應用程式

填寫應用程式資訊

名稱:Cherry Studio

類型:選擇第一個

圖示:可以保存此圖片

第三步

複製金鑰並填寫到 Cherry Studio 設定中

點擊複製金鑰
將金鑰填寫到數據設定中

第四步

開啟 Notion 網站建立新頁面,在下方選擇數據庫類型,名稱填寫 Cherry Studio,按照圖示操作連接

建立新頁面選擇數據庫類型
輸入頁面名稱,並選擇連接到 APP

第五步

複製數據庫 ID

若您的 Notion 數據庫 URL 類似:

https://www.notion.so/<long_hash_1>?v=<long_hash_2>

則 Notion 數據庫 ID 就是 <long_hash_1> 部分

填寫數據庫 ID 並點擊檢查

第六步

填寫 頁面標題欄位名稱:

若網頁顯示英文,填寫 Name 若網頁顯示中文,填寫 名稱

填寫頁面標題欄位名稱

第七步

恭喜!Notion 配置已完成 ✅ 接下來可將 Cherry Studio 內容匯出到您的 Notion 數據庫

匯出到 Notion
查看匯出結果

專案簡介

此文件由 AI 從中文翻譯而來,尚未經過審閱。

關注我們的社群帳號:推特(X)、小紅書、微博、嗶哩嗶哩、抖音

加入我們的社群:QQ群(575014769)、Telegram、Discord、微信群(點擊查看)


Cherry Studio 是一款集多模型對話、知識庫管理、AI 繪畫、翻譯等功能於一體的全能 AI 助手平台。 Cherry Studio 高度自訂的設計、強大的擴充能力和友善的使用者體驗,使其成為專業使用者和 AI 愛好者的理想選擇。無論是零基礎使用者還是開發者,都能在 Cherry Studio 中找到適合自己的 AI 功能,提升工作效率和創造力。


核心功能與特色

1. 基礎對話功能

  • 一問多答:支援同一問題透過多個模型同時生成回覆,方便使用者對比不同模型的表現,詳見 對話介面。

  • 自動分組:每個助手的對話記錄會自動分組管理,便於使用者快速查找歷史對話。

  • 對話匯出:支援將完整對話或部分對話匯出為多種格式(如 Markdown、Word 等),方便儲存與分享。

  • 高度自訂參數:除了基礎參數調整外,還支援使用者填寫自訂參數,滿足個性化需求。

  • 助手市集:內建千餘個行業專用助手,涵蓋翻譯、程式設計、寫作等領域,同時支援使用者自訂助手。

  • 多種格式渲染:支援 Markdown 渲染、公式渲染、HTML 即時預覽等功能,提升內容展示效果。

2. 多種特色功能整合

  • AI 繪畫:提供專用繪畫面板,使用者可透過自然語言描述產生高品質影像。

  • AI 小程式:整合多種免費 Web 端 AI 工具,無需切換瀏覽器即可直接使用。

  • 翻譯功能:支援專用翻譯面板、對話翻譯、提示詞翻譯等多種翻譯場景。

  • 檔案管理:對話、繪畫和知識庫中的檔案統一分類管理,避免繁瑣查找。

  • 全域搜尋:支援快速定位歷史記錄和知識庫內容,提升工作效率。

3. 多服務商統一管理機制

  • 服務商模型聚合:支援 OpenAI、Gemini、Anthropic、Azure 等主流服務商的模型統一呼叫。

  • 模型自動取得:一鍵取得完整模型列表,無需手動設定。

  • 多密鑰輪詢:支援多個 API 密鑰輪換使用,避免速率限制問題。

  • 精準頭像匹配:為每個模型自動匹配專屬頭像,提升辨識度。

  • 自訂服務商:支援符合 OpenAI、Gemini 、Anthropic 等規範的三方服務商接入,相容性強。

4. 高度自訂介面和佈局

  • 自訂 CSS:支援全域樣式自訂,打造專屬介面風格。

  • 自訂對話佈局:支援清單或氣泡樣式佈局,並可自訂訊息樣式(如程式碼片段樣式)。

  • 自訂頭像:支援為軟體和助手設定個性化頭像。

  • 自訂側邊欄選單:使用者可根據需求隱藏或排序側邊欄功能,最佳化使用體驗。

5. 本機知識庫系統

  • 多種格式支援:支援 PDF、DOCX、PPTX、XLSX、TXT、MD 等多種檔案格式匯入。

  • 多種資料源支援:支援本地檔案、網址、網站地圖甚至手動輸入內容作為知識庫源。

  • 知識庫匯出:支援將處理好的知識庫匯出並分享給他人使用。

  • 支援搜尋檢查:知識庫匯入後,使用者可即時檢索測試,查看處理結果和分段效果。

6. 特色聚焦功能

  • 快捷問答:在任何場景(如微信、瀏覽器)中呼出快捷助手,快速獲取答案。

  • 快捷翻譯:支援快速翻譯其他場景中的詞彙或文字。

  • 內容總結:對長文字內容進行快速總結,提升資訊提取效率。

  • 解釋說明:無需複雜提示詞,一鍵解釋說明不懂的問題。

7. 資料保障

  • 多種備份方案:支援本地備份、WebDAV 備份和定時備份,確保資料安全。

  • 資料安全:支援全本地場景使用,結合本地大模型,避免資料洩漏風險。


專案優勢

  1. 新手友善:Cherry Studio 致力於降低技術門檻,零基礎使用者也能快速上手,讓使用者專注於工作、學習或者創作。

  2. 文件完善:提供詳細的使用文件和常見問題處理手冊,幫助使用者快速解決問題。

  3. 持續迭代:專案團隊積極響應使用者回饋,持續最佳化功能,確保專案健康發展。

  4. 開源與擴充性:支援使用者透過開原始碼進行客製化和擴充,滿足個性化需求。


適用場景

  • 知識管理與查詢:透過本地知識庫功能,快速建構和查詢專屬知識庫,適用於研究、教育等領域。

  • 多模型對話與創作:支援多模型同時對話,幫助使用者快速獲取資訊或產生內容。

  • 翻譯與辦公自動化:內建翻譯助手和檔案處理功能,適合需要跨語言交流或文件處理的使用者。

  • AI 繪畫與設計:透過自然語言描述產生影像,滿足創意設計需求。

Star History

Star History

關注我們的社群帳號

火山引擎接入聯網
Tavily 聯網登入註冊教程

Cherry Studio 商用許可協議

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Cherry Studio 授權協議

使用或分發 Cherry Studio 素材之任何部分或元素,即視為您已認知並接受本協議內容,本協議立即生效。

一. 定義

  1. 本 Cherry Studio 授權協議(以下簡稱「協議」)應指由本協議定義之關於素材使用、複製、分發及修改的條款與條件。

  2. 「我們」(或「我方」)應指 上海千彗科技有限公司。

  3. 「您」(或「貴方」)應指行使本協議授予之權利,及/或為任何目的及於任何使用領域使用素材之自然人或法人實體。

  4. 「第三方」應指與我們或您均無共同控制權之個人或法人實體。

  5. 「Cherry Studio」應指本軟體套件,包含但不限於 [範例:核心庫、編輯器、外掛、範例專案],以及原始碼、文件、範例程式碼與我們分發之上開各項其他元素。(請依據 CherryStudio 實際構成詳述)

  6. 「素材」應統指上海千彗科技有限公司之專有 Cherry Studio 及文件(及其任何部分),依本協議提供。

  7. 「原始」形式應指進行修改之偏好形式,包含但不限於原始碼、文件來源檔案及設定檔。

  8. 「目標」形式應指原始形式經機械轉換或翻譯後產生之任何形式,包含但不限於編譯後目的碼、生成文件及轉換為其他媒體類型之形式。

  9. 「商業用途」指為直接或間接商業利益或商業優勢之目的,包含但不限於銷售、授權、訂閱、廣告、行銷、培訓、諮詢服務等。

  10. 「修改」指對素材原始形式進行任何變更、調整、衍生或二次開發,包含但不限於修改應用名稱、標誌、程式碼、功能、介面等。

二. 權利授予

  1. 免費商業使用(限未修改程式碼):我們依此根據我方擁有或體現於素材中之智慧財產權或其他權利,授予您一項非專屬、全球範圍、不可轉讓、免權利金之授權,以使用、複製、分發、拷貝及分發未經修改之素材,包含商業用途,惟須遵守本協議條款與條件。

  2. 商業授權(必要時):在滿足第三條「商業授權」所述條件時,您需從我方取得明確書面商業授權,方可行使本協議項下之權利。

三. 商業授權

於下列任一情形,您需聯繫我們並取得明確書面商業授權後,方可繼續使用 Cherry Studio 素材:

  1. 修改與衍生:您對 Cherry Studio 素材進行修改或基於其進行衍生開發(包含但不限於修改應用名稱、標誌、程式碼、功能、介面等)。

  2. 企業服務:於您企業內部,或為企業客戶提供基於 Cherry Studio 之服務,且該服務支援 10 人及以上累計使用者。

  3. 硬體綑綁銷售:您將 Cherry Studio 預裝或整合至硬體設備或產品中進行綑綁銷售。

  4. 政府或教育機構大規模採購:您之使用情境屬政府或教育機構大規模採購專案,尤涉及安全、資料隱私等敏感需求時。

  5. 公眾雲端服務:基於 Cherry Studio 提供面向公眾之雲端服務。

四. 再分發

您可以分發未經修改之素材副本,或將其作為包含未修改素材之產品或服務的一部分提供,以原始形式或目標形式分發,但您須滿足下列條件:

  1. 您應向素材之任何其他接收者提供本協議副本;

  2. 您應於分發之所有素材副本中,保留下列署名聲明,並置於此類副本分發之「NOTICE」或類似文字檔內:`"Cherry Studio is licensed under the Cherry Studio LICENSE AGREEMENT, Copyright (c) 上海千彗科技有限公司. All Rights Reserved."` (Cherry Studio 依 Cherry Studio 授權協議取得授權,版權所有 (c) 上海千彗科技有限公司。保留所有權利。)

五. 使用規則

  1. 素材可能受出口管制或限制。您使用素材時應遵守適用法律法規。

  2. 若您使用素材或其任何輸出結果建立、訓練、微調或改進將被分發或提供之軟體或模型,我們鼓勵您於相關產品文件中顯著標示「Built with Cherry Studio」或「Powered by Cherry Studio」。

六. 智慧財產權

  1. 我們保留對素材及由我方或為我方製作之衍生作品所有智慧財產權之所有權。在遵守本協議條款與條件之前提下,對於您製作之素材修改與衍生作品,其智慧財產權歸屬將依具體商業授權協議約定。在未獲商業授權情況下,您對素材之修改與衍生作品不享有所有權,其智慧財產權仍歸屬我方。

  2. 除履行本協議項下通知義務或在描述與再分發素材時合理慣常使用所必需外,未授予使用我方商號、商標、服務標誌或產品名稱之商標授權。

  3. 若您對我方或任何實體提起訴訟或其他法律程序(包含訴訟中之反訴或反請求),主張素材或其任何輸出,或上述任何部分侵害您擁有或可授權之智慧財產權或其他權利,則本協議授予您之一切授權應自該訴訟或法律程序開始或提起之日起終止。

七. 免責聲明與責任限制

  1. 我們無義務支援、更新、提供培訓或開發任何 CherryStudio 素材之新版,亦無義務授予任何相關授權。

  2. 素材依「現狀」提供,不附帶任何明示或暗示保證,包含對適售性、不侵權性或特定用途適用性之保證。對於素材及其任何輸出之安全性或穩定性,我們不作任何保證,亦不承擔任何責任。

  3. 在任何情況下,對於因您使用或無法使用素材或其任何輸出引起之損害(包含但不限於直接、間接、特殊或後續損害),無論其如何引起,我們均不對您承擔責任。

  4. 對於任何第三方因您使用或分發素材引起或與之相關之索賠,您將為我們辯護、賠償並使我們免受損害。

八. 存續與終止

  1. 本協議效期自您接受本協議或存取素材時起算,並將持續有效直至依本協議條款終止。

  2. 若您違反本協議任何條款,我們可終止本協議。協議終止後,您須停止使用素材。第七條、第九條及「二. 貢獻者協議」於本協議終止後持續有效。

九. 適用法律與管轄

  1. 本協議及因本協議引起或與之相關之任何爭議,均受中國法律管轄。

  2. 上海市人民法院對因本協議引起之任何爭議具有專屬管轄權。

預設模型設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

預設模型設定

預設助手模型

當助手未設置預設助手模型時,其新對話當中預設選擇的模型為此處設置的模型。

優化提示詞、劃詞助手使用的也是此處設置的模型。

話題命名模型

每次對話後會調用模型為對話生成一個話題名稱,此處設置的模型為命名時所使用的模型。

翻譯模型

對話、繪畫等輸入框當中的翻譯功能,翻譯介面的翻譯模型都使用的是此處設置的模型。

快捷助手模型

快捷助手功能使用的模型,詳見 快捷助手

個性化設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

個性化設定

小紅書

嗶哩嗶哩

微博

抖音

推特(X)

Cover
Cover
Cover
Cover
Cover

Ollama

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Ollama

Ollama 是一款優秀的開源工具,讓您可以在本地輕鬆執行和管理各種大型語言模型(LLMs)。Cherry Studio 現已支援 Ollama 整合,讓您可以在熟悉的介面中,直接與本地部署的 LLM 進行互動,無需依賴雲端服務!

什麼是 Ollama?

Ollama 是一個簡化大型語言模型(LLM)部署和使用的工具。它具有以下特點:

  • 本地執行: 模型完全在您的本地電腦上執行,無需連網,保護您的隱私和資料安全。

  • 簡單易用: 通過簡單的命令列指令,即可下載、執行和管理各種 LLM。

  • 模型豐富: 支援 Llama 2、Deepseek、Mistral、Gemma 等多種流行的開源模型。

  • 跨平台: 支援 macOS、Windows 和 Linux 系統。

  • 開放API:支援與OpenAI兼容的介面,可以和其他工具整合。

為什麼要在 Cherry Studio 中使用 Ollama?

  • 無需雲端服務: 不再受限於雲端 API 的配額和費用,盡情體驗本地 LLM 的強大功能。

  • 資料隱私: 您的所有對話資料都保留在本地,無需擔心隱私洩露。

  • 離線可用: 即使在沒有網路連線的情況下,也能繼續與 LLM 進行互動。

  • 客製化: 可以根據您的需求,選擇和配置最適合您的 LLM。

在 Cherry Studio 中配置 Ollama

1. 安裝和執行 Ollama

首先,您需要在您的電腦上安裝並執行 Ollama。請按照以下步驟操作:

  • 下載 Ollama: 瀏覽 Ollama 官網(https://ollama.com/),根據您的作業系統下載對應的安裝包。 在 Linux 下,可直接執行命令安裝ollama:

    curl -fsSL https://ollama.com/install.sh | sh
  • 安裝 Ollama: 按照安裝程式的指引完成安裝。

  • 下載模型: 開啟終端機(或命令提示字元),使用 ollama run 指令下載您想要使用的模型。例如,要下載 Llama 2 模型,可以執行:

    ollama run llama3.2

    Ollama 會自動下載並執行該模型。

  • 保持 Ollama 執行: 在您使用 Cherry Studio 與 Ollama 模型互動期間,請確保 Ollama 保持執行狀態。

2. 在 Cherry Studio 中添加 Ollama 服務商

接下來,在 Cherry Studio 中添加 Ollama 作為自訂 AI 服務商:

  • 開啟設定: 在 Cherry Studio 介面左側導覽列中,點擊「設定」(齒輪圖示)。

  • 進入模型服務: 在設定頁面中,選擇「模型服務」選項卡。

  • 添加供應商: 點擊清單中的 Ollama。

3. 配置 Ollama 服務商

在服務商清單中找到剛剛添加的 Ollama,並進行詳細配置:

  1. 啟用狀態:

    • 確保 Ollama 服務商最右側的開關已開啟,表示已啟用。

  2. API 密鑰:

    • Ollama 預設不需要 API 密鑰。您可以將此欄位留空,或者填寫任意內容。

  3. API 地址:

    • 填寫 Ollama 提供的本地 API 地址。通常情況下,地址為:

      http://localhost:11434/

      如果修改了連接埠,請自行更改。

  4. 保持活躍時間: 此選項是設定工作階段的保持時間,單位是分鐘。如果在設定時間內沒有新的對話,Cherry Studio 會自動斷開與 Ollama 的連線,釋放資源。

  5. 模型管理:

    • 點擊「+ 添加」按鈕,手動添加您在 Ollama 中已經下載的模型名稱。

    • 比如您已經通過ollama run llama3.2下載了llama3.2模型, 那麼此處可以填入llama3.2

    • 點擊「管理」按鈕,可以對已添加的模型進行編輯或刪除。

開始使用

完成以上配置後,您就可以在 Cherry Studio 的聊天介面中,選擇 Ollama 服務商和您已下載的模型,開始與本地 LLM 進行對話了!

技巧與提示

  • 首次執行模型: 第一次執行某個模型時,Ollama 需要下載模型檔案,可能需要較長時間,請耐心等待。

  • 檢視可用模型: 在終端機中執行 ollama list 命令,可以檢視您已下載的 Ollama 模型清單。

  • 硬體要求: 執行大型語言模型需要一定的計算資源(CPU、記憶體、GPU),請確保您的電腦配置滿足模型的要求。

  • Ollama 文件: 可以點擊配置頁面中的查看Ollama文件及模型連結快速跳轉至Ollama官網文件。

修改儲存位置

此文件由 AI 從中文翻譯而來,尚未經過審閱。

預設儲存位置

Cherry Studio 資料儲存遵循系統規範,資料會自動放置在使用者目錄下,具體目錄位置如下:

macOS: /Users/username/Library/Application Support/CherryStudioDev

Windows: C:\Users\username\AppData\Roaming\CherryStudio

Linux: /home/username/.config/CherryStudio

也可以在以下位置查看:

修改儲存位置(參考用)

方法一:

可以透過建立軟連結的方式實現。先退出軟體,將資料移動到您希望儲存的位置,然後在原位置建立一個指向新位置的連結即可。

具體操作步驟請參考:https://github.com/CherryHQ/cherry-studio/issues/621#issuecomment-2588652880

方法二: 基於 Electron 應用特性,透過設定啟動參數修改儲存位置。

--user-data-dir 如: Cherry-Studio-*-x64-portable.exe --user-data-dir="%user_data_dir%"

範例:

PS D:\CherryStudio> dir


    目錄: D:\CherryStudio


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:05                user-data-dir
-a----         2025/4/14     23:05       94987175 Cherry-Studio-1.2.4-x64-portable.exe
-a----         2025/4/18     14:05            701 init_cherry_studio.bat

init_cherry_studio.bat (編碼格式: ANSI)

@title CherryStudio 初始化
@echo off

set current_path_dir=%~dp0
@echo 目前路徑:%current_path_dir%
set user_data_dir=%current_path_dir%user-data-dir
@echo CherryStudio 資料路徑:%user_data_dir%

@echo 搜尋目前路徑下的 Cherry-Studio-*-portable.exe
setlocal enabledelayedexpansion

for /f "delims=" %%F in ('dir /b /a-d "Cherry-Studio-*-portable*.exe" 2^>nul') do ( #此程式碼適用於 GitHub 和官網下載版本,其他版本請自行修改
    set "target_file=!cd!\%%F"
    goto :break
)
:break
if defined target_file (
    echo 找到檔案: %target_file%
) else (
    echo 未找到符合檔案,結束腳本執行
    pause
    exit
)

@echo 確認執行請繼續
pause

@echo 啟動 CherryStudio
start %target_file% --user-data-dir="%user_data_dir%"

@echo 操作完成
@echo on
exit

目錄 user-data-dir 初始化後的結構:

PS D:\CherryStudio> dir .\user-data-dir\


    目錄: D:\CherryStudio\user-data-dir


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:29                blob_storage
d-----         2025/4/18     14:07                Cache
d-----         2025/4/18     14:07                Code Cache
d-----         2025/4/18     14:07                Data
d-----         2025/4/18     14:07                DawnGraphiteCache
d-----         2025/4/18     14:07                DawnWebGPUCache
d-----         2025/4/18     14:07                Dictionaries
d-----         2025/4/18     14:07                GPUCache
d-----         2025/4/18     14:07                IndexedDB
d-----         2025/4/18     14:07                Local Storage
d-----         2025/4/18     14:07                logs
d-----         2025/4/18     14:30                Network
d-----         2025/4/18     14:07                Partitions
d-----         2025/4/18     14:29                Session Storage
d-----         2025/4/18     14:07                Shared Dictionary
d-----         2025/4/18     14:07                WebStorage
-a----         2025/4/18     14:07             36 .updaterId
-a----         2025/4/18     14:29             20 config.json
-a----         2025/4/18     14:07            434 Local State
-a----         2025/4/18     14:29             57 Preferences
-a----         2025/4/18     14:09           4096 SharedStorage
-a----         2025/4/18     14:30            140 window-state.json

知識科普

此文件由 AI 從中文翻譯而來,尚未經過審閱。

知識科普

什麼是 tokens?

Tokens 是 AI 模型處理文本的基本單位,可以理解為模型"思考"的最小單元。它不完全等同於我們理解的字符或單詞,而是模型自己的一種特殊的文本分割方式。

1. 中文分詞

  • 一個漢字通常會被編碼為 1-2 個 tokens

  • 例如:"你好" ≈ 2-4 tokens

2. 英文分詞

  • 常見單詞通常是 1 個 token

  • 較長或不常見的單詞會被分解成多個 tokens

  • 例如:

    • "hello" = 1 token

    • "indescribable" = 4 tokens

3. 特殊字符

  • 空格、標點符號等也會佔用 tokens

  • 換行符通常是 1 個 token

不同服務商的 Tokenizer 都不一樣,甚至同服務商不同模型的 Tokenizer 也有所差別,該知識僅用於明確 token 的概念。


什麼是 Tokenizer?

Tokenizer(分詞器)是 AI 模型將文本轉換為 tokens 的工具。它決定了如何把輸入文本切分成模型可以理解的最小單位。

為什麼不同模型的 Tokenizer 不一樣?

1. 訓練數據不同

  • 不同的語料庫導致優化方向不同

  • 多語言支援程度差異

  • 特定領域(醫療、法律等)的專門優化

2. 分詞算法不同

  • BPE (Byte Pair Encoding) - OpenAI GPT 系列

  • WordPiece - Google BERT

  • SentencePiece - 適合多語言場景

3. 優化目標不同

  • 有的注重壓縮效率

  • 有的注重語意保留

  • 有的注重處理速度

實際影響

同樣的文本在不同模型中的 token 數量可能不同:


什麼是嵌入模型 (Embedding Model)?

基本概念: 嵌入模型是一種將高維離散數據(文本、圖像等)轉換為低維連續向量的技術,這種轉換讓機器能更好地理解和處理複雜數據。想像一下,就像把複雜的拼圖簡化成一個簡單的座標點,但這個點仍然保留了拼圖的關鍵特徵。在大模型生態中,它作為"翻譯官",將人類可理解的信息轉換為 AI 可計算的數字形式。

工作原理: 以自然語言處理為例,嵌入模型可以將詞語映射到向量空間中的特定位置。在這個空間裡,語義相近的詞會自動聚集在一起。比如:

  • "國王"和"王后"的向量會很接近

  • "貓"和"狗"這樣的寵物詞也會距離相近

  • 而"汽車"和"麵包"這樣語義無關的詞則會距離較遠

主要應用場景:

  • 文本分析:文件分類、情感分析

  • 推薦系統:個性化內容推薦

  • 圖像處理:相似圖片檢索

  • 搜索引擎:語義搜索優化

核心優勢:

  1. 降維效果:將複雜數據簡化為易處理的向量形式

  2. 語義保持:保留原始數據中的關鍵語義信息

  3. 計算效率:顯著提升機器學習模型的訓練和推理效率

技術價值: 嵌入模型是現代 AI 系統的基礎組件,為機器學習任務提供了高質量的數據表示,是推動自然語言處理、計算機視覺等領域發展的關鍵技術。


Embedding 模型在知識檢索中的工作原理

基本工作流程:

  1. 知識庫預處理階段

  • 將文件分割成適當大小的 chunk(文本塊)

  • 使用 embedding 模型將每個 chunk 轉換為向量

  • 將向量和原文存儲到向量數據庫中

  1. 查詢處理階段

  • 將用戶問題轉換為向量

  • 在向量庫中檢索相似內容

  • 將檢索到的相關內容作為上下文提供給 LLM


什麼是 MCP(Model Context Protocol)?

MCP 是一種開源協議,旨在以標準化的方式向大型語言模型(LLM)提供上下文信息。

  • 類比理解: 可以把 MCP 想像成 AI 領域的「U盤」。我們知道,U盤可以存儲各種文件,插入電腦後就能直接使用。類似地,MCP Server 上可以「插」上各種提供上下文的「插件」,LLM 可以根據需要向 MCP Server 請求這些插件,從而獲取更豐富的上下文信息,增強自身能力。

  • 與 Function Tool 的對比: 傳統的 Function Tool(函數工具)也可以為 LLM 提供外部功能,但 MCP 更像是一種更高維度的抽象。Function Tool 更多的是針對具體任務的工具,而 MCP 則提供了一種更通用的、模塊化的上下文獲取機制。

MCP 的核心優勢

  1. 標準化: MCP 提供了統一的接口和數據格式,使得不同的 LLM 和上下文提供者可以無縫協作。

  2. 模塊化: MCP 允許開發者將上下文信息分解為獨立的模塊(插件),方便管理和複用。

  3. 靈活性: LLM 可以根據自身需求動態選擇所需的上下文插件,實現更智能、更個性化的互動。

  4. 可擴展性: MCP 的設計支援未來添加更多類型的上下文插件,為 LLM 的能力拓展提供了無限可能。

知識科普

常見問題

此文件由 AI 從中文翻譯而來,尚未經過審閱。

常見問題

1. mcp-server-time

解決方案

在「參數」一欄填寫:

輸入:"Hello, world!"
GPT-3: 4 tokens
BERT: 3 tokens
Claude: 3 tokens
mcp-server-time
--local-timezone
<你的標準時區,例如:Asia/Shanghai>
報錯截圖

常見問題

此文件由 AI 從中文翻譯而來,尚未經過審閱。

常見問題

常見錯誤代碼

  • 4xx(客戶端錯誤狀態碼):一般為請求語法錯誤、權限驗證失敗或認證失敗等無法完成請求。

  • 5xx(伺服器錯誤狀態碼):一般為伺服器端錯誤,如伺服器故障、請求處理超時等。

錯誤碼
可能情況
解決方法

400

請求體格式錯誤等

查看對話返回的錯誤內容或 查看報錯內容,根據提示操作。

【常見情況1】:如果是Gemini模型,可能需要進行綁卡操作; 【常見情況2】:資料體積超限,常見於視覺模型,圖片體積超過上游單個請求流量上限會返回此錯誤碼; 【常見情況3】:添加了不支援的參數或參數填寫錯誤,嘗試新建一個純淨的助手測試是否正常; 【常見情況4】:上下文超過限制,清除上下文或新建對話或減少上下文條數。

401

認證失敗:模型不被支援或服務端賬戶被封禁等

聯繫或查看對應服務商賬戶狀態

403

請求操作無權限

根據對話返回的錯誤信息或錯誤信息提示進行相應操作

404

無法找到請求資源

檢查請求路徑等

422

請求格式正確,但語義錯誤

這類錯誤伺服器能解析,但無法處理。常見於JSON語義錯誤(如:空值;要求值為字符串,但寫成了數字或布林值等情況)。

429

請求速率達到上限

請求速率(TPM或RPM)達到上限,稍後再試

500

伺服器內部錯誤,無法完成請求

持續出現時聯繫上游服務商

501

伺服器不支援請求的功能,無法完成請求

502

作為閘道或代理工作的伺服器嘗試執行請求時,從遠端伺服器接收到了一個無效的響應

503

由於超載或系統維護,伺服器暫時無法處理客戶端的請求。延時長度可包含在伺服器的Retry-After頭訊息中

504

充當閘道或代理的伺服器,未及時從遠端伺服器獲取請求


控制臺報錯查看方法

  • 點擊 Cherry Studio 客戶端視窗後按下快捷鍵 Ctrl + Shift + I(Mac端:Command + Option + I)

  • 當前活動視窗必須為 Cherry Studio 的客戶端視窗才能調出控制台;

  • 需要先開啟控制台,再點擊測試或發起對話等請求才能收集到請求訊息。

  • 在彈出的控制台視窗中點擊 Network → 點擊查看②處最後一個標有紅色 × 的 completions(對話類、翻譯、模型連通性檢查等遇到錯誤時) 或 generations(繪畫遇到錯誤時) → 點擊Response查看完整的返回內容(圖中④的區域)。

如果無法判斷錯誤原因,請將該界面截圖傳送到 官方交流群 中尋求協助。

該檢查方法在對話時可獲取錯誤訊息,在模型測試時、新增知識庫時、繪畫時等均可使用。無論何種情況都需要先開啟調試視窗,再進行請求操作來獲取請求訊息。

不同場景下Name(上圖②處)欄裡的名稱會有所區別:

對話、翻譯、模型檢查:completions

繪畫:generations

知識庫創建:embeddings


公式沒被渲染/公式渲染錯誤

  • 公式未被渲染而是直接顯示公式代碼時,檢查公式是否有定界符

定界符用法

行內公式

  • 使用單個美元符號: $formula$

  • 或使用\( 和 \),如:\(formula\)

獨立公式塊

  • 使用雙美元符號: $$formula$$

  • 或使用 \[formula\]

  • 示例: $$\sum_{i=1}^n x_i$$ ∑i=1nxi\sum_{i=1}^n x_i∑i=1n​xi​

  • 公式渲染錯誤/亂碼(常見於公式內含中文時),嘗試切換公式引擎為 KateX。


無法創建知識庫/提示獲取嵌入維度失敗

  1. 模型狀態不可用

確認服務商是否支援該模型或確認服務商該模型服務狀態是否正常。

  1. 使用了非嵌入模型


模型不能識圖/無法上傳或選擇圖片

首先需要確認模型是否支援識圖,熱門模型 Cherry Studio 會對其分類,模型名稱後帶小眼睛圖示的即支援識圖。

識圖模型會支援圖像檔案的上傳,如果模型功能未被正確匹配,可在對應服務商的模型列表中找到該模型,點擊其名稱後的設定按鈕並勾選圖像選項。

模型具體訊息可到對應服務商查閱其資訊。同嵌入模型一樣,不支援視覺的模型不需要強制開啟圖像功能,勾選了圖像選項也沒有作用。

Cherry Studio - 全能的AI助手Cherry Studio
Cherry Studio - 全能的AI助手Cherry Studio

阿里雲百煉

此文件由 AI 從中文翻譯而來,尚未經過審閱。

阿里雲百煉

  1. 登入 ,沒有阿里雲帳號的話需要註冊。

  2. 點擊右上角的 建立我的 API-KEY 按鈕。

  1. 在彈出的視窗中選擇預設業務空間(或者你也可以自訂),如果需要可以填寫描述。

  1. 點擊右下角的 確定 按鈕。

  2. 隨後,你應該能看到列表中新增了一行,點擊右側的 檢視 按鈕。

  3. 點擊 複製 按鈕。

  4. 轉到 Cherry Studio,在 設定 → 模型服務 → 阿里雲百煉 中找到 API 金鑰 ,將複製的 API 金鑰貼上到這裡。

  5. 可以按照 中的介紹調整相關設定,之後就能使用了。

如果發現模型列表中沒有阿里雲百煉的模型,請確認已經按照 中的介紹新增模型,並啟用了這個供應商。

Google Gemini

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Google Gemini

取得APIKey

  • 取得 Gemini 的 api key 前,你需要有一個 Google Cloud 專案(如果你已有,此過程可跳過)

  • 進入 建立專案,填寫專案名稱並點擊建立專案

  • 在官方 點擊 密鑰 創建API密鑰

  • 將生成的 key 複製,並打開 CherryStudio 的

  • 找到服務商 Gemini,填入剛剛取得的 key

  • 點擊最下方管理或新增,加入支援的模型並開啟右上角服務商開關即可使用。

  • 中國除台灣之外其他地區無法直接使用 Google Gemini 服務,需自行解決代理問題;

思源筆記配置教程

此文件由 AI 從中文翻譯而來,尚未經過審閱。

思源筆記配置教程

支援將話題、訊息匯出到思源筆記。

第一步

開啟思源筆記,建立一個筆記本

第二步

開啟筆記本進入設定,並複製筆記本ID

第三步

將複製的筆記本ID填寫到 Cherry Studio 設定中

第四步

填寫思源筆記地址

  • 本地 通常為 http://127.0.0.1:6806

  • 自部署 輸入你的網域名稱 http://note.domain.com

第五步

複製思源筆記 API Token

填入 Cherry Studio 設定中並進行檢查

第六步

恭喜您,思源筆記的配置已完成 ✅ 接下來即可將 Cherry Studio 內容匯出到您的思源筆記中

網路搜尋黑名單配置

此文件由 AI 從中文翻譯而來,尚未經過審閱。

網路搜尋黑名單設定

Cherry Studio支援手動和新增訂閱來源兩種方式設定黑名單。設定規則參考

手動設定

您可以為搜尋結果新增規則或點選工具列圖示以封鎖指定的網站。規則可以透過以下方式指定: (範例:*://*.example.com/*) 或使用 (範例:/example\.(net|org)/).

訂閱來源設定

您還可以訂閱公共規則集。該網站列出了一些訂閱: https://iorate.github.io/ublacklist/subscriptions

以下是一些比較推薦的訂閱來源連結:

名稱
連結
類型

配置 Dify 知識庫

此文件由 AI 從中文翻譯而來,尚未經過審閱。

配置 Dify 知識庫

Dify 知識庫 MCP 需要將 Cherry Studio 升級至 v1.2.9 或更高版本。

新增 Dify 知識庫 MCP 伺服器

  1. 開啟 搜索MCP。

  2. 新增 dify-knowledge 伺服器。

設定 Dify 知識庫

需配置參數和環境變數

  1. Dify 知識庫金鑰可透過以下方式取得:

使用 Dify 知識庫 MCP

阿里雲百煉
模型服務
模型服務
阿里雲百煉建立API金鑰
阿里雲百煉建立API金鑰彈窗
阿里雲百煉檢視API金鑰
阿里雲百煉複製API金鑰
阿里雲百煉填入API金鑰
Google Cloud
API Key頁面
服務商設定
點擊新建筆記本
開啟筆記本設定
點擊複製筆記本ID按鈕
將筆記本ID填寫到資料設定中
填入你的思源筆記地址
複製思源筆記令牌
填寫資料庫 ID 並點擊檢查
匯出到思源筆記
檢視匯出結果

uBlacklist subscription compilation

https://git.io/ublacklist

中文

uBlockOrigin-HUGE-AI-Blocklist

https://raw.githubusercontent.com/laylavish/uBlockOrigin-HUGE-AI-Blocklist/main/list_uBlacklist.txt

AI生成

ublacklist
比對模式
正規表示式
訂閱來源設定
控制臺
控制臺

嵌入模型參考資訊

此文件由 AI 從中文翻譯而來,尚未經過審閱。

嵌入模型參考資訊

為了防止出錯,在本文檔中部分模型的 max input 的值沒有寫成極限值,例如:在官方給出的最大輸入值為8k(未明確給出具體數值)時,本文檔中給出的參考值為8191或8000等。(看不懂可忽略,按照文檔中的參考值填寫即可)

火山-豆包

官方模型資訊參考地址

名稱
max input

Doubao-embedding

4095

Doubao-embedding-vision

8191

Doubao-embedding-large

4095

阿里

官方模型資訊參考地址

名稱
max input

text-embedding-v3

8192

text-embedding-v2

2048

text-embedding-v1

2048

text-embedding-async-v2

2048

text-embedding-async-v1

2048

OpenAI

官方模型資訊參考地址

名稱
max input

text-embedding-3-small

8191

text-embedding-3-large

8191

text-embedding-ada-002

8191

百度

官方模型資訊參考地址

名稱
max input

Embedding-V1

384

tao-8k

8192

智譜

官方模型資訊參考地址

名稱
max input

embedding-2

1024

embedding-3

2048

混元

官方模型資訊參考地址

名稱
max input

hunyuan-embedding

1024

百川

官方模型資訊參考地址

名稱
max input

Baichuan-Text-Embedding

512

together

官方模型資訊參考地址

名稱
max input

M2-BERT-80M-2K-Retrieval

2048

M2-BERT-80M-8K-Retrieval

8192

M2-BERT-80M-32K-Retrieval

32768

UAE-Large-v1

512

BGE-Large-EN-v1.5

512

BGE-Base-EN-v1.5

512

Jina

官方模型資訊參考地址

名稱
max input

jina-embedding-b-en-v1

512

jina-embeddings-v2-base-en

8191

jina-embeddings-v2-base-zh

8191

jina-embeddings-v2-base-de

8191

jina-embeddings-v2-base-code

8191

jina-embeddings-v2-base-es

8191

jina-colbert-v1-en

8191

jina-reranker-v1-base-en

8191

jina-reranker-v1-turbo-en

8191

jina-reranker-v1-tiny-en

8191

jina-clip-v1

8191

jina-reranker-v2-base-multilingual

8191

reader-lm-1.5b

256000

reader-lm-0.5b

256000

jina-colbert-v2

8191

jina-embeddings-v3

8191

硅基流動

官方模型資訊參考地址

名稱
max input

BAAI/bge-m3

8191

netease-youdao/bce-embedding-base_v1

512

BAAI/bge-large-zh-v1.5

512

BAAI/bge-large-en-v1.5

512

Pro/BAAI/bge-m3

8191

Gemini

官方模型資訊參考地址

名稱
max input

text-embedding-004

2048

nomic

官方模型資訊參考地址

名稱
max input

nomic-embed-text-v1

8192

nomic-embed-text-v1.5

8192

gte-multilingual-base

8192

console

官方模型資訊參考地址

名稱
max input

embedding-query

4000

embedding-passage

4000

cohere

官方模型資訊參考地址

名稱
max input

embed-english-v3.0

512

embed-english-light-v3.0

512

embed-multilingual-v3.0

512

embed-multilingual-light-v3.0

512

embed-english-v2.0

512

embed-english-light-v2.0

512

embed-multilingual-v2.0

256

如何高效提問

此文件由 AI 從中文翻譯而來,尚未經過審閱。

高效提問方法

Cherry Studio 是一個免費開源的專案,隨著專案規模擴大,專案小組的工作量也日漸增多。為了減少溝通成本並能快速高效解決您的問題,我們希望大家在提問前盡可能按照以下步驟處理遇到的問題,讓專案小組能將更多時間投入專案維護和開發。感謝您的配合!

一、文件查閱與搜尋

大多數基礎問題透過仔細查閱文件都能解決:

  • 軟體功能和使用問題可查閱功能介紹文件;

  • 高頻問題收錄在常見問題頁面,請先在此查看解決方案;

  • 複雜問題可直接使用搜尋功能或在搜尋框提問;

  • 務必仔細閱讀每篇文件中的提示框內容,能幫您避免許多問題;

  • 在 GitHub 的 Issue 頁面查看或搜尋類似問題及解決方案。

二、網路搜尋、向AI提問

與客戶端功能無關的問題(如模型報錯、回答不符預期、參數設置等),建議先在網路上搜尋解決方案,或將報錯內容和問題描述提供給AI尋找解決方案。

三、在官方社群提問或於GitHub提交issue

若上述方法仍未解決問題,請至官方 TG頻道、Discord頻道、(一鍵進群)詳細描述問題尋求協助:

  1. 模型報錯:提供完整介面截圖及控制台報錯資訊(敏感資訊可打碼,但需保留模型名稱、參數設置和報錯內容)。控制台報錯資訊查看方法點此

  2. 軟體Bug:提供具體錯誤描述及詳細。若為偶發問題,請詳細描述問題發生時的場景、背景與配置參數

    • 同時請註明平台資訊(Windows/Mac/Linux)與軟體版本號

文件請求或建議 請聯繫 TG頻道 @Wangmouuu 或 QQ(1355873789),或發送郵件至:[email protected]

無問芯穹

此文件由 AI 從中文翻譯而來,尚未經過審閱。

無問芯穹

你是否正在經歷:微信收藏了26篇乾貨文章卻再也沒打開過,電腦裡存著「學習資料」文件夾中散落的10+個文件,想找半年前讀過的某個理論卻只記得零星關鍵詞。而當每日信息量超過大腦處理極限時,90%珍貴知識會在72小時內被遺忘。 現在,通過無問芯穹大模型服務平台API + Cherry Studio打造個人知識庫,可以將被閒置收藏的微信文章、碎片化的課程內容轉化為結構化知識,實現精準調用。

一、個人知識庫搭建

1. 無問芯穹API服務:知識庫「思考中樞」,好用、穩定

作為知識庫的「思考中樞」,無問芯穹大模型服務平台提供 DeepSeek R1 完整功能版等模型版本,提供穩定的 API 服務,**目前註冊後無門檻免費使用。**支援主流嵌入模型 bge、jina 模型來建構知識庫,平台持續更新穩定最新、最強開源模型服務,包含圖片、影片、語音等多種不同模態。

2. Cherry Studio:零代碼搭建知識庫

Cherry Studio是一款易用的AI工具,相較於RAG知識庫開發需1-2個月部署週期,此工具支援零代碼操作,可將Markdown/PDF/網頁等多格式一鍵導入,40MB文件1分鐘完成解析,還可添加電腦本機文件夾、微信收藏夾文章網址、課程筆記。

二、3步構建你的專屬知識管家

Step 1:基礎準備

  1. 訪問Cherry Studio官網下載適配版本(https://cherry-ai.com/)

  2. 註冊帳號:登入無問芯穹大模型服務平台 (https://cloud.infini-ai.com/genstudio/model?cherrystudio)

  • 獲取API金鑰:在「模型廣場」選擇deepseek-r1,點擊創建並獲取APIKEY,複製模型名稱

Step 2:開啟CherryStudio設定,在模型服務中選擇無問芯穹,填寫API金鑰,並啟用無問芯穹模型服務

完成以上步驟,在互動時選擇所需大模型,即可在CherryStudio中使用無問芯穹API服務。 為方便使用,此處可設定「預設模型」

Step 3:添加知識庫

選擇無問芯穹大模型服務平台的嵌入模型bge系列或jina系列任一版本

三、真實用戶場景實測

  • 導入學習資料後,輸入"梳理〈機器學習〉第三章核心公式推導"

附生成結果圖

快捷助手

此文件由 AI 從中文翻譯而來,尚未經過審閱。

快捷助手

快捷助手是 Cherry Studio 提供的便捷工具,允許您在任何應用程式中快速存取 AI 功能,實現即時提問、翻譯、摘要和解釋等操作。

啟用快捷助手

  1. 開啟設定: 導覽至 設定 -> 快速鍵 -> 快捷助手。

  2. 啟用開關: 找到並開啟 快捷助手 對應按鈕。

啟用快捷助手示意圖
  1. 設定快速鍵(選用):

    • Windows 預設快速鍵為 Ctrl + E。

    • macOS 預設快速鍵為 ⌘ + E。

    • 您可在此自訂快速鍵以避免衝突或符合個人使用習慣。

使用快捷助手

  1. 喚起功能: 在任何應用程式中,按下設定好的快速鍵(或預設快速鍵)即可開啟快捷助手。

  2. 功能操作: 在快捷助手視窗中可直接進行:

    • 即時提問: 向 AI 提出任何疑問。

    • 文字翻譯: 輸入待翻譯文字內容。

    • 內容摘要: 輸入長文字進行重點摘要。

    • 術語解釋: 輸入需說明的概念或專有名詞。

      快捷助手介面示意圖
  3. 關閉視窗: 按下 ESC 鍵或點擊視窗外任意位置即可關閉。

快捷助手採用 全域預設對話模型。

使用提示與技巧

  • 快速鍵衝突: 若預設快速鍵與其他應用程式衝突,請修改設定。

  • 探索進階功能: 除說明文件功能外,快捷助手可能支援程式碼生成、風格轉換等操作,建議持續嘗試發掘。

  • 問題回報與建議: 使用時如遇問題或有功能改進建議,請隨時向 Cherry Studio 團隊 提交回饋。

自訂服務商

此文件由 AI 從中文翻譯而來,尚未經過審閱。

自訂服務供應商

Cherry Studio 不僅整合了主流的 AI 模型服務,還賦予您強大的自訂能力。透過 自訂 AI 服務供應商 功能,您可以輕鬆接入任何您需要的 AI 模型。

為什麼需要自訂 AI 服務供應商?

  • 靈活性: 不再受限於預置的供應商清單,自由選擇最適合您需求的 AI 模型。

  • 多樣性: 嘗試各種不同平台的 AI 模型,發掘它們的獨特優勢。

  • 可控性: 直接管理您的 API 金鑰和訪問地址,確保安全和隱私。

  • 客製化: 接入私有化部署的模型,滿足特定業務場景的需求。

如何新增自訂 AI 服務供應商?

只需簡單幾步,即可在 Cherry Studio 中新增您的自訂 AI 服務供應商:

  1. 開啟設定: 在 Cherry Studio 介面左側導覽列中,點擊「設定」(齒輪圖示)。

  2. 進入模型服務: 在設定頁面中,選擇「模型服務」標籤頁。

  3. 新增供應商: 在「模型服務」頁面中,您會看到現有的供應商清單。點擊清單下方的「+ 新增」按鈕,開啟「新增供應商」彈窗。

  4. 填寫資訊: 在彈窗中,您需要填寫以下資訊:

    • 供應商名稱: 為您的自訂供應商取一個易於識別的名稱(例如:MyCustomOpenAI)。

    • 供應商類型: 從下拉清單中選擇您的供應商類型。目前支援:

      • OpenAI

      • Gemini

      • Anthropic

      • Azure OpenAI

  5. 儲存設定: 填寫完畢後,點擊「新增」按鈕儲存您的設定。

設定自訂 AI 服務供應商

新增完成後,您需要在清單中找到您剛剛新增的供應商,並進行詳細設定:

  1. 啟用狀態 自訂供應商清單最右側有一個啟用開關,開啟代表啟用該自訂服務。

  2. API 金鑰:

    • 填寫您的 AI 服務供應商提供的 API 金鑰(API Key)。

    • 點擊右側的「檢查」按鈕,可以驗證金鑰的有效性。

  3. API 地址:

    • 填寫 AI 服務的 API 存取地址(Base URL)。

    • 請務必參考您的 AI 服務供應商提供的官方文件,取得正確的 API 地址。

  4. 模型管理:

    • 點擊「+ 新增」按鈕,手動新增此供應商下您想要使用的模型ID。例如 gpt-3.5-turbo、gemini-pro 等。

    • 如果您不確定具體的模型名稱,請參考您的 AI 服務供應商提供的官方文件。

    • 點擊「管理」按鈕,可以對已經新增的模型進行編輯或者刪除。

開始使用

完成以上設定後,您就可以在 Cherry Studio 的對話介面中,選擇您自訂的 AI 服務供應商和模型,開始與 AI 進行對話了!

使用 vLLM 作為自訂 AI 服務供應商

vLLM 是一個類似 Ollama 的快速且易於使用的 LLM 推理庫。以下是如何將 vLLM 整合到 Cherry Studio 中的步驟:

  1. 安裝 vLLM: 按照 vLLM 官方文件()安裝 vLLM。

  2. 啟動 vLLM 服務: 使用 vLLM 提供的 OpenAI 相容介面啟動服務。主要有兩種方式,分別如下:

    • 使用vllm.entrypoints.openai.api_server啟動

    • 使用uvicorn啟動

確保服務成功啟動,並監聽在預設連接埠 8000 上。當然,您也可以透過參數--port指定 vLLM 服務的連接埠號。

  1. 在 Cherry Studio 中新增 vLLM 供應商:

    • 按照前面描述的步驟,在 Cherry Studio 中新增一個自訂 AI 服務供應商。

    • 供應商名稱: vLLM

    • 供應商類型: 選擇 OpenAI。

  2. 設定 vLLM 供應商:

    • API 金鑰: 因為 vLLM 不需要 API 金鑰,可以將此欄位留空,或者填寫任意內容。

    • API 地址: 填寫 vLLM 服務的 API 地址。預設情況下,地址為: http://localhost:8000/(如果使用了不同的連接埠,請相應地修改)。

    • 模型管理: 新增您在 vLLM 中加載的模型名稱。在上面執行python -m vllm.entrypoints.openai.api_server --model gpt2的例子中,應該在此處填入gpt2

  3. 開始對話: 現在,您可以在 Cherry Studio 中選擇 vLLM 供應商和 gpt2 模型,開始與 vLLM 驅動的 LLM 進行對話了!

提示與技巧

  • 仔細閱讀文件: 在新增自訂供應商之前,請務必仔細閱讀您所使用的 AI 服務供應商的官方文件,了解 API 金鑰、訪問地址、模型名稱等關鍵資訊。

  • 檢查 API 金鑰: 使用「檢查」按鈕可以快速驗證 API 金鑰的有效性,避免因金鑰錯誤導致無法使用。

  • 關注 API 地址: 不同的 AI 服務供應商和模型,API 地址可能有所不同,請務必填寫正確的地址。

  • 按需新增模型: 請只新增您實際上會用到的模型,避免新增過多無用模型。

新增 ModelScope MCP 伺服器

此文件由 AI 從中文翻譯而來,尚未經過審閱。

添加 ModelScope MCP 伺服器

添加 ModelScope MCP 伺服器需將 Cherry Studio 升級至 v1.2.9 或更高版本。

在 v1.2.9 版本中,Cherry Studio 與 ModelScope 魔搭達成官方合作,大幅簡化了 MCP 伺服器添加的操作步驟,避免配置過程出錯,而且可以在 ModelScope 社區發現海量 MCP 伺服器。接下來跟隨操作步驟,一起瞭解如何在 Cherry Studio 中同步 ModelScope 的 MCP 伺服器。

操作步驟

同步入口:

點擊設定中的 MCP 伺服器設定,選取 同步伺服器

發現 MCP 服務:

選擇 ModelScope,並瀏覽發現 MCP 服務

查看 MCP 伺服器詳情

註冊登錄 ModelScope,並查看 MCP 服務詳情;

連接伺服器

在 MCP 服務詳情中,選擇連接服務;

申請並複製貼上 api 令牌

點擊 Cherry Studio 中的「獲取api」令牌,跳轉 ModelScope 官網,複製 api 令牌,並回到 Cherry Studio 中貼上。

成功同步

在 Cherry Studio 的 MCP 伺服器列表中,可以看到 ModelScope 連接的 MCP 服務並在對話中呼叫。

增量更新

在後續 ModelScope 網頁新連接的 MCP 伺服器,直接點擊 同步伺服器 就可以實現增量的 MCP 伺服器添加。

通過以上步驟,你已經成功掌握了如何在 Cherry Studio 中便捷地同步 ModelScope 上的 MCP 伺服器,整個配置過程不僅大大簡化,有效避免了手動配置的繁瑣和潛在錯誤,更讓你能够輕鬆接入 ModelScope 社區提供的海量 MCP 伺服器資源。

開始探索和使用這些強大的 MCP 服務,為你的 Cherry Studio 使用體驗帶來更多便利和可能性吧!

配置和使用 MCP

此文件由 AI 從中文翻譯而來,尚未經過審閱。

配置和使用 MCP

  1. 開啟 Cherry Studio 設定。

  2. 找到 MCP 伺服器 選項。

  3. 點擊 新增伺服器。

  4. 填入 MCP Server 的相關參數()。可能需要填寫的內容包括:

    • 名稱:自訂名稱,例如 fetch-server

    • 類型:選擇 STDIO

    • 指令:填寫 uvx

    • 參數:填寫 mcp-server-fetch

    • (可能還有其他參數,視具體 Server 而定)

  5. 點擊 儲存。

完成上述設定後,Cherry Studio 會自動下載所需的 MCP Server - fetch server。下載完成後,我們就可以開始使用了!注意:當 mcp-server-fetch 設定未成功時,可嘗試重新啟動電腦。

在聊天框中啟用 MCP 服務

  • 需先在 MCP 伺服器 設定中成功新增 MCP 伺服器

實際使用效果展示

從上圖可見,結合 MCP 的 fetch 功能後,Cherry Studio 能更準確理解使用者查詢意圖,並從網路獲取相關資訊,給出更精準、更全面的回答。

pip install vllm # 如果你使用 pip
uv pip install vllm # 如果你使用 uv
python -m vllm.entrypoints.openai.api_server --model gpt2
vllm --model gpt2 --served-model-name gpt2
https://docs.vllm.ai/en/latest/getting_started/quickstart.html
參考連結

Obsidian 配置教程

数据设置→Obsidian配置

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Obsidian 配置教學

Cherry Studio 支援與 Obsidian 聯動,將完整對話或單條對話匯出到 Obsidian 庫中。

該過程無需安裝額外的 Obsidian 外掛。但由於 Cherry Studio 匯入到 Obsidian 採用的原理與 Obsidian Web Clipper 類似,因此建議使用者最好將 Obsidian 升級至最新版本(當前 Obsidian 版本至少應大於 1.7.2),以免。

最新教學

相較舊版匯出到 Obsidian,新版匯出到 Obsidian 功能可以自動選擇庫路徑,不再需要手動輸入庫名、資料夾名。

第一步:配置 Cherry Studio

開啟 Cherry Studio 的_設定_ → 資料設定 → _Obsidian 設定_選單,下拉選單中會自動出現在本機開啟過的 Obsidian 庫名,選擇你的目標 Obsidian 庫:

第二步:匯出對話

匯出完整對話

回到 Cherry Studio 的對話介面,右鍵點擊對話,選擇_匯出_,點擊_匯出到 Obsidian_:

此時會彈出一個視窗,用於調整這條匯出到 Obsidian 中的對話筆記的 Properties(屬性)、所放置在Obsidian的資料夾位置以及匯出到 Obsidian 中的處理方式:

  • 保管庫:點擊下拉選單可以選擇其他 Obsidian 庫

  • 路徑:點擊下拉選單可以選擇存放匯出對話筆記的資料夾

  • 作為 Obsidian 筆記屬性(Properties):

    • 標籤(tags)

    • 建立時間(created)

    • 來源(source)

  • 匯出到 Obsidian 中的處理方式有以下三種可選:

    • 新建(如果存在就覆蓋):在路徑處填寫的資料夾 裡新建一篇對話筆記,如果存在同名筆記則會覆蓋舊筆記

    • 前置:在已存在同名筆記的情況下,將選中的對話內容匯出新增到該筆記的開頭

    • 追加:在已存在同名筆記的情況下,將選中的對話內容匯出新增到該筆記的末尾

只有第一種方式會附帶 Properties(屬性),後兩種方式不會附帶 Properties(屬性)。

選擇完所有選項後,點選確定即可匯出完整對話到對應的 Obsidian 庫的對應資料夾。

匯出單條對話

對於單條對話的匯出,則點擊對話下方的_三條槓選單_,選擇_匯出_,點擊_匯出到 Obsidian_:

之後也會彈出與匯出完整對話時一樣的視窗,要求你配置筆記屬性與筆記的處理方式,一樣按照完成即可。

匯出成功

🎉 到這裡,恭喜你完成了 Cherry Studio 聯動 Obsidian 的所有配置,並完整地將匯出流程走了一遍,enjoy yourselves!


舊教學(適用於Cherry Studio<v1.1.13)

第一步:準備 Obsidian

開啟 Obsidian 庫,建立一個用於儲存匯出對話的資料夾(圖中以 Cherry Studio 資料夾為例):

注意記住左下角框出來的文字,這裡是你的保管庫名。

第二步:配置 Cherry Studio

在 Cherry Studio 的_設定_ → 資料設定 → _Obsidian 設定_選單中,輸入在中獲取到的保管庫名與資料夾名:

全域標籤處是可選的,可設定所有對話匯出後在 Obsidian 中的標籤,按需填寫。

第三步:匯出對話

匯出完整對話

回到 Cherry Studio 的對話介面,右鍵點擊對話,選擇_匯出_,點擊_匯出到 Obsidian_。

此時會彈出一個視窗,用於調整這條匯出到 Obsidian 中的對話筆記的 Properties(屬性),以及匯出到 Obsidian 中的處理方式。匯出到 Obsidian 中的處理方式有以下三種可選:

  • 新建(如果存在就覆蓋):在中填寫的資料夾 裡新建一篇對話筆記,如果存在同名筆記則會覆蓋舊筆記

  • 前置:在已存在同名筆記的情況下,將選中的對話內容匯出新增到該筆記的開頭

  • 追加:在已存在同名筆記的情況下,將選中的對話內容匯出新增到該筆記的末尾

只有第一種方式會附帶 Properties(屬性),後兩種方式不會附帶 Properties(屬性)。

匯出單條對話

對於單條對話的匯出,則點擊對話下方的_三條槓選單_,選擇_匯出_,點擊_匯出到 Obsidian_。

之後也會彈出與匯出完整對話時一樣的視窗,要求你配置筆記屬性與筆記的處理方式,一樣按照完成即可。

匯出成功

🎉 到這裡,恭喜你完成了 Cherry Studio 聯動 Obsidian 的所有配置,並完整地將匯出流程走了一遍,enjoy yourselves!

如果對話過長造成匯入失敗
上方的教學
第一步
第二步
上方的教學
配置筆記屬性
選擇路徑
選擇處理方式
匯出單條對話
匯出到 Obsidian
檢視匯出結果
匯出完整對話
配置筆記屬性
匯出單條對話
匯出到 Obsidian
檢視匯出結果

SearXNG 本地部署與配置

此文件由 AI 從中文翻譯而來,尚未經過審閱。

SearXNG 部署與配置

CherryStudio 支援透過 SearXNG 進行網絡搜索,SearXNG 是一個可本地部署也可在伺服器上部署的開源項目,所以與其他需要 API 供應商的配置方式略有不同。

SearXNG 項目鏈接:SearXNG

SearXNG 的優勢

  • 開源免費,無需 API

  • 隱私性相對較高

  • 可高度定制化

本地部署

一、Docker 直接部署

由於 SearXNG 不需要複雜的環境配置,可以不用 docker compose,只需要簡單提供一個空閒端口即可部署,所以最快捷的方式可以使用 Docker 直接拉取鏡像進行部署。

1. 下載安裝並配置 docker

安裝後選擇一個鏡像存儲路徑:

2. 搜索並拉取 SearXNG 鏡像

搜索欄輸入 searxng:

拉取鏡像:

3. 運行鏡像

拉取成功後來到 images 頁面:

選擇拉取的鏡像點擊運行:

打開設置項進行配置:

以 8085 端口為例:

運行成功後點擊鏈接即可打開 SearXNG 的前端界面:

出現這個頁面說明部署成功:

伺服器部署

鑒於 Windows 下安裝 Docker 是一件較為麻煩的事情,使用者可以將 SearXNG 部署在伺服器上,也可藉此共享給其他人使用。但是很遺憾,SearXNG 自身暫不支援鑒權,導致他人可以透過技術手段掃描到並濫用你部署的實例。

為此,Cherry Studio 目前已支援配置 HTTP 基本認證(RFC7617),如果使用者欲將自己部署的 SearXNG 暴露在公網環境下,請務必透過 Nginx 等反向代理軟件配置 HTTP 基本認證。下面提供簡要教程,需要你有基本的 Linux 運維知識。

部署 SearXNG

類似地,仍然使用 Docker 部署。假設你已按照官方教程在伺服器上安裝好了最新版 Docker CE,以下提供一條龍命令,適用於 Debian 系統下全新安裝:

sudo apt update
sudo apt install git -y

# 拉取官方倉庫
cd /opt
git clone https://github.com/searxng/searxng-docker.git
cd /opt/searxng-docker

# 如果你的伺服器頻寬很小, 可以設置為 false
export IMAGE_PROXY=true

# 修改配置文件
cat <<EOF > /opt/searxng-docker/searxng/settings.yml
# see https://docs.searxng.org/admin/settings/settings.html#settings-use-default-settings
use_default_settings: true
server:
  # base_url is defined in the SEARXNG_BASE_URL environment variable, see .env and docker-compose.yml
  secret_key: $(openssl rand -hex 32)
  limiter: false  # can be disabled for a private instance
  image_proxy: $IMAGE_PROXY
ui:
  static_use_hash: true
redis:
  url: redis://redis:6379/0
search:
  formats:
    - html
    - json
EOF

如果你需要修改本地監聽端口、復用本地已有的 nginx,可以編輯 docker-compose.yaml 文件,參考如下:

version: "3.7"

services:
# 如果不需要 Caddy 而復用本地已有的 Nginx, 就把下面的去掉. 我們默認不需要 Caddy.
  caddy:
    container_name: caddy
    image: docker.io/library/caddy:2-alpine
    network_mode: host
    restart: unless-stopped
    volumes:
      - ./Caddyfile:/etc/caddy/Caddyfile:ro
      - caddy-data:/data:rw
      - caddy-config:/config:rw
    environment:
      - SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}
      - SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}
    cap_drop:
      - ALL
    cap_add:
      - NET_BIND_SERVICE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"
# 如果不需要 Caddy 而復用本地已有的 Nginx, 就把上面的去掉. 我們默認不需要 Caddy.
  redis:
    container_name: redis
    image: docker.io/valkey/valkey:8-alpine
    command: valkey-server --save 30 1 --loglevel warning
    restart: unless-stopped
    networks:
      - searxng
    volumes:
      - valkey-data2:/data
    cap_drop:
      - ALL
    cap_add:
      - SETGID
      - SETUID
      - DAC_OVERRIDE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

  searxng:
    container_name: searxng
    image: docker.io/searxng/searxng:latest
    restart: unless-stopped
    networks:
      - searxng
    # 默認映射到宿主機 8080 端口, 假如你想監聽 8000 就改成 "127.0.0.1:8000:8080"
    ports:
      - "127.0.0.1:8080:8080"
    volumes:
      - ./searxng:/etc/searxng:rw
    environment:
      - SEARXNG_BASE_URL=https://${SEARXNG_HOSTNAME:-localhost}/
      - UWSGI_WORKERS=${SEARXNG_UWSGI_WORKERS:-4}
      - UWSGI_THREADS=${SEARXNG_UWSGI_THREADS:-4}
    cap_drop:
      - ALL
    cap_add:
      - CHOWN
      - SETGID
      - SETUID
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

networks:
  searxng:

volumes:
# 如果不需要 Caddy 而復用本地已有的 Nginx, 就把下面的去掉
  caddy-data:
  caddy-config:
# 如果不需要 Caddy 而復用本地已有的 Nginx, 就把上面的去掉
  valkey-data2:

執行 docker compose up -d 啟動。執行 docker compose logs -f searxng 可以看到日誌。

部署 Nginx 反向代理和 HTTP 基本認證

如果你使用了一些伺服器面板程序,例如寶塔面板或 1Panel,請參閱其文檔添加網站並配置 nginx 反向代理,隨後找到修改 nginx 配置文件的地方, 參考下面的範例進行修改:

server
{
    listen 443 ssl;

    # 這行是你的主機名
    server_name search.example.com;

    # index index.html;
    # root /data/www/default;

    # 如果配置了 SSL 應該有這兩行
    ssl_certificate    /path/to/your/cert/fullchain.pem;
    ssl_certificate_key    /path/to/your/cert/privkey.pem;

    # HSTS
    # add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload";

    # 默認情況下透過面板配置反向代理, 默認的 location 塊就是這樣
    location / {
        # 只需要在 location 塊添加下面兩行, 其他保留原狀就行.
        # 此處範例假設你的配置文件保存在 /etc/nginx/conf.d/ 目錄下.
        # 如果是寶塔應該是保存在 /www 之類的目錄下, 需要注意.
        auth_basic "Please enter your username and password";
        auth_basic_user_file /etc/nginx/conf.d/search.htpasswd;

        proxy_http_version 1.1;
        proxy_set_header Connection "";
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Forwarded-For $proxy_protocol_addr;
        proxy_pass http://127.0.0.1:8000;
        client_max_body_size 0;
    }

    # access_log  ...;
    # error_log  ...;
}

假設 Nginx 配置文件保存於 /etc/nginx/conf.d 下,我們將將密碼文件保存在同目錄下。

執行命令(自行將 example_name、example_password 替換為你將要設定的用戶名和密碼):

echo "example_name:$(openssl passwd -5 'example_password')" > /etc/nginx/conf.d/search.htpasswd

重啓 Nginx(重載配置也可以)。

這時可以打開一下網頁,已經會提示你輸入用戶名和密碼,請輸入前面設定的用戶名和密碼查看能否成功進入 SearXNG 搜索頁面,藉此檢查配置是否正確。

Cherry Studio 相關配置

SearXNG 本地或在伺服器部署成功後,接下來是 CherryStudio 的相關配置。

來到網絡搜索設置頁面,選擇 Searxng:

直接輸入本地部署的鏈接發現驗證失敗,此時不用擔心:

因為直接部署後默認並沒有配置 json 返回類型,所以無法獲取數據,需要修改配置文件。

回到 Docker,來到 Files 標籤頁找到鏡像中找到帶標籤的文件夾:

展開後繼續往下翻,會發現另一個帶標籤的文件夾:

繼續展開,找到 settings.yml 配置文件:

點擊打開文件編輯器:

找到 78 行,可以看到類型只有一個 html

添加 json 類型後保存,重新運行鏡像

重新回到 Cherry Studio 進行驗證,驗證成功:

地址既可以填寫本地:http://localhost:端口號 也可以填寫 docker 地址:http://host.docker.internal:端口號

如果使用者遵循前面的範例在伺服器上部署並正確配置了反向代理,已經開啟了 json 返回類型。輸入地址後進行驗證,由於已給反向代理配置了 HTTP 基本認證,此時驗證則應返回 401 錯誤碼:

在客戶端配置 HTTP 基本認證,輸入剛才設定的用戶名與密碼:

進行驗證,應當驗證成功。

其他配置

此時 SearXNG 已具備默認聯網搜索能力,如需定制搜索引擎需要自行進行配置

需要注意的是此處首選項並不能影響大模型調用時的配置

如需配置需要大模型調用的搜索引擎,需在配置文件中設置:

配置語言參考:

若內容太長直接修改不方便,可將其複製到本地 IDE 中,修改後粘貼到配置文件中即可。

驗證失敗常見原因

返回格式未添加 json 格式

在配置文件中將返回格式加上 json:

未正確配置搜索引擎

Cherry Studio 會默認選取 categories 同時包含 web general 的引擎進行搜索,默認情況下會選中 google 等引擎,由於大陸無法直接訪問 google 等網站導致失敗。增加以下配置使得 searxng 強制使用 baidu 引擎,即可解決問題:

use_default_settings:
  engines:
    keep_only:
      - baidu
engines:
  - name: baidu
    engine: baidu 
    categories: 
      - web
      - general
    disabled: false

訪問速率過快

searxng 的 limiter 配置阻礙了 API 訪問,請嘗試將其在設置中設為 false:

常見模型參考資訊

此文件由 AI 從中文翻譯而來,尚未經過審閱。

常見模型參考資訊

  • 以下資訊僅供參考,如有錯誤可聯繫糾正,部分模型的服務商不同其上下文大小和模型資訊可能也會有所不同;

  • 在客戶端輸入資料時需要將「k」轉換成實際數值(理論上1k=1024個tokens;1m=1024k tokens),例如8k為8×1024=8192 tokens。建議在實際使用時×1000即可,防止報錯,例如8k為8×1000=8000,1m=1×1000000=1000000;

  • 最大輸出為「-」的為未從官方查詢到該模型明確的最大輸出資訊。

<极不支持> ```html

模型名稱
最大輸入
最大輸出
函數調用
模型能力
服務商
簡介

360gpt-pro

8k

-

不支援

對話

360AI_360gpt

360智腦系列效果最好的主力千億級大模型,廣泛適用於各領域複雜任務場景。

360gpt-turbo

7k

-

不支援

對話

360AI_360gpt

兼顧性能和效果的百億級大模型,適合對性能/成本要求較高的場景。

360gpt-turbo-responsibility-8k

8k

-

不支援

對話

360AI_360gpt

兼顧性能和效果的百億級大模型,適合對性能/成本要求較高的場景。

360gpt2-pro

8k

-

不支援

對話

360AI_360gpt

360智腦系列效果最好的主力千億級大模型,廣泛適用於各領域複雜任務場景。

claude-3-5-sonnet-20240620

200k

16k

不支援

對話,識圖

Anthropic_claude

於2024年6月20日發佈的快照版本,Claude 3.5 Sonnet是一個平衡了性能和速度的模型,在保持高速度的同時提供頂級性能,支援多模態輸入。

claude-3-5-haiku-20241022

200k

16k

不支援

對話

Anthropic_claude

於2024年10月22日發佈的快照版本,Claude 3.5 Haiku在各項技能上都有所提升,包括編碼、工具使用和推理。作為Anthropic系列中速度最快的模型,它提供快速響應時間,適用於需要高互動性和低延遲的應用,如面向用戶的聊天機器人和即時代碼補全。它在數據提取和即時內容審核等專業任務中也表現出色,使其成為各行業廣泛應用的多功能工具。它不支援圖像輸入。

claude-3-5-sonnet-20241022

200k

8K

不支援

對話,識圖

Anthropic_claude

於2024年10月22日發佈的快照版本,Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長編程、數據科學、視覺處理、代理任務。

claude-3-5-sonnet-latest

200K

8k

不支援

對話,識圖

Anthropic_claude

動態指向最新的Claude 3.5 Sonnet版本,Claude 3.5 Sonnet提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長編程、數據科學、視覺處理、代理任務,該模型指向最新的版本。

claude-3-haiku-20240307

200k

4k

不支援

對話,識圖

Anthropic_claude

Claude 3 Haiku 是 Anthropic 的最快且最緊湊的模型,旨在實現近乎即時的響應。它具有快速且準確的定向性能。

claude-3-opus-20240229

200k

4k

不支援

對話,識圖

Anthropic_claude

Claude 3 Opus 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智能、流暢性和理解力方面表現卓越。

claude-3-sonnet-20240229

200k

8k

不支援

對話,識圖

Anthropic_claude

於2024年2月29日發佈的快照版本,Sonnet 特別擅長於: - 編碼:能夠自主編寫、編輯和運行程式碼,並具備推理和故障排除能力 - 數據科學:增強人類的數據科學專業知識;在使用多種工具獲取洞察時,能夠處理非結構化數據 - 視覺處理:擅長解讀圖表、圖形和圖像,準確轉錄文本以獲取超越文本本身的洞察 - 代理任務:工具使用出色,非常適合處理代理任務(即需要與其他系統交互的複雜多步驟問題解決任務)

google/gemma-2-27b-it

8k

-

不支援

對話

Google_gamma

Gemma 是由 Google 開發的輕量級、最先進的開放模型系列,採用與 Gemini 模型相同的研究和技術建構。這些模型是僅解碼器的大型語言模型,支援英語,提供預訓練和指令微調兩種變體的開放權重。Gemma 模型適用於各種文本生成任務,包括問答、摘要和推理。

google/gemma-2-9b-it

8k

-

不支援

對話

Google_gamma

Gemma 是 Google 開發的輕量級、最先進的開放模型系列之一。它是一個僅解碼器的大型語言模型,支援英語,提供開放權重、預訓練變體和指令微調變體。Gemma 模型適用於各種文本生成任務,包括問答、摘要和推理。該 9B 模型是通過 8 萬億個 tokens 訓練而成。

gemini-1.5-pro

2m

8k

不支援

對話

Google_gemini

Gemini 1.5 Pro 的最新穩定版本。作為一個強大的多模態模型,它可以處理長達6 萬行程式碼或 2,000 頁文本。特別適合需要複雜推理的任務。

gemini-1.0-pro-001

33k

8k

不支援

對話

Google_gemini

這是 Gemini 1.0 Pro 的穩定版本。作為一個 NLP 模型,它專門處理多輪文本和程式碼聊天以及程式碼生成等任務。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。

gemini-1.0-pro-002

32k

8k

不支援

對話

Google_gemini

這是 Gemini 1.0 Pro 的穩定版本。作為一個 NLP 模型,它專門處理多輪文本和程式碼聊天以及程式碼生成等任務。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。

gemini-1.0-pro-latest

33k

對話,已廢棄或即將廢棄

Google_gemini

這是 Gemini 1.0 Pro 的最新版本。作為一個 NLP 模型,它專門處理多輪文本和程式碼聊天以及程式碼生成等任務。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。

gemini-1.0-pro-vision-001

16k

2k

不支援

對話

Google_gemini

這是 Gemini 1.0 Pro 的視覺版本。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。

gemini-1.0-pro-vision-latest

16k ```html

識圖

Google_gemini

這是 Gemini 1.0 Pro 的視覺最新版本。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。

gemini-1.5-flash

1m

8k

不支援

對話,識圖

Google_gemini

這是 Gemini 1.5 Flash 的最新穩定版本。作為一個平衡的多模態模型,它可以處理音頻、圖片、影片和文本輸入。

glm-4v-flash

2k

1k

不支援

對話,識圖

智譜_glm

免費模型:具備強大的圖片理解能力

```

對話介面

此文件由 AI 從中文翻譯而來,尚未經過審閱。

對話界面

助手和話題

助手

助手 是對所選模型做一些個性化的設置來使用模型,如提示詞預設和參數預設等,通過這些設置讓所選模型能更加符合你預期的工作。

系統預設助手 預設了一個比較通用的參數(無提示詞),您可以直接使用或者到 尋找你需要的預設來使用。

話題

助手 是 話題 的父集,單個助手下方可以建立多個話題(即對話),所有 話題 共用 助手 的參數設置和預設詞(prompt)等模型設置。

對話框內按鈕

新話題 在當前助手內建立一個新話題。

上傳圖片或文件 上傳圖片需要模型支援,上傳文件會自動解析為文字作為上下文提供給模型。

網絡搜索 須在設置中配置網絡搜索相關信息,搜尋結果作為上下文返回給大模型,詳見 。

知識庫 開啟知識庫,詳見 。

MCP 服務器 開啟 MCP 服務器功能,詳見 。

生成圖片 預設不顯示,對於支援生成圖片的模型(如 Gemini),需手動點亮後才能生成圖片。

由於技術原因,您必須手動點亮按鈕才能生成圖片,該按鈕在此功能優化後會移除。

選擇模型 對於接下來的對話,切換成指定的模型,保留上下文。

快捷短語 需要先在設置中預設常用短語,在此處調用,直接輸入,支援變量。

清空消息 刪除該話題下所有內容。

展開 讓對話框變更大,以便輸入長文。

清除上下文 在不刪除內容的情況下,截斷模型能獲得的上下文,也就是說模型將「忘記」之前的對話內容。

預估 Token 數 展示預估 Token 數,四個數據分別為 當前上下文數 、 最大上下文數 ( ∞ 表示無限上下文)、 當前輸入框內訊息字數 、 預估 Token 數 。

此功能僅用於預估 Token 數,實際 Token 數每個模型都是不一樣的,請以模型提供商的數據為準。

翻譯 將當前輸入框內內容翻譯成英文。

對話設置

模型設置

模型設置與助手設置當中的 模型設置 參數同步,詳見 。

在對話設置當中,僅該模型設置作用於當前助手,其餘設置作用於全局。如:設置訊息樣式為氣泡後,在任何助手的任何話題下都是氣泡樣式。

訊息設置

訊息分隔線:

使用分隔線將訊息正文與操作欄分隔開。

使用襯線字體:

字體樣式切換,現在你也可以通過 來更換字體。

程式碼顯示行號:

模型輸出程式碼片段時顯示代碼塊行號。

代碼塊可折疊:

打開後,當程式碼片段中程式碼較長時,將自動折疊代碼塊。

代碼塊可換行:

打開後,當程式碼片段中單行程式碼較長時(超出窗口),將自動換行。

思考內容自動折疊:

打開後,支援思考的模型在思考完成後會自動折疊思考過程。

訊息樣式:

可切換對話界面為氣泡樣式或清單樣式。

程式碼風格:

可切換程式碼片段的顯示風格。

數學公式引擎:

  • KaTeX 渲染速度更快,因為它是專門為效能優化設計的;

  • MathJax 渲染較慢,但功能更全面,支援更多的數學符號和命令。

訊息字體大小:

調整對話界面字體的大小。

輸入設置

顯示預估 Token 數:

在輸入框顯示輸入文本預估消耗的Token數(非實際上下文消耗的Token,僅供參考)。

長文本貼上為文件:

當從其他地方複製長段文本貼上到輸入框時,會自動顯示為文件的樣式,減少後續輸入內容時的干擾。

Markdown 渲染輸入消息:

關閉時只渲染模型回覆的訊息,不渲染發送的訊息。

快速敲擊3次空格翻譯:

在對話界面輸入框輸入訊息後,連敲三次空格可翻譯輸入的內容為英文。

注意:該操作會覆蓋原文。

目標語言:

設置輸入框翻譯按鈕以及快速敲擊3次空格翻譯的目標語言。

助手設置

在助手界面選擇需要設定的助手名稱→在右鍵選單中選對應設置

編輯助手

助手設置作用於該助手下的所有話題。

提示詞設置

名稱:

可自訂方便辨識的助手名稱。

提示詞:

即 prompt ,可以參照智能體頁面的提示詞寫法來編輯內容。

模型設置

預設模型:

可以為該助手固定一個預設模型,從智能體頁面新增時或複製助手時,初始模型為該模型。不設置該項初始模型則為全局初始模型(即 )。

助手的預設模型有兩種,一為 ,另一為助手預設模型;助手的預設模型優先級高於全局預設對話模型。當不設置助手預設模型時,助手預設模型=全局預設對話模型。

自動重置模型:

打開時 - 當在該話題下使用過程中切換其他模型使用時,再次新建話題會將新話題重置為助手的預設模型。當該項關閉時新建話題的模型會跟隨上一話題所使用的模型。

如助手的預設模型為gpt-3.5-turbo,我在該助手下方建立話題1,在話題1的對話過程中切換了gpt-4o使用,此時:

如果開啟了自動重置:新建話題2時,話題2預設選擇的模型為gpt-3.5-turbo;

如果未開啟自動重置:新建話題2時,話題2預設選擇的模型為gpt-4o。

溫度 (Temperature) :

溫度參數控制模型生成文本的隨機性和創造性程度(預設值為0.7)。具體表現為:

  • 低溫度值(0-0.3):

    • 輸出更確定、更專注

    • 適合程式碼生成、資料分析等需要準確性的場景

    • 傾向於選擇最可能的詞彙輸出

  • 中等溫度值(0.4-0.7):

    • 平衡了創造性和連貫性

    • 適合日常對話、一般性寫作

    • 推薦用於聊天機器人對話(0.5左右)

  • 高溫度值(0.8-1.0):

    • 產生更具創造性和多樣性的輸出

    • 適合創意寫作、腦力激盪等場景

    • 但可能降低文本的連貫性

Top P (核取樣):

預設值為 1,值越小,AI 生成的內容越單調,也越容易理解;值越大,AI 回覆的詞彙範圍越大,越多樣化。

核取樣通過控制詞彙選擇的概率閾值來影響輸出:

  • 較小值(0.1-0.3):

    • 僅考慮最高概率的詞彙

    • 輸出更保守、更可控

    • 適合程式碼註解、技術文件等場景

  • 中等值(0.4-0.6):

    • 平衡詞彙多樣性和準確性

    • 適合一般對話和寫作任務

  • 較大值(0.7-1.0):

    • 考慮更廣泛的詞彙選擇

    • 產生更豐富多樣的內容

    • 適合創意寫作等需要多樣化表達的場景

  • 這兩個參數可以獨立使用或組合使用

  • 根據具體任務類型選擇合適的參數值

  • 建議通過實驗找到最適合特定應用場景的參數組合

  • 以上內容僅供參考和了解概念,所給參數範圍不一定適合所有模型,具體可參考模型相關文件給出的參數建議。

上下文數量 (Context Window)

要保留在上下文中的訊息數量,數值越大,上下文越長,消耗的 token 越多:

  • 5-10:適合普通對話

  • >10:需要更長記憶的複雜任務(例如:按照寫作提綱分步生成長文的任務,需要確保生成的上下文邏輯連貫)

  • 注意:訊息數越多,token 消耗越大

開啟訊息長度限制 (MaxToken)

單次回答最大 數,在大語言模型中,max token(最大令牌數)是一個關鍵參數,它直接影響模型生成回答的質量和長度。

如:在CherryStudio當中填寫好key後測試模型是否連通時,只需要知道模型是否有正確返回訊息而不需特定內容,這種情況下設置MaxToken為1即可。

多數模型的MaxToken上限為32k Tokens,當然也有64k,甚至更多的,具體需要到對應介紹頁面查看。

具體設置多少取決於自己的需要,當然也可以參考以下建議。

建議:

  • 普通聊天:500-800

  • 短文生成:800-2000

  • 程式碼生成:2000-3600

  • 長文生成:4000及以上 (需要模型本身支援)

一般情況下模型生成的回答將被限制在 MaxToken 的範圍內,當然也有可能出現被截斷(如寫長程式碼時)或表達不完整等情況出現,特殊情況下也需要根據實際情況來靈活調整。

串流輸出(Stream)

串流輸出是一種數據處理方式,它允許數據以連續的串流形式進行傳輸和處理,而不是一次性發送所有數據。這種方式使得數據可以在生成後立即被處理和輸出,極大地提高了即時性和效率。

在 CherryStudio 客戶端等類似環境下簡單來說就是打字機效果。

關閉後(非串流):模型生成完信息後整段一次性輸出(想像一下微信收到訊息的感覺);

打開時:逐字輸出,可以理解為大模型每生成一個字就立馬發送給你,直到全部發送完。

如果某些特殊模型不支援串流輸出,需要將該開關關閉,比如剛開始只支援非串流的o1-mini等。

自定義參數

在請求體(body)中加入額外請求參數,如 presence_penalty 等字段,一般人一般情況下用不到。

上述top-p、maxtokens、stream等參數就是這些參數之一。

填法:參數名稱—參數類型(文本、數字等)—值,參考文件:

各個模型提供商都或多或少有自己獨有的參數,需要到提供商的文件中尋找使用方法

  • 自定義參數優先級高於內建參數。即自定義參數如果與內建參數重複,則自定義參數會覆蓋內建參數。

如:自定義參數中設置 model 為 gpt-4o 後,在對話中無論選擇哪個模型都使用的是 gpt-4o 模型。

  • 使用 參數名稱:undefined 的設置可排除參數。

智能體頁面
連網模式
知識庫教程
MCP 使用教程
助手設置
自定義css
預設助手模型
全局預設對話模型
Token
點擊前往

模型榜單

此文件由 AI 從中文翻譯而來,尚未經過審閱。

這是一個基於 Chatbot Arena (lmarena.ai) 資料的排行榜,透過自動化流程生成。

資料更新時間: 2025-07-07 11:42:50 UTC / 2025-07-07 19:42:50 CST (北京時間)

點擊排行榜中的 模型名稱 可跳轉至其詳細資訊或試用頁面。

排行榜

排名(UB)
排名(StyleCtrl)
模型名
分數
置信區間
票數
服務商
許可協議
知識截止日期

1

1

1477

+5/-5

15,769

Google

Proprietary

暫無資料

2

2

1446

+4/-5

13,997

Google

Proprietary

暫無資料

3

3

1429

+4/-4

24,237

OpenAI

Proprietary

暫無資料

3

2

1427

+3/-4

21,965

OpenAI

Proprietary

暫無資料

3

6

1425

+4/-5

12,847

DeepSeek

MIT

暫無資料

3

7

1422

+3/-4

25,763

xAI

Proprietary

暫無資料

5

6

1418

+4/-4

21,209

Google

Proprietary

暫無資料

6

4

1414

+5/-4

15,271

OpenAI

Proprietary

暫無資料

9

7

1398

+5/-5

17,002

Google

Proprietary

暫無資料

9

11

1392

+5/-4

15,758

Alibaba

Apache 2.0

暫無資料

11

6

1384

+3/-4

18,275

OpenAI

Proprietary

暫無資料

11

12

1382

+3/-3

21,008

DeepSeek

MIT

暫無資料

11

17

1380

+6/-5

8,247

Tencent

Proprietary

暫無資料

11

11

1376

+6/-6

8,058

MiniMax

Apache 2.0

暫無資料

13

12

1374

+3/-5

19,430

DeepSeek

MIT

暫無資料

14

19

1370

+4/-4

19,980

Mistral

Proprietary

暫無資料

14

6

1370

+4/-4

20,056

Anthropic

Proprietary

暫無資料

15

23

1367

+4/-4

14,597

Alibaba

Apache 2.0

暫無資料

16

11

1366

+2/-3

29,038

OpenAI

Proprietary

暫無資料

16

11

1363

+4/-4

17,974

OpenAI

Proprietary

暫無資料

17

23

1363

+3/-3

32,074

Alibaba

Proprietary

暫無資料

18

25

1363

+3/-3

36,915

Google

Proprietary

暫無資料

18

31

1359

+6/-5

10,561

xAI

Proprietary

暫無資料

19

25

1360

+3/-3

26,443

Google

Gemma

暫無資料

24

31

1344

+12/-7

4,074

Alibaba

Apache 2.0

暫無資料

25

19

1351

+3/-4

33,177

OpenAI

Proprietary

2023/10

25

12

1343

+4/-5

16,050

Anthropic

Proprietary

暫無資料

26

25

1340

+4/-4

19,404

OpenAI

Proprietary

暫無資料

26

32

1337

+7/-8

3,976

Google

Gemma

暫無資料

26

23

1337

+5/-4

17,292

OpenAI

Proprietary

暫無資料

26

31

1334

+4/-4

22,841

DeepSeek

DeepSeek

暫無資料

26

31

1332

+13/-13

2,061

Mistral

Apache 2.0

暫無資料

28

38

1333

+4/-5

18,386

Alibaba

Apache 2.0

暫無資料

29

36

1327

+8/-6

6,028

Zhipu

Proprietary

暫無資料

30

31

1329

+4/-4

26,104

Google

Proprietary

暫無資料

30

56

1327

+5/-7

7,517

Amazon

Proprietary

暫無資料

30

32

1326

+7/-6

6,055

Alibaba

Proprietary

暫無資料

30

31

1321

+10/-11

2,656

Nvidia

Nvidia Open Model

暫無資料

32

32

1326

+3/-3

24,524

Cohere

CC-BY-NC-4.0

暫無資料

33

42

1323

+4/-4

14,229

Alibaba

Apache 2.0

暫無資料

33

38

1321

+7/-8

5,126

StepFun

Proprietary

暫無資料

33

31

1318

+8/-10

2,452

Tencent

Proprietary

暫無資料

34

39

1312

+11/-12

2,371

Nvidia

Nvidia

暫無資料

35

39

1320

+2/-2

54,951

OpenAI

Proprietary

2023/10

35

32

1319

+3/-3

36,971

OpenAI

Proprietary

暫無資料

38

32

1318

+2/-2

58,645

Google

Proprietary

暫無資料

38

33

1312

+8/-10

2,510

Tencent

Proprietary

暫無資料

41

18

1313

+4/-4

25,955

Anthropic

Proprietary

暫無資料

43

58

1307

+7/-8

7,379

Google

Gemma

暫無資料

44

21

1306

+4/-3

30,677

Anthropic

Proprietary

暫無資料

47

48

1304

+2/-2

67,084

xAI

Proprietary

2024/3

47

50

1303

+4/-3

28,968

01 AI

Proprietary

暫無資料

48

35

1301

+2/-2

117,747

OpenAI

Proprietary

2023/10

48

63

1298

+4/-6

10,715

Alibaba

Proprietary

暫無資料

50

25

1299

+2/-2

77,905

Anthropic

Proprietary

2024/4

50

55

1295

+6/-6

7,243

DeepSeek

DeepSeek

暫無資料

52

74

1292

+8/-9

4,321

Google

Gemma

暫無資料

55

43

1292

+4/-4

18,010

Meta

Llama 4

暫無資料

55

64

1291

+3/-3

26,074

NexusFlow

NexusFlow

暫無資料

55

60

1290

+3/-3

27,788

Zhipu AI

Proprietary

暫無資料

55

49

1288

+8/-7

3,856

Tencent

Proprietary

暫無資料

55

56

1287

+6/-8

6,302

OpenAI

Proprietary

暫無資料

56

70

1287

+3/-3

37,021

Google

Proprietary

暫無資料

56

79

1284

+5/-7

7,577

Nvidia

Llama 3.1

2023/12

57

61

1288

+2/-2

72,473

OpenAI

Proprietary

2023/10

59

41

1285

+2/-3

43,788

Meta

Llama 3.1 Community

2023/12

60

36

1284

+2/-2

86,159

Anthropic

Proprietary

2024/4

60

42

1283

+2/-2

63,038

Meta

Llama 3.1 Community

2023/12

61

41

1282

+3/-2

52,144

Google

Proprietary

Online

61

60

1277

+8/-10

4,014

Tencent

Proprietary

暫無資料

62

79

1282

+2/-3

55,442

xAI

Proprietary

2024/3

62

43

1281

+2/-2

47,973

OpenAI

Proprietary

2023/10

63

63

1279

+3/-4

17,432

Alibaba

Qwen

暫無資料

63

56

1277

+6/-6

7,451

Meta

Llama

暫無資料

71

79

1271

+7/-6

7,367

Mistral

Apache 2.0

暫無資料

72

57

1276

+2/-2

82,435

Google

Proprietary

2023/11

72

74

1274

+3/-3

26,344

DeepSeek

DeepSeek

暫無資料

72

61

1273

+3/-3

47,631

Meta

Llama-3.3

暫無資料

72

79

1273

+3/-3

41,519

Alibaba

Qwen

2024/9

73

56

1272

+2/-2

102,133

OpenAI

Proprietary

2023/12

78

86

1260

+10/-10

3,010

Ai2

Llama 3.1

暫無資料

79

64

1267

+2/-2

48,217

Mistral

Mistral Research

2024/7

79

79

1266

+4/-3

20,580

NexusFlow

CC-BY-NC-4.0

2024/7

79

61

1266

+2/-2

103,748

OpenAI

Proprietary

2023/4

79

79

1265

+3/-3

29,633

Mistral

MRL

暫無資料

79

62

1258

+9/-8

4,287

Mistral

Proprietary

暫無資料

80

86

1264

+2/-2

58,637

Meta

Llama 3.1 Community

2023/12

81

58

1263

+2/-1

202,641

Anthropic

Proprietary

2023/8

83

87

1261

+3/-3

26,371

Amazon

Proprietary

暫無資料

83

65

1261

+2/-2

97,079

OpenAI

Proprietary

2023/12

89

60

1254

+2/-2

49,399

Anthropic

Propretary

暫無資料

89

86

1251

+6/-7

7,948

Reka AI

Proprietary

暫無資料

89

88

1246

+7/-10

4,210

Tencent

Proprietary

暫無資料

92

90

1243

+2/-2

65,661

Google

Proprietary

2023/11

93

88

1237

+4/-6

9,125

AI21 Labs

Jamba Open

2024/3

93

96

1233

+8/-6

5,730

Alibaba

Apache 2.0

暫無資料

94

89

1236

+2/-2

79,538

Google

Gemma license

2024/6

94

98

1233

+4/-4

15,321

Mistral

Apache 2.0

暫無資料

94

106

1233

+3/-4

20,646

Amazon

Proprietary

暫無資料

94

90

1232

+5/-5

10,548

Princeton

MIT

2024/7

94

86

1228

+9/-10

3,889

Nvidia

Llama 3.1

2023/12

95

94

1231

+4/-6

10,535

Cohere

CC-BY-NC-4.0

2024/8

96

110

1228

+3/-3

37,697

Google

Proprietary

暫無資料

97

106

1222

+9/-11

3,460

Allen AI

Apache-2.0

暫無資料

99

105

1225

+3/-3

28,768

Cohere

CC-BY-NC-4.0

暫無資料

99

96

1225

+3/-4

20,608

Nvidia

NVIDIA Open Model

2023/6

99

99

1222

+5/-5

10,221

Zhipu AI

Proprietary

暫無資料

101

96

1221

+5/-5

8,132

Reka AI

Proprietary

暫無資料

102

110

1221

+4/-4

25,213

Microsoft

MIT

暫無資料

103

97

1222

+2/-1

163,629

Meta

Llama 3 Community

2023/12

106

96

1217

+2/-2

113,067

Anthropic

Proprietary

2023/8

109

119

1214

+3/-3

20,654

Amazon

Proprietary

暫無資料

111

120

1205

+10/-10

2,901

Tencent

Proprietary

暫無資料

112

121

1201

+10/-9

3,074

Ai2

Llama 3.1

暫無資料

113

109

1208

+2/-2

57,197

Google

Gemma license

2024/6

113

106

1206

+2/-2

80,846

Cohere

CC-BY-NC-4.0

2024/3

114

109

1203

+3/-2

38,872

Alibaba

Qianwen LICENSE

2024/6

114

92

1202

+2/-3

55,962

OpenAI

Proprietary

2021/9

114

119

1198

+7/-6

5,111

Mistral

MRL

暫無資料

115

121

1196

+7/-4

10,391

Cohere

CC-BY-NC-4.0

暫無資料

116

110

1196

+4/-5

10,851

Cohere

CC-BY-NC-4.0

2024/8

117

111

1195

+2/-2

122,309

Anthropic

Proprietary

2023/8

117

105

1194

+4/-4

15,753

DeepSeek AI

DeepSeek License

2024/6

117

120

1192

+5/-5

9,274

AI21 Labs

Jamba Open

2024/3

118

136

1192

+2/-2

52,578

Meta

Llama 3.1 Community

2023/12

126

105

1179

+2/-2

91,614

OpenAI

Proprietary

2021/9

126

121

1177

+3/-3

27,430

Alibaba

Qianwen LICENSE

2024/4

126

153

1169

+11/-10

3,410

Alibaba

Apache 2.0

暫無資料

127

136

1173

+4/-3

25,135

01 AI

Apache-2.0

2024/5

127

120

1173

+2/-2

64,926

Mistral

Proprietary

暫無資料

127

121

1172

+4/-5

16,027

Reka AI

Proprietary

Online

130

131

1168

+2/-2

109,056

Meta

Llama 3 Community

2023/3

130

143

1165

+4/-5

10,599

InternLM

Other

2024/8

131

125

1164

+2/-3

56,398

Cohere

CC-BY-NC-4.0

2024/3

131

131

1164

+3/-3

35,556

Mistral

Proprietary

暫無資料

131

124

1163

+3/-2

53,751

Mistral

Apache 2.0

2024/4

131

127

1163

+4/-4

25,803

Reka AI

Proprietary

2023/11

131

125

1163

+3/-2

40,658

Alibaba

Qianwen LICENSE

2024/2

131

128

1159

+8/-11

3,289

IBM

Apache 2.0

暫無資料

133

143

1160

+2/-3

48,892

Google

Gemma license

2024/7

140

124

1147

+4/-4

18,800

Google

Proprietary

2023/4

140

134

1143

+8/-7

4,854

HuggingFace

Apache 2.0

2024/4

141

137

1141

+3/-4

22,765

Alibaba

Qianwen LICENSE

2024/2

141

145

1135

+8/-10

3,380

IBM

Apache 2.0

暫無資料

142

143

1139

+4/-3

26,105

Microsoft

MIT

2023/10

142

154

1135

+3/-5

16,676

Nexusflow

Apache-2.0

2024/3

145

143

1130

+2/-2

76,126

Mistral

Apache 2.0

2023/12

145

149

1127

+4/-6

15,917

01 AI

Yi License

2023/6

145

133

1126

+6/-7

6,557

Google

Proprietary

2023/4

146

147

1125

+4/-4

18,687

Alibaba

Qianwen LICENSE

2024/2

147

147

1122

+6/-7

8,383

Microsoft

Llama 2 Community

2023/8

148

133

1122

+2/-2

68,867

OpenAI

Proprietary

2021/9

148

143

1119

+3/-3

33,743

Databricks

DBRX LICENSE

2023/12

148

151

1119

+7/-6

8,390

Meta

Llama 3.2

2023/12

148

151

1118

+4/-4

18,476

Microsoft

MIT

2023/10

149

152

1115

+6/-6

6,658

AllenAI/UW

AI2 ImpACT Low-risk

2023/11

152

143

1109

+8/-6

7,002

IBM

Apache 2.0

暫無資料

156

162

1109

+3/-3

39,595

Meta

Llama 2 Community

2023/7

156

149

1107

+4/-5

12,990

OpenChat

Apache-2.0

2024/1

156

156

1107

+4/-4

22,936

LMSYS

Non-commercial

2023/8

157

149

1106

+3/-3

34,173

Snowflake

Apache 2.0

2024/4

157

160

1104

+4/-5

10,415

UC Berkeley

CC-BY-NC-4.0

2023/11

157

166

1100

+7/-9

3,836

NousResearch

Apache-2.0

2024/1

158

151

1100

+4/-4

25,070

Google

Gemma license

2024/2

158

165

1097

+9/-9

3,636

Nvidia

Llama 2 Community

2023/11

162

151

1093

+9/-8

4,988

DeepSeek AI

DeepSeek License

2023/11

162

151

1092

+7/-6

8,106

OpenChat

Apache-2.0

2023/11

163

153

1090

+7/-8

5,088

NousResearch

Apache-2.0

2023/11

163

158

1090

+8/-7

7,191

IBM

Apache 2.0

暫無資料

164

169

1088

+4/-3

20,067

Mistral

Apache-2.0

2023/12

164

168

1087

+4/-5

12,808

Microsoft

MIT

2023/10

164

169

1086

+9/-7

4,872

Alibaba

Qianwen LICENSE

2024/2

164

165

1078

+14/-14

1,714

Cognitive Computations

Apache-2.0

2023/10

165

145

1083

+4/-4

17,036

OpenAI

Proprietary

2021/9

166

168

1078

+9/-9

4,286

Upstage AI

CC-BY-NC-4.0

2023/11

167

173

1082

+3/-4

21,097

Microsoft

MIT

2023/10

169

174

1079

+4/-4

19,722

Meta

Llama 2 Community

2023/7

172

169

1075

+7/-7

7,176

Microsoft

Llama 2 Community

2023/7

175

179

1070

+7/-6

8,523

Meta

Llama 3.2

2023/12

176

178

1069

+6/-4

11,321

HuggingFace

MIT

2023/10

176

172

1062

+11/-11

2,375

HuggingFace

Apache 2.0

暫無資料

176

169

1061

+11/-12

2,644

MosaicML

CC-BY-NC-SA-4.0

2023/6

176

177

1057

+15/-15

1,192

Meta

Llama 2 Community

2024/1

177

173

1056

+12/-13

1,811

HuggingFace

MIT

2023/10

180

178

1059

+6/-7

7,509

Meta

Llama 2 Community

2023/7

180

168

1050

+15/-15

1,327

TII

Falcon-180B TII License

2023/9

181

172

1058

+4/-4

19,775

LMSYS

Llama 2 Community

2023/7

181

178

1053

+4/-6

9,176

Google

Gemma license

2024/2

181

178

1053

+5/-5

21,622

Microsoft

MIT

2023/10

181

193

1053

+5/-5

14,532

Meta

Llama 2 Community

2023/7

181

171

1051

+8/-8

5,065

Alibaba

Qianwen LICENSE

2023/8

181

181

1049

+11/-11

2,996

UW

Non-commercial

2023/5

190

182

1037

+6/-5

11,351

Google

Gemma license

2024/2

191

185

1033

+7/-10

5,276

Together AI

Apache 2.0

2023/12

191

199

1031

+8/-7

6,503

Allen AI

Apache-2.0

2024/2

194

192

1023

+5/-5

9,142

Mistral

Apache 2.0

2023/9

194

193

1021

+6/-8

7,017

LMSYS

Llama 2 Community

2023/7

194

182

1019

+7/-5

8,713

Google

Proprietary

2021/6

199

197

1005

+8/-9

4,918

Google

Gemma license

2024/2

199

194

1004

+5/-7

7,816

Alibaba

Qianwen LICENSE

2024/2

201

200

980

+8/-6

7,020

UC Berkeley

Non-commercial

2023/4

201

201

971

+7/-9

4,763

Tsinghua

Apache-2.0

2023/10

202

201

948

+16/-16

1,788

Nomic AI

Non-commercial

2023/3

203

201

944

+9/-9

3,997

MosaicML

CC-BY-NC-SA-4.0

2023/5

203

206

940

+10/-10

2,713

Tsinghua

Apache-2.0

2023/6

203

206

937

+9/-8

4,920

RWKV

Apache 2.0

2023/4

207

201

917

+9/-7

5,864

Stanford

Non-commercial

2023/3

207

207

909

+9/-7

6,368

OpenAssistant

Apache 2.0

2023/4

208

209

895

+8/-10

4,983

Tsinghua

Non-commercial

2023/3

209

209

884

+9/-9

4,288

LMSYS

Apache 2.0

2023/4

211

212

856

+11/-11

3,336

Stability AI

CC-BY-NC-SA-4.0

2023/4

211

209

838

+10/-10

3,480

Databricks

MIT

2023/4

212

210

815

+14/-9

2,446

Meta

Non-commercial

2023/2

說明

  • 排名(UB):基於 Bradley-Terry 模型計算的排名。此排名反映了模型在競技場中的綜合表現,並提供了其 Elo 分數的 上界 估計,幫助理解模型的潛在競爭力。

  • 排名(StyleCtrl):經過對話風格控制後的排名。此排名旨在減少因模型回覆風格(例如冗長、簡潔)帶來的偏好偏差,更純粹地評估模型的核心能力。

  • 模型名:大型語言模型 (LLM) 的名稱。此列已嵌入模型相關連結,點擊可跳轉。

  • 分數:模型在競技場中透過使用者投票獲得的 Elo 評分。Elo 評分是一種相對排名系統,分數越高表示模型表現越好。該分數是動態變化的,反映了模型在當前競爭環境中的相對實力。

  • 置信區間:模型 Elo 評分的95%置信區間(例如:+6/-6)。這個區間越小,表示模型的評分越穩定和可靠;反之,區間越大可能意味著資料量不足或模型表現波動較大。它提供了對評分準確性的量化評估。

  • 票數:該模型在競技場中收到的總投票數量。投票數越多,通常意味著其評分的統計可靠性越高。

  • 服務商:提供該模型的組織或公司。

  • 許可協議:模型的許可協議類型,例如專有 (Proprietary)、Apache 2.0、MIT 等。

  • 知識截止日期:模型訓練資料的知識截止日期。暫無資料 表示相關資訊未提供或未知。

資料來源與更新頻率

本排行榜資料由 fboulnois/llm-leaderboard-csv 專案自動生成並提供,該專案從 lmarena.ai 獲取並處理資料。此排行榜由 GitHub Actions 每天自動更新。

免責聲明

本報告僅供參考。排行榜資料是動態變化的,並基於特定時間段內使用者在 Chatbot Arena 上的偏好投票。資料的完整性和準確性取決於上游資料源及 fboulnois/llm-leaderboard-csv 專案的更新和處理。不同模型可能採用不同的許可協議,使用時請務必參考模型提供商的官方說明。

Gemini-2.5-Pro
Gemini-2.5-Pro-Preview-05-06
ChatGPT-4o-latest (2025-03-26)
o3-2025-04-16
DeepSeek-R1-0528
Grok-3-Preview-02-24
Gemini-2.5-Flash
GPT-4.5-Preview
Gemini-2.5-Flash-Preview-04-17
Qwen3-235B-A22B-no-thinking
GPT-4.1-2025-04-14
DeepSeek-V3-0324
Hunyuan-Turbos-20250416
Minimax-M1
DeepSeek-R1
Mistral Medium 3
Claude Opus 4 (20250514)
Qwen3-235B-A22B
o1-2024-12-17
o4-mini-2025-04-16
Qwen2.5-Max
Gemini-2.0-Flash-001
Grok-3-Mini-beta
Gemma-3-27B-it
Qwen3-32B
o1-preview
Claude Sonnet 4 (20250514)
o3-mini-high
Gemma-3-12B-it
GPT-4.1-mini-2025-04-14
DeepSeek-V3
Mistral-Small-2506
QwQ-32B
GLM-4-Plus-0111
Gemini-2.0-Flash-Lite
Amazon-Nova-Experimental-Chat-05-14
Qwen-Plus-0125
Llama-3.1-Nemotron-Ultra-253B-v1
Command A (03-2025)
Qwen3-30B-A3B
Step-2-16K-Exp
Hunyuan-TurboS-20250226
Llama-3.3-Nemotron-Super-49B-v1
o1-mini
o3-mini
Gemini-1.5-Pro-002
Hunyuan-Turbo-0110
Claude 3.7 Sonnet (thinking-32k)
Gemma-3n-e4b-it
Claude 3.7 Sonnet
Grok-2-08-13
Yi-Lightning
GPT-4o-2024-05-13
Qwen2.5-plus-1127
Claude 3.5 Sonnet (20241022)
Deepseek-v2.5-1210
Gemma-3-4B-it
Llama-4-Maverick-17B-128E-Instruct
Athene-v2-Chat-72B
GLM-4-Plus
Hunyuan-Large-2025-02-10
GPT-4.1-nano-2025-04-14
Gemini-1.5-Flash-002
Llama-3.1-Nemotron-70B-Instruct
GPT-4o-mini-2024-07-18
Meta-Llama-3.1-405B-Instruct-bf16
Claude 3.5 Sonnet (20240620)
Meta-Llama-3.1-405B-Instruct-fp8
Gemini Advanced App (2024-05-14)
Hunyuan-Standard-2025-02-10
Grok-2-Mini-08-13
GPT-4o-2024-08-06
Qwen-Max-0919
Llama-4-Scout-17B-16E-Instruct
Mistral-Small-3.1-24B-Instruct-2503
Gemini-1.5-Pro-001
Deepseek-v2.5
Llama-3.3-70B-Instruct
Qwen2.5-72B-Instruct
GPT-4-Turbo-2024-04-09
Llama-3.1-Tulu-3-70B
Mistral-Large-2407
Athene-70B
GPT-4-1106-preview
Mistral-Large-2411
magistral-medium-2506
Meta-Llama-3.1-70B-Instruct
Claude 3 Opus
Amazon Nova Pro 1.0
GPT-4-0125-preview
Claude 3.5 Haiku (20241022)
Reka-Core-20240904
Hunyuan-Large-Vision
Gemini-1.5-Flash-001
Jamba-1.5-Large
Qwen2.5-Coder-32B-Instruct
Gemma-2-27B-it
Mistral-Small-24B-Instruct-2501
Amazon Nova Lite 1.0
Gemma-2-9B-it-SimPO
Llama-3.1-Nemotron-51B-Instruct
Command R+ (08-2024)
Gemini-1.5-Flash-8B-001
OLMo-2-0325-32B-Instruct
Aya-Expanse-32B
Nemotron-4-340B-Instruct
GLM-4-0520
Reka-Flash-20240904
Phi-4
Llama-3-70B-Instruct
Claude 3 Sonnet
Amazon Nova Micro 1.0
Hunyuan-Standard-256K
Llama-3.1-Tulu-3-8B
Gemma-2-9B-it
Command R+ (04-2024)
Qwen2-72B-Instruct
GPT-4-0314
Ministral-8B-2410
Aya-Expanse-8B
Command R (08-2024)
Claude 3 Haiku
DeepSeek-Coder-V2-Instruct
Jamba-1.5-Mini
Meta-Llama-3.1-8B-Instruct
GPT-4-0613
Qwen1.5-110B-Chat
QwQ-32B-Preview
Yi-1.5-34B-Chat
Mistral-Large-2402
Reka-Flash-21B-online
Llama-3-8B-Instruct
InternLM2.5-20B-chat
Command R (04-2024)
Mistral Medium
Mixtral-8x22b-Instruct-v0.1
Reka-Flash-21B
Qwen1.5-72B-Chat
Granite-3.1-8B-Instruct
Gemma-2-2b-it
Gemini-1.0-Pro-001
Zephyr-ORPO-141b-A35b-v0.1
Qwen1.5-32B-Chat
Granite-3.1-2B-Instruct
Phi-3-Medium-4k-Instruct
Starling-LM-7B-beta
Mixtral-8x7B-Instruct-v0.1
Yi-34B-Chat
Gemini Pro
Qwen1.5-14B-Chat
WizardLM-70B-v1.0
GPT-3.5-Turbo-0125
DBRX-Instruct-Preview
Meta-Llama-3.2-3B-Instruct
Phi-3-Small-8k-Instruct
Tulu-2-DPO-70B
Granite-3.0-8B-Instruct
Llama-2-70B-chat
OpenChat-3.5-0106
Vicuna-33B
Snowflake Arctic Instruct
Starling-LM-7B-alpha
Nous-Hermes-2-Mixtral-8x7B-DPO
Gemma-1.1-7B-it
NV-Llama2-70B-SteerLM-Chat
DeepSeek-LLM-67B-Chat
OpenChat-3.5
OpenHermes-2.5-Mistral-7B
Granite-3.0-2B-Instruct
Mistral-7B-Instruct-v0.2
Phi-3-Mini-4K-Instruct-June-24
Qwen1.5-7B-Chat
Dolphin-2.2.1-Mistral-7B
GPT-3.5-Turbo-1106
SOLAR-10.7B-Instruct-v1.0
Phi-3-Mini-4k-Instruct
Llama-2-13b-chat
WizardLM-13b-v1.2
Meta-Llama-3.2-1B-Instruct
Zephyr-7B-beta
SmolLM2-1.7B-Instruct
MPT-30B-chat
CodeLlama-70B-instruct
Zephyr-7B-alpha
CodeLlama-34B-instruct
falcon-180b-chat
Vicuna-13B
Gemma-7B-it
Phi-3-Mini-128k-Instruct
Llama-2-7B-chat
Qwen-14B-Chat
Guanaco-33B
Gemma-1.1-2b-it
StripedHyena-Nous-7B
OLMo-7B-instruct
Mistral-7B-Instruct-v0.1
Vicuna-7B
PaLM-Chat-Bison-001
Gemma-2B-it
Qwen1.5-4B-Chat
Koala-13B
ChatGLM3-6B
GPT4All-13B-Snoozy
MPT-7B-Chat
ChatGLM2-6B
RWKV-4-Raven-14B
Alpaca-13B
OpenAssistant-Pythia-12B
ChatGLM-6B
FastChat-T5-3B
StableLM-Tuned-Alpha-7B
Dolly-V2-12B
LLaMA-13B
Logo
Logo