仅本页所有页面
由 GitBook 提供支持
1 / 92

中文 (繁體)

Cherry Studio

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

基礎教學

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

知識庫教學

Loading...

Loading...

Loading...

Loading...

進階教學

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

項目貢獻

Loading...

Loading...

問題&回饋

Loading...

Loading...

Loading...

Loading...

聯繫我們

Loading...

Loading...

關於

Loading...

其他內容

Loading...

Loading...

功能介紹

此文件由 AI 從中文翻譯而來,尚未經過審閱。

功能一覽

項目規劃

此文件由 AI 從中文翻譯而來,尚未經過審閱。

專案規劃

To-Do List

客戶端下載

此文件由 AI 從中文翻譯而來,尚未經過審閱。

當前最新正式版:v1.5.11

直鏈下載

Windows 版本

注意:Windows 7 系統不支援安裝 Cherry Studio。

安裝版(Setup)

x64 版本

主線路:

【Cherry Studio 官網】 【GitHub】

備用線路:

【線路1】 【線路2】 【線路3】

ARM64 版本

主線路:

【Cherry Studio 官網】 【GitHub】

備用線路:

【線路1】 【線路2】 【線路3】

便攜版(Portable)

x64 版本

主線路:

【Cherry Studio 官網】 【GitHub】

備用線路:

【線路1】 【線路2】 【線路3】

ARM64 版本

主線路:

【Cherry Studio 官網】 【GitHub】

備用線路:

【線路1】 【線路2】 【線路3】


macOS 版本

Intel 晶片版本(x64)

主線路:

【Cherry Studio 官網】 【GitHub】

備用線路:

【線路1】 【線路2】 【線路3】

Apple Silicon 版本(ARM64,M 系列晶片)

主線路:

【Cherry Studio 官網】 【GitHub】

備用線路:

【線路1】 【線路2】 【線路3】


Linux 版本

x86_64 版本

主線路:

【Cherry Studio 官網】 【GitHub】

備用線路:

【線路1】 【線路2】 【線路3】

ARM64 版本

主線路:

【Cherry Studio 官網】 【GitHub】

備用線路:

【線路1】 【線路2】 【線路3】


網盤下載

夸克

項目簡介

此文件由 AI 從中文翻譯而來,尚未經過審閱。

關注我們的社群帳號:、、、、

加入我們的社群:、、、


Cherry Studio 是一款集多模型對話、知識庫管理、AI 繪畫、翻譯等功能於一體的 AI 助手平台。 Cherry Studio 高度自訂的設計、強大的擴展能力和友善的使用者體驗,使其成為專業使用者與 AI 愛好者的理想選擇。無論是零基礎使用者還是開發者,都能在 Cherry Studio 中找到適合自己的 AI 功能,提升工作效率與創造力。


核心功能與特色

1. 基礎對話功能

  • 一問多答:支援同一問題透過多個模型同時生成回覆,方便使用者對比不同模型的表現,詳見 。

  • 自動分組:每個助手的對話記錄會自動分組管理,便於使用者快速查閱歷史對話。

  • 對話匯出:支援將完整對話或部分對話匯出為多種格式(如 Markdown、Word 等),方便儲存與分享。

  • 高度自訂參數:除基礎參數調整外,還支援使用者填寫自訂參數,滿足個性化需求。

  • 助手市集:內建千餘個產業專用助手,涵蓋翻譯、程式設計、寫作等領域,同時支援使用者自訂助手。

  • 多種格式渲染:支援 Markdown 渲染、公式渲染、HTML 即時預覽等功能,提升內容展示效果。

2. 多種特色功能整合

  • AI 繪畫:提供專用繪畫面板,使用者可透過自然語言描述生成高品質圖像。

  • AI 小工具:整合多種免費 Web 端 AI 工具,無需切換瀏覽器即可直接使用。

  • 翻譯功能:支援專用翻譯面板、對話翻譯、提示詞翻譯等多種翻譯情境。

  • 檔案管理:對話、繪畫和知識庫中的檔案統一分類管理,避免繁瑣查詢。

  • 全域搜尋:支援快速定位歷史記錄與知識庫內容,提升工作效率。

3. 多服務商統一管理機制

  • 服務商模型聚合:支援 OpenAI、Gemini、Anthropic、Azure 等主流服務商的模型統一呼叫。

  • 模型自動獲取:一鍵獲取完整模型列表,無需手動設定。

  • 多 API 金鑰輪詢:支援多個 API 金鑰輪換使用,避免速率限制問題。

  • 精準頭像匹配:為每個模型自動匹配專屬頭像,提升辨識度。

  • 自訂服務商:支援符合 OpenAI、Gemini、Anthropic 等規範的第三方服務商接入,相容性強。

4. 高度自訂介面與佈局

  • 自訂 CSS:支援全域樣式自訂,打造專屬介面風格。

  • 自訂對話佈局:支援清單或氣泡樣式佈局,並可自訂訊息樣式(如程式碼片段樣式)。

  • 自訂頭像:支援為軟體和助手設定個性化頭像。

  • 自訂側邊欄選單:使用者可根據需求隱藏或排序側邊欄功能,優化使用體驗。

5. 本機知識庫系統

  • 多種格式支援:支援 PDF、DOCX、PPTX、XLSX、TXT、MD 等多種檔案格式匯入。

  • 多種資料來源支援:支援本機檔案、網址、站點地圖甚至手動輸入內容作為知識庫來源。

  • 知識庫匯出:支援將處理好的知識庫匯出並分享給他人使用。

  • 支援搜尋檢查:知識庫匯入後,使用者可即時檢索測試,查看處理結果與分段效果。

6. 特色聚焦功能

  • 快速問答:在任何情境(如微信、瀏覽器)中呼出快捷助手,快速取得答案。

  • 快速翻譯:支援快速翻譯其他情境中的詞彙或文字。

  • 內容總結:對長文字內容進行快速總結,提升資訊提取效率。

  • 解釋說明:無需複雜提示詞,一鍵解釋說明不懂的問題。

7. 資料保障

  • 多重備份方案:支援本機備份、WebDAV 備份和定時備份,確保資料安全。

  • 資料安全:支援全本機場景使用,結合本機大模型,避免資料洩漏風險。


專案優勢

  1. 入門門檻低:Cherry Studio 致力降低技術門檻,零基礎使用者也能快速上手,讓使用者專注於工作、學習或創作。

  2. 文件完善:提供詳細的使用文件與常見問題處理手冊,協助使用者快速解決問題。

  3. 持續迭代:專案團隊積極回應使用者回饋,持續優化功能,確保專案健康發展。

  4. 開源與擴展性:支援使用者透過開原始碼進行自訂與擴展,滿足個性化需求。


適用情境

  • 知識管理與查詢:透過本機知識庫功能,快速建構與查詢專屬知識庫,適用於研究、教育等領域。

  • 多模型對話與創作:支援多模型同時對話,協助使用者快速獲取資訊或產製內容。

  • 翻譯與辦公室自動化:內建翻譯助手與檔案處理功能,適合需要跨語言交流或文件處理的使用者。

  • AI 繪畫與設計:透過自然語言描述產製圖像,滿足創意設計需求。

Star History

關注我們的社群帳號

小程序

此文件由 AI 從中文翻譯而來,尚未經過審閱。

小程序

在小程序頁面你可以在用戶端內使用各大服務商 AI 相關程式的網頁版,目前暫不支援自訂新增和刪除。

知識庫

此文件由 AI 從中文翻譯而來,尚未經過審閱。

知識庫

知識庫使用可參考進階教程中的 知識庫教程。

檔案

此文件由 AI 從中文翻譯而來,尚未經過審閱。

檔案

檔案頁面會顯示所有對話、繪圖、知識庫等相關文件,可在此頁面集中管理及查看。

設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

設定

預設模型設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

預設模型設定

預設助手模型

當助手未設置預設助手模型時,其新對話當中預設選擇的模型為此處設置的模型。

優化提示詞、劃詞助手使用的也是此處設置的模型。

話題命名模型

每次對話後會調用模型為對話生成一個話題名稱,此處設置的模型為命名時所使用的模型。

翻譯模型

對話、繪畫等輸入框當中的翻譯功能,翻譯介面的翻譯模型都使用的是此處設置的模型。

快捷助手模型

快捷助手功能使用的模型,詳見 快捷助手

常規設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

常規設定

在此頁面可設定軟體的介面語言、設定代理等。

快捷鍵設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

快捷鍵設置

在此介面可啟(停)用與設定部分功能的快捷鍵,具體操作請遵循介面指示進行設置。

模型服務配置

此文件由 AI 從中文翻譯而來,尚未經過審閱。

模型服務配置

資料設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

數據設定

OneAPI 及其分支項目

此文件由 AI 從中文翻譯而來,尚未經過審閱。

OneAPI及其分支項目

個性化設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

個性化設定

貢獻文件

此文件由 AI 從中文翻譯而來,尚未經過審閱。

貢獻文檔

郵件聯繫 [email protected] 獲取編輯身份

標題:申請 Cherry Studio Docs 編輯身份

正文:填寫申請理由

推特(X)
小紅書
微博
嗶哩嗶哩
抖音
QQ群(575014769)
Telegram
Discord
微信群(點擊查看)
對話介面
Star History
Cover

Cover

Cover

Cover

Cover

繪畫

此文件由 AI 從中文翻譯而來,尚未經過審閱。

繪畫

繪畫功能目前支援 DMXAPI、TokenFlux、AiHubMix 和 的繪畫模型,你可以到 註冊一個帳戶 來使用。

有關參數的疑問可以將滑鼠懸停在對應區域的 ? 處檢視介紹。

後續將會增加更多服務商,敬請期待。

Windows

Windows 版本安装教程

此文件由 AI 從中文翻譯而來,尚未經過審閱。

打開官方網站

注意:Windows 7系統不支援安裝 Cherry Studio。

點擊下載選擇合適的版本

等待下載完成

如果出現瀏覽器提示檔案不被信任等情況,選擇保留即可

選擇保留 → 信任 Cherry-Studio

開啟檔案

安裝

資料設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

該介面可進行數據本地與雲端備份恢復、本地數據目錄查詢與清除快取、匯出設定及第三方連接等操作。

數據備份

數據備份目前支援本地備份、WebDAV 備份與 S3 相容儲存(物件儲存)備份三種方式。詳細說明與教學請參考以下文件:

匯出設定

匯出設定可配置導出選單顯示的匯出項目,另可設定 Markdown 匯出的預設路徑、顯示樣式等。

第三方連接

第三方連接可配置 Cherry Studio 與第三方應用的整合,用於快速導出對話內容至您熟悉的知識管理應用。目前支援的應用包括:Notion、Obsidian、思源筆記、語雀、Joplin,詳細配置教學請參考以下文件:

顯示設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

在此頁面你可以設定軟體的顏色主題、頁面佈局或者 來進行一些個人化的設定。

主題選擇

你可以在此處設定預設的介面色彩模式(淺色模式、深色模式或跟隨系統)

話題設定

此設定是針對對話介面的佈局進行調整。

話題位置

自動切換到話題

當開啟該設定時,點擊助手名稱頁面會自動切換到對應話題頁面。

顯示話題時間

開啟時會在話題下方顯示話題 建立 的時間。

自訂 CSS

透過此設定可彈性地對介面進行個性化更改和設定。具體方法參考進階教學中的 。

OneAPI

此文件由 AI 從中文翻譯而來,尚未經過審閱。

OneAPI

  • 登入並進入令牌頁面

  • 建立新令牌(亦可直接使用default令牌↑)

  • 複製令牌

  • 開啟CherryStudio的服務商設置,點擊服務商列表最下方的新增

  • 輸入備註名稱,提供商選OpenAI,點擊確認

  • 填入剛剛複製的key

  • 回到取得API Key的頁面,在對應瀏覽器網址列複製根網址,例如:

  • 當地址為IP+連接埠時,填寫http://IP:連接埠即可,例如:http://127.0.0.1:3000

  • 嚴格區分http和https,若未啟用SSL請勿填寫https

  • 新增模型(點擊管理自動取得或手動輸入),開啟右上角開關即可使用

OneAPI其他主題介面可能有所不同,但新增方法與上述操作流程一致。

OpenAI

此文件由 AI 從中文翻譯而來,尚未經過審閱。

取得APIKey

  • 在官方點擊+ Create new secret key

  • 將生成的key複製,並打開CherryStudio的

  • 找到服務商OpenAI,填入剛剛獲取到的key

  • 點擊最下方管理或者添加,加入支援的模型並打開右上角服務商開關就可以使用了。

  • 中國除台灣之外其他地區無法直接使用OpenAI服務,需自行解決代理問題;

  • 需要有餘額。

智能體

此文件由 AI 從中文翻譯而來,尚未經過審閱。

智能代理

智能代理頁面是一個助手廣場,在這裡你可以選擇或搜尋想要的模型預設,點擊卡片後即可將助手新增到對話頁面的助手清單中。

你也可以在頁面中編輯和建立自己的助手。

  • 點擊 我的,再點擊 創建智能代理 即可開始建立自己的助手。

提示詞輸入框右上角按鈕為 AI 最佳化提示詞按鈕,點擊後會覆蓋原文。所使用的模型為 。

S3 相容儲存備份

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Cherry Studio 資料備份支援透過 S3 兼容儲存(物件儲存)的方式進行備份。常見的 S3 兼容儲存服務有:AWS S3、Cloudflare R2、阿里雲 OSS、騰訊雲 COS 以及 MinIO 等。

基於 S3 兼容儲存可透過 A電腦 S3儲存 B電腦 的方式來實現多端資料同步。

配置 S3 兼容儲存

  1. 建立物件儲存桶(Bucket),並記錄下儲存桶名稱。強烈建議將儲存桶設定為私有讀寫以避免備份資料外洩!!

  2. 參考文件,前往雲端服務控制台取得 S3 兼容儲存的 Access Key ID、Secret Access Key、Endpoint、Bucket、Region 等資訊。

    • Endpoint:S3 兼容儲存的存取位址,通常形如 https://<bucket-name>.<region>.amazonaws.com 或 https://<ACCOUNT_ID>.r2.cloudflarestorage.com。

    • Region:儲存桶所在的區域,例如 us-west-1、ap-southeast-1 等,Cloudflare R2 請填寫 auto。

    • Bucket:儲存桶名稱。

    • Access Key ID 與 Secret Access Key:用於身分驗證的憑證。

    • Root Path:選填,指定備份到儲存桶時的根路徑,預設為空。

    • 相關文件

      • AWS S3:

      • Cloudflare R2:

      • 阿里雲 OSS:

      • 騰訊雲 COS:

  3. 在 S3 備份設定中填寫上述資訊,點擊備份按鈕即可進行備份,點擊管理按鈕可檢視和管理備份檔案清單。

知識庫文件預處理

此文件由 AI 從中文翻譯而來,尚未經過審閱。

知識庫文件預處理 需要將 Cherry Studio 升級至 v1.4.8 或更高版本。

配置OCR服務商

點擊獲取API KEY後會在瀏覽器打開申請地址,點擊立即申請填寫表單後獲取API KEY,並將其填入API KEY中。

配置知識庫文件預處理

在創建好的知識庫中進行如上配置,即可完成知識庫文件預處理配置。

上傳文件

可以通過右上角搜索對知識庫結果檢測

在對話中使用

知識庫使用Tips: 使用能力較強的模型時可以將知識庫搜索模式修改為意圖識別,意圖識別可以更準確、廣泛的描述您的問題。

開啟知識庫意圖識別

字型推薦

此文件由 AI 從中文翻譯而來,尚未經過審閱。

字體推薦

GitHub Copilot

此文件由 AI 從中文翻譯而來,尚未經過審閱。

GitHub Copilot

使用 GitHub Copilot 需要先擁有一個 GitHub 帳號,並訂閱 GitHub Copilot 服務,免費版本的訂閱也可以,但免費版本不支援最新的 Claude 3.7 模型,具體請參考 。

取得 Device Code

點擊「登入 GitHub」,取得 Device Code 並複製。

在瀏覽器中填寫 Device Code 並授權

成功取得 Device Code 後,點擊連結開啟瀏覽器,在瀏覽器中登入 GitHub 帳號,輸入 Device Code 並授權。

授權成功後,返回 Cherry Studio,點擊「連接 GitHub」,成功後會顯示 GitHub 使用者名稱和頭像。

點擊「管理」取得模型清單

點擊下方的「管理」按鈕,會自動連網取得當前支援的模型清單。

常見問題

取得 Device Code 失敗,請重試

目前使用 Axios 構建請求,Axios 不支援 socks 代理,請使用系統代理或 HTTP 代理,或者直接不在 CherryStudio 中設定代理,使用全域代理。首先請確保您的網路連線正常,以避免取得 Device Code 失敗的情況。

清除 CSS 設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

清除CSS設定

當設定了錯誤的CSS,或在設定CSS後無法進入設定界面時,使用此方法清除CSS設定。

  • 開啟控制台:點擊CherryStudio視窗,按下快捷鍵Ctrl+Shift+I(MacOS:command+option+I)。

  • 在彈出的控制台視窗中,點選Console標籤頁

  • 手動輸入document.getElementById('user-defined-custom-css').remove()(複製貼上通常不會被執行)。

  • 輸入完成後按Enter確認,即可清除CSS設定。隨後再次進入CherryStudio的顯示設定中刪除有問題的CSS程式碼。

硅基流動
硅基流動
新增到服務商
WebDAV 備份教學
S3 相容儲存備份
Notion 設定教學
Obsidian 設定教學
思源筆記設定教學
全域預設助手模型
→備份\xrightarrow{\text{備份}}備份​
→恢復\xrightarrow{\text{恢復}}恢復​
取得 Access Key ID 和 Secret Access Key
取得 Access Key ID 和 Secret Access Key
取得 Access Key ID 和 Access Key Secret
取得 SecretId 和 SecretKey
自訂 CSS
自訂 CSS
只需複製https://xxx.xxx.com即可,「/」及其後內容無需複製
API Key頁面
Drawing
服務商設定

Monaspace

英文字體 可商用

GitHub 推出了名為 Monaspace 的開源字體家族,擁有五種風格可選:Neon(現代風格)、Argon(人文風格)、Xenon(襯線風格)、Radon(手寫風格)、Krypton(機械風格)。

MiSans Global

多語言 可商用

MiSans Global 是由小米主導,聯合蒙納字庫、漢儀字庫共同打造的全球語言字體定制項目。

這是一個龐大的字體家族,涵蓋 20 多種書寫系統,支持 600 多種語言。

GitHub Copilot 官網
取得 Device Code 示意圖
取得 Device Code
GitHub授權示意圖
GitHub 授權
GitHub連接成功示意圖
GitHub 連接成功
管理按鈕取得模型清單示意圖
取得模型清單
取得 Device Code 失敗示意圖
取得 Device Code 失敗

安裝教學

此文件由 AI 從中文翻譯而來,尚未經過審閱。

安裝教學

CherryIN

此文件由 AI 從中文翻譯而來,尚未經過審閱。

MCP 使用教學

此文件由 AI 從中文翻譯而來,尚未經過審閱。

MCP 使用教學

免費聯網模式

此文件由 AI 從中文翻譯而來,尚未經過審閱。

免費聯網模式

內建 MCP 配置

此文件由 AI 從中文翻譯而來,尚未經過審閱。

內建 MCP 配置

@cherry/mcp-auto-install

自動安裝 MCP 服務(測試版)

@cherry/memory

基於本體知識圖譜的持久性記憶基礎實現。這使得模型能夠在不同對話間記住用戶的相關資訊。

MEMORY_FILE_PATH=/path/to/your/file.json

@cherry/sequentialthinking

一個 MCP 伺服器實現,提供了透過結構化思維過程進行動態和反思性問題解決的工具。

@cherry/brave-search

一個整合了 Brave 搜尋 API 的 MCP 伺服器實現,提供網頁與本地搜尋雙重功能。

BRAVE_API_KEY=YOUR_API_KEY

@cherry/fetch

用於取得 URL 網頁內容的 MCP 伺服器。

@cherry/filesystem

實現檔案系統操作的模型上下文協議(MCP)的 Node.js 伺服器。

回饋與建議

此文件由 AI 從中文翻譯而來,尚未經過審閱。

意見回饋與建議

Telegram 討論群組

討論群組成員會分享使用經驗,協助您解決問題

加入 Telegram 討論群組獲取協助:https://t.me/CherryStudioAI

QQ 群組

QQ 群成員可互相協助,分享下載連結

QQ群(1025067911)

Github Issues

適合記錄重要事項防止開發者遺忘,或參與功能討論

Github Issues 提交:https://github.com/CherryHQ/cherry-studio/issues/new/choose

電子郵件

若未找到其他回饋管道,可聯繫開發者獲取協助

開發者聯絡郵箱:[email protected]

貢獻程式碼

此文件由 AI 從中文翻譯而來,尚未經過審閱。

貢獻程式碼

我們歡迎對 Cherry Studio 的貢獻!您可以通過以下方式貢獻:

1. 貢獻程式碼: 開發新功能或優化現有程式碼。

2. 修復錯誤: 提交您發現的錯誤修復。

3. 維護問題: 協助管理 GitHub 問題。

4. 產品設計: 參與設計討論。

5. 撰寫文件: 改進使用者手冊和指南。

6. 社群參與: 加入討論並幫助使用者。

7. 推廣使用: 宣傳 Cherry Studio。

參與方式

發送郵件至 [email protected]

郵件標題:申請成為開發者

郵件內容:申請理由

小紅書
嗶哩嗶哩
微博
抖音
推特(X)
打開官方網站
Edge 瀏覽器正在下載
Edge 下載列表
軟體安裝介面

快捷助手

此文件由 AI 從中文翻譯而來,尚未經過審閱。

快捷助手

快捷助手是 Cherry Studio 提供的便捷工具,允許您在任何應用程式中快速存取 AI 功能,實現即時提問、翻譯、摘要和解釋等操作。

啟用快捷助手

  1. 開啟設定: 導覽至 設定 -> 快速鍵 -> 快捷助手。

  2. 啟用開關: 找到並開啟 快捷助手 對應按鈕。

啟用快捷助手示意圖
  1. 設定快速鍵(選用):

    • Windows 預設快速鍵為 Ctrl + E。

    • macOS 預設快速鍵為 ⌘ + E。

    • 您可在此自訂快速鍵以避免衝突或符合個人使用習慣。

使用快捷助手

  1. 喚起功能: 在任何應用程式中,按下設定好的快速鍵(或預設快速鍵)即可開啟快捷助手。

  2. 功能操作: 在快捷助手視窗中可直接進行:

    • 即時提問: 向 AI 提出任何疑問。

    • 文字翻譯: 輸入待翻譯文字內容。

    • 內容摘要: 輸入長文字進行重點摘要。

    • 術語解釋: 輸入需說明的概念或專有名詞。

      快捷助手介面示意圖
  3. 關閉視窗: 按下 ESC 鍵或點擊視窗外任意位置即可關閉。

快捷助手採用 全域預設對話模型。

使用提示與技巧

  • 快速鍵衝突: 若預設快速鍵與其他應用程式衝突,請修改設定。

  • 探索進階功能: 除說明文件功能外,快捷助手可能支援程式碼生成、風格轉換等操作,建議持續嘗試發掘。

  • 問題回報與建議: 使用時如遇問題或有功能改進建議,請隨時向 Cherry Studio 團隊 提交回饋。

矽基流動

此文件由 AI 從中文翻譯而來,尚未經過審閱。

矽基流動

1. 配置 SiliconCloud 的模型服務

​1.2 點擊左下角的設定,在模型服務中選擇【矽基流動】

​1.2 點擊連結取得 SiliconCloud API 金鑰

  1. 登入SiliconCloud(若未註冊首次登入會自動註冊帳號)

  2. 訪問API 金鑰新增或複製已有金鑰

​1.3 點擊管理新增模型

​2. 模型服務使用

  1. 點擊左側選單欄的「對話」按鈕

  2. 在輸入框內輸入文字即可開始聊天

  3. 可以選擇頂端選單中的模型名稱切換模型

macOS

macOS 版本安装教程

此文件由 AI 從中文翻譯而來,尚未經過審閱。

macOS

  1. 首先到官網下載頁面點擊下載 Mac 版本,或點擊下方直達

請注意下載 自己 Mac 對應的晶片版本

如果不知道自己的 Mac 應當使用什麼晶片版本:

  • 點擊 Mac 左上角選單欄 

  • 在展開選單中點擊關於本機

  • 在彈出視窗中查看處理器資訊

如果為 Intel 晶片則下載 Intel 版本安裝包

如果為 Apple M* 晶片則下載 Apple 晶片安裝包

  1. 下載完成後點擊這裡

  1. 拖曳圖示安裝

到啟動台中尋找 Cherry Studio 圖示並點擊,能打開 Cherry Studio 主介面則安裝成功。

NewAPI

此文件由 AI 從中文翻譯而來,尚未經過審閱。

NewAPI

  • 登入並開啟令牌頁面

  • 點擊添加令牌

  • 輸入令牌名稱後點擊提交(其他設定如有需要可自行設定)

  • 開啟CherryStudio的服務商設定點擊服務商列表最下方的添加

  • 輸入備註名稱,提供商選OpenAI,點擊確定

  • 填入剛剛複製的key

  • 回到獲取API Key的頁面,在對應瀏覽器地址欄複製根地址,例:

只需要複製https://xxx.xxx.com即可,“/”及其之後的內容不需要
  • 當地址為IP+端口時填http://IP:端口即可,如:http://127.0.0.1:3000

  • 嚴格區分http和https,如果沒有開啟SSL就不要填https

  • 添加模型(點擊管理自動獲取或手動輸入)開啟右上角開關即可使用。

阿里雲百煉

此文件由 AI 從中文翻譯而來,尚未經過審閱。

阿里雲百煉

  1. 登入 阿里雲百煉,沒有阿里雲帳號的話需要註冊。

  2. 點擊右上角的 建立我的 API-KEY 按鈕。

阿里雲百煉建立API金鑰
  1. 在彈出的視窗中選擇預設業務空間(或者你也可以自訂),如果需要可以填寫描述。

阿里雲百煉建立API金鑰彈窗
  1. 點擊右下角的 確定 按鈕。

  2. 隨後,你應該能看到列表中新增了一行,點擊右側的 檢視 按鈕。

    阿里雲百煉檢視API金鑰
  3. 點擊 複製 按鈕。

    阿里雲百煉複製API金鑰
  4. 轉到 Cherry Studio,在 設定 → 模型服務 → 阿里雲百煉 中找到 API 金鑰 ,將複製的 API 金鑰貼上到這裡。

    阿里雲百煉填入API金鑰
  5. 可以按照 模型服務 中的介紹調整相關設定,之後就能使用了。

如果發現模型列表中沒有阿里雲百煉的模型,請確認已經按照 模型服務 中的介紹新增模型,並啟用了這個供應商。

Vertex AI

暂时不支持Claude模型

此文件由 AI 從中文翻譯而來,尚未經過審閱。

教程概述

1. 取得 API 金鑰

  • 取得 Gemini 的 API 金鑰前,您需要有一個 Google Cloud 專案(若已有專案可跳過此步驟)

  • 前往 Google Cloud 建立專案,填寫專案名稱並點擊建立專案

  • 進入 Vertex AI 控制台

  • 在建立的專案中啟用 Vertex AI API

2. 設定 API 存取權限

  • 開啟 服務帳號 權限介面,建立服務帳號

  • 在服務帳號管理頁面找到新建的服務帳號,點擊金鑰並建立新的 JSON 格式金鑰

  • 建立成功後,金鑰檔案將以 JSON 格式自動儲存到您的電腦,請 妥善保存

3. 在Cherry Studio中設定Vertex AI

  • 選擇Vertex AI服務供應商

  • 將JSON檔案的對應欄位填入

點擊新增 模型,即可開始使用!

Google Gemini

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Google Gemini

取得APIKey

  • 取得 Gemini 的 api key 前,你需要有一個 Google Cloud 專案(如果你已有,此過程可跳過)

  • 進入 Google Cloud 建立專案,填寫專案名稱並點擊建立專案

  • 在官方 API Key頁面 點擊 密鑰 創建API密鑰

  • 將生成的 key 複製,並打開 CherryStudio 的 服務商設定

  • 找到服務商 Gemini,填入剛剛取得的 key

  • 點擊最下方管理或新增,加入支援的模型並開啟右上角服務商開關即可使用。

  • 中國除台灣之外其他地區無法直接使用 Google Gemini 服務,需自行解決代理問題;

Notion 配置教學

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Notion 配置教學

Cherry Studio 支援將話題導入 Notion 的數據庫。

第一步

開啟網站 Notion Integrations 建立應用程式

點擊加號建立應用程式

第二步

建立應用程式

填寫應用程式資訊

名稱:Cherry Studio

類型:選擇第一個

圖示:可以保存此圖片

第三步

複製金鑰並填寫到 Cherry Studio 設定中

點擊複製金鑰
將金鑰填寫到數據設定中

第四步

開啟 Notion 網站建立新頁面,在下方選擇數據庫類型,名稱填寫 Cherry Studio,按照圖示操作連接

建立新頁面選擇數據庫類型
輸入頁面名稱,並選擇連接到 APP

第五步

複製數據庫 ID

若您的 Notion 數據庫 URL 類似:

https://www.notion.so/<long_hash_1>?v=<long_hash_2>

則 Notion 數據庫 ID 就是 <long_hash_1> 部分

填寫數據庫 ID 並點擊檢查

第六步

填寫 頁面標題欄位名稱:

若網頁顯示英文,填寫 Name 若網頁顯示中文,填寫 名稱

填寫頁面標題欄位名稱

第七步

恭喜!Notion 配置已完成 ✅ 接下來可將 Cherry Studio 內容匯出到您的 Notion 數據庫

匯出到 Notion
查看匯出結果

Tavily 聯網登入註冊教學

如何注册tavily?

此文件由 AI 從中文翻譯而來,尚未經過審閱。

tavily聯網登入註冊教程

一、tavily官網

https://app.tavily.com/home

有的同學訪問可能比較慢,如果有代理,可以使用代理。

二、tavily註冊詳細步驟

訪問上述官網,或者從cherry studio-設定-網路搜尋-點擊取得秘鑰,會直接跳轉到tavily登入註冊頁面。

如果是第一次使用,要先註冊一個(Sign up)帳號,才能登入(Log in)使用。預設跳轉的是登入頁面哦。

  1. 點擊註冊帳號,進入下面的界面,輸入自己的常用信箱,或者使用谷歌、github帳號,然後下一步輸入密碼,常規操作。

註冊帳號
  1. 🚨🚨🚨【關鍵步驟】 註冊成功後,會有一個動態驗證碼的步驟,需要掃描二維碼,產生一次性Code才能繼續使用。

很多同學卡在這一步,人麻了....莫慌

很簡單,此時你有2個辦法。

  1. 下載一個驗證身份的APP,微軟出的—— Authenticator 【略微繁瑣】

  2. 使用微信小程式:騰訊身份驗證器 。【簡單,有手就行,建議】

  1. 開啟微信小程式,搜尋:騰訊身份驗證器

微信小程式-搜尋-點擊開啟
點擊後,掃描剛才tavily頁面的二維碼
你會得到一串數字
複製到tavily頁面
會提示你複製code到安全的地方,聽勸照做,雖然不咋會用上

三、🎉註冊成功🎉

上面的步驟做完,就會進入下面的界面,說明你註冊成功了,複製key到cherry studio就可以開始愉快使用了。

思源筆記配置教學

此文件由 AI 從中文翻譯而來,尚未經過審閱。

思源筆記配置教程

支援將話題、訊息匯出到思源筆記。

第一步

開啟思源筆記,建立一個筆記本

點擊新建筆記本

第二步

開啟筆記本進入設定,並複製筆記本ID

開啟筆記本設定
點擊複製筆記本ID按鈕

第三步

將複製的筆記本ID填寫到 Cherry Studio 設定中

將筆記本ID填寫到資料設定中

第四步

填寫思源筆記地址

  • 本地 通常為 http://127.0.0.1:6806

  • 自部署 輸入你的網域名稱 http://note.domain.com

填入你的思源筆記地址

第五步

複製思源筆記 API Token

複製思源筆記令牌

填入 Cherry Studio 設定中並進行檢查

填寫資料庫 ID 並點擊檢查

第六步

恭喜您,思源筆記的配置已完成 ✅ 接下來即可將 Cherry Studio 內容匯出到您的思源筆記中

匯出到思源筆記
檢視匯出結果

知識庫資料

此文件由 AI 從中文翻譯而來,尚未經過審閱。

資料儲存說明

在 Cherry Studio 知識庫中添加的數據全部儲存在本機,在添加過程中會複製一份文件放在 Cherry Studio 資料儲存目錄。

知識庫處理流程圖

向量資料庫:https://turso.tech/libsql

當文件被添加到 Cherry Studio 知識庫之後,文件會被切分為若干個片段,然後這些片段會交給嵌入模型進行處理。

當使用大模型進行問答的時候,會查詢和問題相關的文字片段一併交給大語言模型處理。

如果對資料隱私有要求,建議使用本機嵌入資料庫和本機大語言模型。

網絡搜尋黑名單配置

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Cherry Studio支援手動和添加訂閱源兩種方式配置黑名單。配置規則參考ublacklist

手動配置

您可以為搜尋結果添加規則或點擊工具列圖示以屏蔽指定的網站。規則可以通過以下方式指定:匹配模式 (範例:*://*.example.com/*) 或使用正規表示式 (範例:/example\.(net|org)/).

訂閱源配置

您還可以訂閱公共規則集。該網站列出了一些訂閱: https://iorate.github.io/ublacklist/subscriptions

以下是一些比較推薦的訂閱源連結:

名稱
連結
類型

https://git.io/ublacklist

中文

https://raw.githubusercontent.com/laylavish/uBlockOrigin-HUGE-AI-Blocklist/main/list_uBlacklist.txt

AI生成

訂閱源配置

配置 Dify 知識庫

此文件由 AI 從中文翻譯而來,尚未經過審閱。

配置 Dify 知識庫

Dify 知識庫 MCP 需要將 Cherry Studio 升級至 v1.2.9 或更高版本。

新增 Dify 知識庫 MCP 伺服器

  1. 開啟 搜索MCP。

  2. 新增 dify-knowledge 伺服器。

設定 Dify 知識庫

需配置參數和環境變數

  1. Dify 知識庫金鑰可透過以下方式取得:

使用 Dify 知識庫 MCP

配置和使用 MCP

此文件由 AI 從中文翻譯而來,尚未經過審閱。

  1. 開啟 Cherry Studio 設定。

  2. 找到 MCP 伺服器 選項。

  3. 點擊 新增伺服器。

  4. 將 MCP Server 的相關參數填入(參考連結)。可能需要填寫的內容包括:

    • 名稱:自訂一個名稱,例如 fetch-server

    • 類型:選擇 STDIO

    • 命令:填寫 uvx

    • 參數:填寫 mcp-server-fetch

    • (可能還有其他參數,視具體 Server 而定)

  5. 點擊 儲存。

完成上述配置後,Cherry Studio 會自動下載所需的 MCP Server - fetch server。下載完成後,我們就可以開始使用了!注意:當 mcp-server-fetch 配置不成功時,可以嘗試重啟電腦。

在聊天框中啟用 MCP 服務

  • 在 MCP 伺服器 設定成功新增 MCP 伺服器

使用效果展示

從上圖可以看出,結合了 MCP 的 fetch 功能後,Cherry Studio 能夠更好地理解使用者的查詢意圖,並從網路上獲取相關資訊,給出更準確、更全面的回答。

常見問題

此文件由 AI 從中文翻譯而來,尚未經過審閱。

常見問題

1. mcp-server-time

報錯截圖

解決方案

在「參數」一欄填寫:

mcp-server-time
--local-timezone
<你的標準時區,例如:Asia/Shanghai>

翻譯

此文件由 AI 從中文翻譯而來,尚未經過審閱。

翻譯

Cherry Studio 的翻譯功能為您提供快速、準確的文字翻譯服務,支援多種語言之間的相互翻譯。

介面概覽

翻譯介面主要由以下幾個部分組成:

  1. 來源語言選擇區:

    • 任意語言:Cherry Studio 會自動識別來源語言並進行翻譯。

  2. 目標語言選擇區:

    • 下拉選單:選擇您希望將文字翻譯成的語言。

  3. 設定按鈕:

    • 點擊後將跳轉到 。

  4. 捲動同步:

    • 點擊可以切換捲動同步(在任何一邊進行捲動,另一邊也會一起捲動)。

  5. 文字輸入框(左側):

    • 輸入或貼上您需要翻譯的文字。

  6. 翻譯結果框(右側):

    • 顯示翻譯後的文字。

    • 複製按鈕:點擊按鈕可將翻譯結果複製到剪貼簿。

  7. 翻譯按鈕:

    • 點擊此按鈕開始翻譯。

  8. 翻譯記錄(左上角):

    • 點擊後可以檢視翻譯歷史記錄。

使用步驟

  1. 選擇目標語言:

    • 在目標語言選擇區選擇您希望翻譯成的語言。

  2. 輸入或貼上文字:

    • 在左側的文字輸入框中輸入或貼上您要翻譯的文字。

  3. 開始翻譯:

    • 點擊 翻譯 按鈕。

  4. 檢視和複製結果:

    • 翻譯結果將顯示在右側的翻譯結果框中。

    • 點擊複製按鈕即可將翻譯結果複製到剪貼簿。

常見問題解答 (FAQ)

  • Q: 翻譯不準確怎麼辦?

    • A: AI 翻譯雖然強大,但並非完美。對於專業領域或複雜語境的文字,建議進行人工校對。您也可以嘗試切換不同的模型。

  • Q: 支援哪些語言?

    • A: Cherry Studio 翻譯功能支援多種主流語言,具體支援的語言清單請參考 Cherry Studio 的官方網站或應用程式內說明。

  • Q: 可以翻譯整個檔案嗎?

    • A: 目前的介面主要用於文字翻譯。對於檔案翻譯,可能需要進入 Cherry Studio 的對話頁面新增檔案進行翻譯。

  • Q: 翻譯速度慢怎麼辦?

    • A: 翻譯速度可能受網路連線、文字長度、伺服器負載等因素影響。請確保您的網路連線穩定,並耐心等待。

華為雲

此文件由 AI 從中文翻譯而來,尚未經過審閱。

華為雲

一、前往建立帳號登入

二、點擊,進入ModelArts控制台

三、授權

授權步驟(已授權可跳過)
  1. 進入(二)的連結頁面後,根據提示進入授權頁面(點擊IAM子用戶→新增委託→普通用戶)

  1. 點擊建立後重新返回(二)處連結頁面

  2. 會提示訪問權限不足,點擊提示裡的"點擊此處"

  3. 追加已有授權並確認

注意:該方法適用於新手,不用看過多內容,只需根據提示點擊,若可一次性授權成功則按自己方式操作即可。

四、點擊側欄鑒權管理,建立API Key(密鑰)並複製

然後在CherryStudio裡建立新服務商

建立完成後填入密鑰

五、點擊側欄模型部署,全部領取

六、點擊呼叫

把①處的地址複製,貼上到CherryStudio的服務商地址中並在結尾加上「#」號

並在結尾加上「#」號

並在結尾加上「#」號

並在結尾加上「#」號

並在結尾加上「#」號

為什麼加「#」號

當然也可不看那裡,直接按照教程操作即可;

也可使用刪除v1/chat/completions的方法填寫,只要會填按自己方式怎麼填都行,不會填務必按照教程操作。

然後把②處模型名稱複製,到CherryStudio中點「+添加」按鈕新建模型

輸入模型名稱,不要自行增減內容,不帶引號,示例怎麼寫就怎麼抄。

點擊添加模型按鈕即可完成。

在華為雲中因每個模型的地址不同,所以每個模型都需要新建服務商,按照以上步驟重複操作即可。

模型服務設定

此文件由 AI 從中文翻譯而來,尚未經過審閱。

當前頁面僅做介面功能的介紹,配置教程可以參考基礎教程中的教學。

  • 使用內建服務商時只需填寫對應的密鑰即可。

  • 不同服務商對密鑰的稱呼可能不同,如密鑰、Key、API Key、令牌等,均指同一項設定。

API 密鑰

在 Cherry Studio 中,單個服務商支援多組 Key 輪流使用,輪詢方式依列表順序循環執行。

  • 多組 Key 需以英文逗號分隔輸入。範例如下:

必須使用英文逗號分隔。

API 地址

使用內建服務商時通常不需填寫 API 地址,若需修改請嚴格按照對應官方文件提供的地址填寫。

若服務商提供的地址格式為 https://xxx.xxx.com/v1/chat/completions,只需填寫根地址部分(https://xxx.xxx.com)。

Cherry Studio 會自動拼接後續路徑(/v1/chat/completions),未按規範填寫可能導致功能異常。

說明:多數服務商的大型語言模型路由是統一的,通常無需額外設定。若服務商的 API 路徑為 v2、v3/chat/completions 或其他版本時,可在地址欄手動輸入對應版本並以「/」結尾;當請求路由非標準 /v1/chat/completions 時,請直接用「#」結尾填入完整地址。

規則如下:

  • API 地址以 / 結尾時,自動拼接「chat/completions」

  • API 地址以 # 結尾時,直接使用完整地址不拼接

新增模型

點擊服務商配置頁面左下角的 管理 按鈕,通常會自動獲取該服務商所有支援調用的模型,從彈出清單中點擊模型右側的 + 即可添加至模型列表。

管理清單中的模型不會自動全部添加,需手動點擊 + 才能將模型加入服務商配置頁面,後續才可在模型選擇清單中使用。

連通性檢查

點擊 API 密鑰輸入框旁的檢查按鈕,即可測試配置是否成功。

模型檢查時預設使用模型清單中最後一個對話模型。若檢查失敗,請確認模型清單是否有錯誤或不支援的模型。

配置完成後務必開啟右上角的開關,否則服務商將處於未啟用狀態,無法在模型清單中顯示對應模型。

無問芯穹

此文件由 AI 從中文翻譯而來,尚未經過審閱。

無問芯穹

你是否正在經歷:微信收藏了26篇乾貨文章卻再也沒打開過,電腦裡存著「學習資料」文件夾中散落的10+個文件,想找半年前讀過的某個理論卻只記得零星關鍵詞。而當每日信息量超過大腦處理極限時,90%珍貴知識會在72小時內被遺忘。 現在,通過無問芯穹大模型服務平台API + Cherry Studio打造個人知識庫,可以將被閒置收藏的微信文章、碎片化的課程內容轉化為結構化知識,實現精準調用。

一、個人知識庫搭建

1. 無問芯穹API服務:知識庫「思考中樞」,好用、穩定

作為知識庫的「思考中樞」,無問芯穹大模型服務平台提供 DeepSeek R1 完整功能版等模型版本,提供穩定的 API 服務,**目前註冊後無門檻免費使用。**支援主流嵌入模型 bge、jina 模型來建構知識庫,平台持續更新穩定最新、最強開源模型服務,包含圖片、影片、語音等多種不同模態。

2. Cherry Studio:零代碼搭建知識庫

Cherry Studio是一款易用的AI工具,相較於RAG知識庫開發需1-2個月部署週期,此工具支援零代碼操作,可將Markdown/PDF/網頁等多格式一鍵導入,40MB文件1分鐘完成解析,還可添加電腦本機文件夾、微信收藏夾文章網址、課程筆記。

二、3步構建你的專屬知識管家

Step 1:基礎準備

  1. 訪問Cherry Studio官網下載適配版本(https://cherry-ai.com/)

  2. 註冊帳號:登入無問芯穹大模型服務平台 (https://cloud.infini-ai.com/genstudio/model?cherrystudio)

  • 獲取API金鑰:在「模型廣場」選擇deepseek-r1,點擊創建並獲取APIKEY,複製模型名稱

Step 2:開啟CherryStudio設定,在模型服務中選擇無問芯穹,填寫API金鑰,並啟用無問芯穹模型服務

完成以上步驟,在互動時選擇所需大模型,即可在CherryStudio中使用無問芯穹API服務。 為方便使用,此處可設定「預設模型」

Step 3:添加知識庫

選擇無問芯穹大模型服務平台的嵌入模型bge系列或jina系列任一版本

三、真實用戶場景實測

  • 導入學習資料後,輸入"梳理〈機器學習〉第三章核心公式推導"

附生成結果圖

新增 ModelScope MCP 伺服器

此文件由 AI 從中文翻譯而來,尚未經過審閱。

ModelScope MCP 伺服器 需要將 Cherry Studio 升級至 v1.2.9 或更高版本。

在 v1.2.9 版本中,Cherry Studio 與 ModelScope 魔搭 達成官方合作,大幅簡化了 MCP 伺服器新增的操作步驟,避免配置過程出錯,而且可以在 ModelScope 社群發現海量 MCP 伺服器。接下來跟隨操作步驟,一起看下如何在 Cherry Studio 中同步 ModelScope 的 MCP 伺服器。

操作步驟

同步入口:

點擊設定中的 MCP 伺服器設定,選擇 同步伺服器

發現 MCP 服務:

選擇 ModelScope,並瀏覽發現 MCP 服務

檢視 MCP 伺服器詳情

註冊登入 ModelScope,並檢視 MCP 服務詳情;

連接伺服器

在 MCP 服務詳情中,選擇連接服務;

申請並複製貼上 api 令牌

點擊 Cherry Studio 中的「取得api令牌」,跳轉至 ModelScope 官網,複製 api 令牌,再回到 Cherry Studio 中貼上。

成功同步

在 Cherry Studio 的 MCP 伺服器清單中,可以看到 ModelScope 連接的 MCP 服務,並能在對話中呼叫。

增量更新

後續在 ModelScope 網頁新增的 MCP 伺服器,直接點選 同步伺服器 即可實現增量新增 MCP 伺服器。

透過以上步驟,你已成功掌握如何在 Cherry Studio 中便捷地同步 ModelScope 上的 MCP 伺服器。整個配置流程不僅大幅簡化,有效避免手動設定的繁瑣和潛在錯誤,更能輕鬆存取 ModelScope 社群提供的海量 MCP 伺服器資源。

現在就開始探索和使用這些強大的 MCP 服務,為你的 Cherry Studio 體驗帶來更多便利與可能性吧!

呼叫鏈使用說明

此文件由 AI 從中文翻譯而來,尚未經過審閱。

功能介紹

調用鏈(又稱「trace」)為用戶提供對話的洞察能力,幫助用戶覺察模型、知識庫、MCP、網路搜索等在對話過程中的具體表現。它是一個基於 實現的可觀測工具,透過端側採集、儲存、處理資料實現視覺化,為定位問題、最佳化效果提供量化評估依據。

每次對話對應一條 trace 資料,一條 trace 由多個 span 組成,每個 span 對應 Cherry Studio 的一個程式處理邏輯如呼叫模型會話、呼叫 MCP 、呼叫知識庫、呼叫網路搜索等。trace 以樹狀結構展示,span 為樹節點,主要資料包括耗時、token 使用量,當然在 span 詳情還可檢視其具體的輸入輸出。

開啟 Trace

預設情況下,Cherry Studio 安裝之後,Trace 是隱藏的狀態。需要在「設定」-「常規設定」 - 「開發者模式」中開啟,如下圖:

且對於之前的會話不會產生 Trace 記錄,只會在新的問答產生之後才會產生 Trace 記錄。所產生的記錄儲存在本地,如需要徹底清除 Trace ,可以透過「設定」 - 「資料設定」 - 「資料目錄」 - 「清除快取」進行清除,也可透過手動 刪除 ~/.cherrystudio/trace 下的檔案進行清除,如下圖:

場景介紹

全鏈路檢視

在 Cherry Studio 對話方塊中點選調用鏈檢視調用鏈的全鏈路資料。無論在對話過程中呼叫了模型,還是網路搜索、知識庫、MCP,都可以在調用鏈視窗中檢視到全鏈路呼叫資料。

檢視線路中模型

若想要檢視調用鏈中模型的詳情,可以點選模型呼叫節點,檢視其輸入、輸出詳情。

檢視線路中網路搜索

若想要檢視調用鏈中網路搜索的詳情,可以點選網路搜索呼叫節點,檢視其輸入、輸出詳情。在詳情中,可檢視到呼叫網路搜索查詢的問題和其傳回的結果。

檢視線路中知識庫

若想要檢視調用鏈中知識庫的詳情,可以點選知識庫呼叫節點,檢視其輸入、輸出詳情。在詳情中,可檢視到呼叫知識庫查詢的問題和其傳回的答案。

檢視線路中 MCP 呼叫情況

若想要檢視調用鏈中 MCP 的詳情,可以點選 MCP 呼叫節點,檢視其輸入、輸出詳情。在詳情中,可檢視到呼叫此 MCP Server tool 的入參和 tool 的傳回。

問題和建議

當前功能由阿里雲 團隊提供,如有問題或建議,請進入釘釘群 ( 群號: 21958624 ) 與開發者進行深度溝通。

\

MCP 環境安裝

此文件由 AI 從中文翻譯而來,尚未經過審閱。

MCP(Model Context Protocol) 是一種開源協議,旨在以標準化的方式向大語言模型(LLM)提供上下文資訊。更多關於 MCP 的介紹請見

在 Cherry Studio 中使用 MCP

下面以 fetch 功能為例,演示如何在 Cherry Studio 中使用 MCP,可以在 中查找詳情。

準備工作:安裝 uv、bun

Cherry Studio 目前只使用內建的 和 ,不會復用系統中已經安裝的 uv 和 bun。

在 設定 - MCP 伺服器 中,點擊 安裝 按鈕,即可自動下載並安裝。因為是直接從 GitHub 上下載,速度可能會比較慢,且有較大可能失敗。安裝成功與否,以下文提到的資料夾內是否有檔案為準。

可執行程序安裝目錄:

Windows: C:\Users\使用者名稱\.cherrystudio\bin

macOS、Linux: ~/.cherrystudio/bin

無法正常安裝的情況下:

可將系統中的相對應命令使用軟連結的方式連結到這裡,如果沒有對應目錄,需要手動建立。也可以手動下載可執行檔案放到這個目錄下面:

Bun: UV:

商務合作

此文件由 AI 從中文翻譯而來,尚未經過審閱。

商務合作

聯繫人:王先生

📮:[email protected]

📱:18954281942 (非客服電話)

使用問題諮詢,可以在官網首頁底部加入我們的用戶交流群,也可郵件 [email protected]

或提交 issues:

如果您需要更多指導,可以加入我們的

商用授權詳情:

華為雲
此連結
看這裡
OpenTelemetry
EDAS
https://github.com/CherryHQ/cherry-studio/issues
知識星球
https://docs.cherry-ai.com/contact-us/questions/cherrystudio-xu-ke-xie-yi
sk-xxxx1,sk-xxxx2,sk-xxxx3,sk-xxxx4
服務商配置
uBlacklist subscription compilation
uBlockOrigin-HUGE-AI-Blocklist
MCP-輸入框按鈕範例
MCP伺服器範例
使用效果展示

隱私協議

此文件由 AI 從中文翻譯而來,尚未經過審閱。

隱私協議

歡迎使用 Cherry Studio(以下簡稱「本軟體」或「我們」)。我們高度重視您的隱私保護,本隱私協議將說明我們如何處理與保護您的個人信息和數據。請在使用本軟體前仔細閱讀並理解本協議:

一、我們收集的信息範圍

為了優化用戶體驗和提升軟體質量,我們僅可能會匿名收集以下非個人化信息:

• 軟體版本信息;

• 軟體功能的活躍度、使用頻次;

• 匿名的崩潰、錯誤日誌信息;

上述信息完全匿名,不會涉及任何個人身份數據,也無法關聯到您的個人信息。

二、我們不會收集的任何信息

為了最大限度保護您的隱私安全,我們明確承諾:

• 不會收集、保存、傳輸或處理您輸入到本軟體中的模型服務 API Key 信息;

• 不會收集、保存、傳輸或處理您在使用本軟體過程中產生的任何對話數據,包括但不限於聊天內容、指令信息、知識庫信息、向量數據及其他自定義內容;

• 不會收集、保存、傳輸或處理任何可識別個人身份的敏感信息。

三、數據交互說明

本軟體採用您自行申請並配置的第三方模型服務提供商的 API Key,以完成相關模型的調用與對話功能。您使用的模型服務(例如大模型、API 接口等)由您選擇的第三方提供商提供並完全由其負責,Cherry Studio 僅作為本地工具提供與第三方模型服務的接口調用功能。

因此:

• 所有您與大模型服務產生的對話數據與 Cherry Studio 無關,我們既不參與數據的存儲,也不會進行任何形式的數據傳輸或中轉;

• 您需要自行查看並接受對應第三方模型服務提供商的隱私協議及相關政策,這些服務的隱私協議可訪問各提供商官方網站進行查看。

四、第三方模型服務提供商隱私策略聲明

您需自行承擔因使用第三方模型服務提供商而可能涉及的隱私風險。具體隱私政策、數據安全措施與相關責任,請查閱所選模型服務提供商官方網站相關內容,我們對此不承擔任何責任。

五、協議更新與修改

本協議可能隨軟體版本更新進行適當調整,請您定期關注。協議發生實質性變更時,我們將以適當方式提醒您。

六、聯繫我們

若您對本協議內容或 Cherry Studio 隱私保護措施存在任何疑問,歡迎隨時聯繫我們。

感謝您選擇並信任 Cherry Studio,我們將持續為您提供安全可靠的產品體驗。

如何高效提問

此文件由 AI 從中文翻譯而來,尚未經過審閱。

高效提問方法

Cherry Studio 是一個免費開源的專案,隨著專案規模擴大,專案小組的工作量也日漸增多。為了減少溝通成本並能快速高效解決您的問題,我們希望大家在提問前盡可能按照以下步驟處理遇到的問題,讓專案小組能將更多時間投入專案維護和開發。感謝您的配合!

一、文件查閱與搜尋

大多數基礎問題透過仔細查閱文件都能解決:

  • 軟體功能和使用問題可查閱功能介紹文件;

  • 高頻問題收錄在常見問題頁面,請先在此查看解決方案;

  • 複雜問題可直接使用搜尋功能或在搜尋框提問;

  • 務必仔細閱讀每篇文件中的提示框內容,能幫您避免許多問題;

  • 在 GitHub 的 Issue 頁面查看或搜尋類似問題及解決方案。

二、網路搜尋、向AI提問

與客戶端功能無關的問題(如模型報錯、回答不符預期、參數設置等),建議先在網路上搜尋解決方案,或將報錯內容和問題描述提供給AI尋找解決方案。

三、在官方社群提問或於GitHub提交issue

若上述方法仍未解決問題,請至官方 TG頻道、Discord頻道、(一鍵進群)詳細描述問題尋求協助:

  1. 模型報錯:提供完整介面截圖及控制台報錯資訊(敏感資訊可打碼,但需保留模型名稱、參數設置和報錯內容)。控制台報錯資訊查看方法點此

  2. 軟體Bug:提供具體錯誤描述及詳細。若為偶發問題,請詳細描述問題發生時的場景、背景與配置參數

    • 同時請註明平台資訊(Windows/Mac/Linux)與軟體版本號

文件請求或建議 請聯繫 TG頻道 @Wangmouuu 或 QQ(1355873789),或發送郵件至:[email protected]

預設模型設定
文件
uv
bun
https://github.com/oven-sh/bun/releases
https://github.com/astral-sh/uv/releases
bin 目錄

字節跳動(豆包)

此文件由 AI 從中文翻譯而來,尚未經過審閱。

字節跳動(豆包)

  • 登入 火山引擎

  • 直接點擊 這裡直達

取得 API Key

  • 點擊側邊欄下方的 API Key 管理

  • 建立 API Key

  • 建立成功後,點擊已建立 API Key 後的眼睛圖示開啟並複製

  • 將複製的 API Key 填入 Cherry Studio 後,開啟服務商開關

開通並新增模型

  • 在方舟控制台側邊欄最下方的 開通管理 開通需要使用的模型,可依需求開通豆包系列和 DeepSeek 等模型

  • 在 模型列表文件 中,找到所需模型對應的 模型ID

  • 開啟 Cherry Studio 的 模型服務 設定找到火山引擎

  • 點擊新增,將取得的 模型ID 複製至 模型ID 文字輸入框

  • 依此流程逐一新增模型

API 地址

API 地址有兩種寫法:

  • 第一種為客戶端預設的:https://ark.cn-beijing.volces.com/api/v3/

  • 第二種寫法為:https://ark.cn-beijing.volces.com/api/v3/chat/completions#

兩種寫法無實質區別,保持預設即可,無需修改。

關於結尾 / 和 # 的差異,請參考文件服務商設定的 API 地址部分,點擊前往

官方文件 cURL 範例

ModelScope(魔搭)

此文件由 AI 從中文翻譯而來,尚未經過審閱。

什麼是 ModelScope?

ModelScope 是新一代開源模型即服務(MaaS)共享平台,致力於為泛 AI 開發者提供靈活、易用、低成本的一站式模型服務解決方案,讓模型應用更簡單!

通過 API-Inference 服務化能力,平台將開源模型標準化為可調用的 API 介面,開發者可輕量、快速地整合模型能力至各類 AI 應用,支援工具調用、原型開發等創新場景。

核心優勢

  • ✅ 免費額度:每日提供 2000 次免費 API 調用額度(計費規則)

  • ✅ 豐富模型庫:覆蓋 NLP、CV、語音、多模態等 1000+ 開源模型

  • ✅ 即開即用:無需部署,通過 RESTful API 快速調用


Cherry Studio 接入流程

步驟 1:獲取 ModelScope API 令牌

  1. 登入平台

    • 造訪 ModelScope 官網 → 點擊右上角登入 → 選擇認證方式

  2. 建立訪問令牌

    • 進入 帳戶設定 → 訪問令牌

    • 點擊 新建令牌 → 填寫描述 → 複製生成的令牌(頁面示範見下圖)

    🔑 重要提示:令牌洩露將影響帳號安全!

步驟 2:設定 Cherry Studio

  • 開啟 Cherry Studio → 設定 → 模型服務 → ModelScope

  • 在 API 金鑰 欄貼上複製的令牌

  • 點擊 保存 完成授權

步驟 3:調用模型 API

  1. 查找支援 API 的模型

    • 造訪 ModelScope 模型庫

    • 篩選條件:勾選 API-Inference(或認準模型卡片上的 API 圖示)

    API-Inference 覆蓋的模型範圍,主要根據模型在魔搭社群中的關注程度(參考了點讚、下載等數據)來判斷。因此,在能力更強、關注度更高的下一代開源模型發佈之後,支援的模型清單也會持續迭代。

  2. 獲取模型 ID

    • 進入目標模型詳情頁 → 複製 Model ID(格式如 damo/nlp_structbert_sentiment-classification_chinese-base)

  3. 填入 Cherry Studio

    • 在模型服務設定頁的 模型 ID 欄輸入 ID → 選擇任務類型 → 完成設定


計費與額度規則

重要說明

  • 🎫 免費額度:每位用戶 每日 2000 次 API 調用(以官網最新規則為準)

  • 🔁 額度重置:每日 UTC+8 00:00 自動重置,不支援跨日累計或升級

  • 💡 超額處理:

    • 達到當日上限後 API 將返回 429 錯誤

    • 解決方案:切換備用帳號 / 使用其他平台 / 優化調用頻率

查看剩餘額度

  • 登入 ModelScope → 點擊右上角 用戶名 → API 使用情況

⚠️ 注意:推論 API-Inference 每天提供 2000 次的免費調用額度。更多調用需求可考慮使用阿里雲百煉等雲端服務。

WebDAV 備份

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Cherry Studio 資料備份支援透過 WebDAV 的方式進行備份。你可以選擇合適的 WebDAV 服務來進行雲端備份。

基於 WebDAV 可以通過 A電腦 →備份\xrightarrow{\text{備份}}備份​ WebDAV →恢復\xrightarrow{\text{恢復}}恢復​ B電腦 的方式來實現多端資料同步。

以堅果雲為例

  1. 登入堅果雲,點擊右上角使用者名稱,選擇「帳戶資訊」:

  1. 選擇「安全選項」,點擊「新增應用」

  1. 輸入應用名稱,生成隨機密碼;

  1. 複製記錄密碼;

  1. 取得伺服器地址、帳戶和密碼;

  1. 在 Cherry Studio 設定——資料設定中,填寫 WebDAV 資訊;

  1. 選擇備份或者恢復資料,並可以設定自動備份的時間週期。

WebDAV 服務門檻較低的通常是網盤:

  • 堅果雲

  • 123 盤(需要會員)

  • 阿里雲盤(需要購買)

  • Box (免費空間容量為 10GB,單個檔案大小限制為 250MB。)

  • Dropbox (Dropbox 免費 2GB,可以邀請好友擴容 16GB 。)

  • TeraCloud (免費空間為 10GB,透過邀請可獲得 5GB 額外空間。)

  • Yandex Disk (免費使用者提供 10GB 容量。)

其次是需自行部署的服務:

  • Alist

  • Cloudreve

  • sharelist

自動安裝 MCP

此文件由 AI 從中文翻譯而來,尚未經過審閱。

自動安裝 MCP

自動安裝 MCP 需要將 Cherry Studio 升級至 v1.1.18 或更高版本。

功能簡介

除了手動安裝外,Cherry Studio 還內建了 @mcpmarket/mcp-auto-install 工具,這是一個更便捷的 MCP 伺服器安裝方式。你只需要在支援 MCP 服務的大型模型對話中輸入相應的指令即可。

測試階段提醒:

  • @mcpmarket/mcp-auto-install 目前仍處於測試階段

  • 效果依賴大型模型的「智商」,有些會自動添加,有些還是需要在 MCP 設定中再手動更改某些參數

  • 目前搜尋來源是從 @modelcontextprotocol 中進行搜尋,可以自行設定(下方說明)

使用說明

例如,你可以輸入:

幫我安裝一個 filesystem mcp server
輸入指令安裝 MCP 伺服器
MCP 伺服器設定介面

系統會自動識別你的需求,並透過 @mcpmarket/mcp-auto-install 完成安裝。這個工具支援多種類型的 MCP 伺服器,包括但不限於:

  • filesystem(檔案系統)

  • fetch(網路請求)

  • sqlite(資料庫)

  • 等等...

MCP_PACKAGE_SCOPES 變數可以自訂 MCP 服務搜尋來源,預設值為:@modelcontextprotocol,可以自訂設定。

@mcpmarket/mcp-auto-install 函式庫的介紹

預設設定參考:

// `axun-uUpaWEdMEMU8C61K` 為服務id,自訂即可
"axun-uUpaWEdMEMU8C61K": {
  "name": "mcp-auto-install",
  "description": "Automatically install MCP services (Beta version)",
  "isActive": false,
  "registryUrl": "https://registry.npmmirror.com",
  "command": "npx",
  "args": [
    "-y",
    "@mcpmarket/mcp-auto-install",
    "connect",
    "--json"
  ],
  "env": {
    "MCP_REGISTRY_PATH": "详情见https://www.npmjs.com/package/@mcpmarket/mcp-auto-install"
  },
  "disabledTools": []
}

@mcpmarket/mcp-auto-install 是一個開源的 npm 套件,你可以在 npm 官方倉庫 查看其詳細資訊和使用文件。@mcpmarket 為 Cherry Studio 官方 MCP 服務集合。

免費體驗 | 智譜 GLM-4.5-Air,輕量高效新選擇!

此文件由 AI 從中文翻譯而來,尚未經過審閱。

為了讓每一位開發者和用戶都能輕鬆體驗前沿大模型的能力,智譜免費向 Cherry Studio 的用戶開放 GLM-4.5-Air 模型。作為專為智能體(Agent)應用打造的高效基礎模型,GLM-4.5-Air 在性能與成本之間實現了出色平衡,是構建智能應用的理想選擇。


🚀 什麼是 GLM-4.5-Air?

GLM-4.5-Air 是智譜最新推出的高性能語言模型,採用先進的混合專家架構(Mixture-of-Experts, MoE),在保持卓越推理能力的同時,顯著降低計算資源消耗。

  • 總參數量:1060 億

  • 激活參數量:120 億

通過精簡設計,GLM-4.5-Air 實現了更高的推理效率,適合在資源受限環境下部署,同時仍能勝任複雜任務處理。


📚 統一訓練流程,夯實智能基礎

GLM-4.5-Air 與旗艦系列共享一致的訓練流程,確保其具備扎實的通用能力基礎:

  1. 大規模預訓練:在高達 15 萬億 token 的通用語料上完成訓練,建構廣泛的知識理解能力;

  2. 專項領域優化:在程式碼生成、邏輯推理、智能體互動等關鍵任務上進行強化訓練;

  3. 長上下文支援:上下文長度擴展至 128K tokens,可處理長文件、複雜對話或大型程式碼項目;

  4. 強化學習增強:通過 RL 優化模型在推理規劃、工具調用等方面的決策能力。

這一訓練體系為 GLM-4.5-Air 賦予了出色的泛化能力和任務適應性。


⚙️ 專為智能體優化的核心能力

GLM-4.5-Air 針對智能體應用場景進行了深度適配,具備以下實用能力:

✅ 工具調用支援:可通過標準化介面調用外部工具,實現任務自動化 ✅ 網頁瀏覽與資訊提取:可配合瀏覽器外掛程式完成動態內容理解與互動 ✅ 軟體工程輔助:支援需求解析、程式碼生成、缺陷識別與修復 ✅ 前端開發支援:對 HTML、CSS、JavaScript 等前端技術有良好理解與生成能力

該模型可靈活整合至 Claude Code、Roo Code 等程式碼智能體框架,也可作為任意自訂 Agent 的核心引擎使用。


💡 智能「思考模式」,靈活響應各類請求

GLM-4.5-Air 支援混合推理模式,用戶可通過 thinking.type 參數控制是否啟用深度思考:

  • enabled:啟用思考,適合需要分步推理或規劃的複雜任務

  • disabled:禁用思考,用於簡單查詢或即時響應

  • 預設設定為 動態思考模式,模型自動判斷是否需要深入分析

任務類型
範例

🌟 高效低成本,部署更輕鬆

GLM-4.5-Air 在性能與成本之間實現了優秀平衡,特別適合實際業務部署:

  • ⚡ 生成速度超 100 tokens/秒,響應迅速,支援低延遲互動

  • 💰 API 成本極低:輸入僅 0.8 元/百萬 tokens,輸出 2 元/百萬 tokens

  • 🖥️ 激活參數少,算力需求低,易於在本地或雲端高並發運行

真正實現「高性能、低門檻」的 AI 服務體驗。


🧠 聚焦實用能力:智能程式碼生成

GLM-4.5-Air 在程式碼生成方面表現穩定,支援:

  • 覆蓋 Python、JavaScript、Java 等主流語言

  • 根據自然語言指令生成結構清晰、可維護性強的程式碼

  • 減少模板化輸出,貼近真實開發場景需求

適用於快速原型建構、自動化補全、Bug 修復等高頻開發任務。


立即免費體驗 GLM-4.5-Air,開啟你的智能體開發之旅! 無論你是想打造自動化助手、程式設計夥伴,還是探索下一代 AI 應用,GLM-4.5-Air 都將是你高效可靠的 AI 引擎。

📘 立即接入,釋放創造力!

Ollama

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Ollama

Ollama 是一款優秀的開源工具,讓您可以在本地輕鬆執行和管理各種大型語言模型(LLMs)。Cherry Studio 現已支援 Ollama 整合,讓您可以在熟悉的介面中,直接與本地部署的 LLM 進行互動,無需依賴雲端服務!

什麼是 Ollama?

Ollama 是一個簡化大型語言模型(LLM)部署和使用的工具。它具有以下特點:

  • 本地執行: 模型完全在您的本地電腦上執行,無需連網,保護您的隱私和資料安全。

  • 簡單易用: 通過簡單的命令列指令,即可下載、執行和管理各種 LLM。

  • 模型豐富: 支援 Llama 2、Deepseek、Mistral、Gemma 等多種流行的開源模型。

  • 跨平台: 支援 macOS、Windows 和 Linux 系統。

  • 開放API:支援與OpenAI兼容的介面,可以和其他工具整合。

為什麼要在 Cherry Studio 中使用 Ollama?

  • 無需雲端服務: 不再受限於雲端 API 的配額和費用,盡情體驗本地 LLM 的強大功能。

  • 資料隱私: 您的所有對話資料都保留在本地,無需擔心隱私洩露。

  • 離線可用: 即使在沒有網路連線的情況下,也能繼續與 LLM 進行互動。

  • 客製化: 可以根據您的需求,選擇和配置最適合您的 LLM。

在 Cherry Studio 中配置 Ollama

1. 安裝和執行 Ollama

首先,您需要在您的電腦上安裝並執行 Ollama。請按照以下步驟操作:

  • 下載 Ollama: 瀏覽 Ollama 官網(),根據您的作業系統下載對應的安裝包。 在 Linux 下,可直接執行命令安裝ollama:

  • 安裝 Ollama: 按照安裝程式的指引完成安裝。

  • 下載模型: 開啟終端機(或命令提示字元),使用 ollama run 指令下載您想要使用的模型。例如,要下載 Llama 2 模型,可以執行:

    Ollama 會自動下載並執行該模型。

  • 保持 Ollama 執行: 在您使用 Cherry Studio 與 Ollama 模型互動期間,請確保 Ollama 保持執行狀態。

2. 在 Cherry Studio 中添加 Ollama 服務商

接下來,在 Cherry Studio 中添加 Ollama 作為自訂 AI 服務商:

  • 開啟設定: 在 Cherry Studio 介面左側導覽列中,點擊「設定」(齒輪圖示)。

  • 進入模型服務: 在設定頁面中,選擇「模型服務」選項卡。

  • 添加供應商: 點擊清單中的 Ollama。

3. 配置 Ollama 服務商

在服務商清單中找到剛剛添加的 Ollama,並進行詳細配置:

  1. 啟用狀態:

    • 確保 Ollama 服務商最右側的開關已開啟,表示已啟用。

  2. API 密鑰:

    • Ollama 預設不需要 API 密鑰。您可以將此欄位留空,或者填寫任意內容。

  3. API 地址:

    • 填寫 Ollama 提供的本地 API 地址。通常情況下,地址為:

      如果修改了連接埠,請自行更改。

  4. 保持活躍時間: 此選項是設定工作階段的保持時間,單位是分鐘。如果在設定時間內沒有新的對話,Cherry Studio 會自動斷開與 Ollama 的連線,釋放資源。

  5. 模型管理:

    • 點擊「+ 添加」按鈕,手動添加您在 Ollama 中已經下載的模型名稱。

    • 比如您已經通過ollama run llama3.2下載了llama3.2模型, 那麼此處可以填入llama3.2

    • 點擊「管理」按鈕,可以對已添加的模型進行編輯或刪除。

開始使用

完成以上配置後,您就可以在 Cherry Studio 的聊天介面中,選擇 Ollama 服務商和您已下載的模型,開始與本地 LLM 進行對話了!

技巧與提示

  • 首次執行模型: 第一次執行某個模型時,Ollama 需要下載模型檔案,可能需要較長時間,請耐心等待。

  • 檢視可用模型: 在終端機中執行 ollama list 命令,可以檢視您已下載的 Ollama 模型清單。

  • 硬體要求: 執行大型語言模型需要一定的計算資源(CPU、記憶體、GPU),請確保您的電腦配置滿足模型的要求。

  • Ollama 文件: 可以點擊配置頁面中的查看Ollama文件及模型連結快速跳轉至Ollama官網文件。

PPIO 派歐雲

此文件由 AI 從中文翻譯而來,尚未經過審閱。

PPIO 派歐雲

Cherry Studio 接入 PPIO LLM API

教學概述

Cherry Studio 是一款多模型桌面客戶端,目前支援:Windows、Linux、MacOS 系列電腦安裝包。它聚合主流 LLM 模型,提供多場景輔助。使用者可透過智慧會話管理、開源訂製、多主題介面來提升工作效率。

Cherry Studio 現已與 PPIO 高效能 API 通道深度適配——透過企業級算力保障,實現 DeepSeek-R1/V3 高速響應 與 99.9% 服務可用性,帶給您快速流暢的體驗。

下方教學包含完整接入方案(含金鑰配置),3 分鐘開啟「Cherry Studio 智慧調度 + PPIO 高效能 API」的進階模式。

1. 進入 CherryStudio,添加 "PPIO" 作為模型提供商

首先前往官網下載 Cherry Studio: (如果進不去可以開啟下方的夸克網盤連結下載需要的版本:

(1)先點選左下角設定,自訂提供商名稱為:PPIO,點選「確定」

(2)前往 ,點選【使用者頭像】—【API 金鑰管理】進入控制檯

點選【+ 建立】按鈕來建立新的 API 金鑰。自訂一個金鑰名稱,產生的金鑰僅在產生時呈現,務必複製並儲存到文件中,以免影響後續使用

(3)在 CherryStudio 填入金鑰 點選設定,選擇【PPIO 派歐雲】,輸入官網產生的 API 金鑰,最後點選【檢查】

(4)選擇模型:以 deepseek/deepseek-r1/community 為例,如需更換其他模型,可直接更換。

DeepSeek R1 和 V3 community 版本僅供大家嘗鮮,也是全參數滿血版模型,穩定性和效果無差異,如需大量呼叫則須 充值並切換到非 community 版本。

2. 模型使用配置

(1)點選【檢查】顯示連線成功後即可正常使用

(2)最後點選【@】選擇 PPIO 供應商下剛剛新增的 DeepSeek R1 模型,即可成功開始聊天~

【部分素材來源:】

3. PPIO×Cherry Studio 影片使用教學

若您更傾向直觀學習,我們在 B 站準備了影片教學。透過手把手教學,助您快速掌握「PPIO API+Cherry Studio」的配置方法,點選下方連結直達影片,開啟流暢開發體驗 →

【影片素材來源:sola】

免費體驗 | Qwen3-8B,由矽基流動提供!

此文件由 AI 從中文翻譯而來,尚未經過審閱。

知名 MaaS 服務平台「矽基流動」為大家免費提供 Qwen3-8B 模型的調用服務。作為通義千問 Qwen3 系列中的高性價比成員,Qwen3-8B 以小巧體積實現強大能力,是智能應用與高效開發的理想選擇。


🚀 什麼是 Qwen3-8B?

Qwen3-8B 是阿里巴巴於 2025 年 4 月發佈的通義千問第三代大模型系列中的 80 億參數密集模型,採用 Apache 2.0 開源協議,可自由用於商業與研究場景。

  • 總參數量:80 億

  • 架構類型:Dense(純稠密結構)

  • 上下文長度:128K tokens

  • 支援多語言:涵蓋 119 種語言和方言

儘管體積小巧,Qwen3-8B 在推理、程式碼、數學和 Agent 能力方面表現穩定,性能媲美前代更大的模型,在實際應用中展現出極高的實用性。


📚 強大訓練基礎,小模型也有大智慧

Qwen3-8B 基於 約 36 萬億 token 的高質量多語言數據完成預訓練,涵蓋網頁文本、技術文件、程式碼庫與專業領域合成數據,知識覆蓋面廣。

其後訓練階段引入了四階段強化流程,特別優化了以下能力:

✅ 自然語言理解與生成 ✅ 數學推理與邏輯分析 ✅ 多語言翻譯與表達 ✅ 工具調用與任務規劃

得益於訓練體系的全面升級,Qwen3-8B 的實際表現接近甚至超越 Qwen2.5-14B,實現顯著的參數效率躍遷。\


💡 混合推理模式:思考 or 快速回應?

Qwen3-8B 支援 「思考模式」與「非思考模式」 的靈活切換,用戶可根據任務複雜度自主選擇回應方式。

通過以下方式控制模式:

  • API 參數設置:enable_thinking=True/False

  • 提示詞指令:在輸入中添加 /think 或 /no_think

模式
適用場景
範例

該設計讓用戶在回應速度與推理深度之間自由權衡,提升使用體驗。


⚙️ 原生支援 Agent 能力,賦能智能應用

Qwen3-8B 具備出色的 Agent 化能力,可輕鬆整合到各類自動化系統中:

🔹 函數調用(Function Calling):支援結構化工具調用 🔹 MCP 協議相容:原生支援模型上下文協議,便於擴展外部能力 🔹 多工具協同:可接入搜索、計算器、程式碼執行等插件

推薦結合 Qwen-Agent 框架 使用,快速建構具備記憶、規劃與執行能力的智能助手。


🌐 廣泛語言支援,面向全球應用

Qwen3-8B 支援包括中文、英文、阿拉伯語、西班牙語、日語、韓語、印尼語等在內的 119 種語言和方言,適用於國際化產品開發、跨語言客服、多語種內容生成等場景。

對中文理解尤為出色,支援簡體、繁體及粵語表達,適用於港澳台及海外華人市場。


🧠 實用能力強,場景覆蓋廣

Qwen3-8B 在多個高頻應用場景中表現優異:

✅ 程式碼生成:支援 Python、JavaScript、Java 等主流語言,能根據需求生成可運行程式碼 ✅ 數學推理:在 GSM8K 等基準中表現穩定,適合教育類應用 ✅ 內容創作:撰寫郵件、報告、文案,結構清晰、語言自然 ✅ 智能助手:可建構個人知識庫問答、日程管理、信息提取等輕量級 AI 助手


現在就通過 矽基流動 免費體驗 Qwen3-8B,開啟你的輕量 AI 應用之旅!\

📘 立即使用,讓 AI 觸手可及!

Obsidian 配置教學

数据设置→Obsidian配置

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Obsidian 配置教學

Cherry Studio 支援與 Obsidian 聯動,將完整對話或單條對話匯出到 Obsidian 庫中。

該過程無需安裝額外的 Obsidian 外掛。但由於 Cherry Studio 匯入到 Obsidian 採用的原理與 Obsidian Web Clipper 類似,因此建議使用者最好將 Obsidian 升級至最新版本(當前 Obsidian 版本至少應大於 1.7.2),以免。

最新教學

相較舊版匯出到 Obsidian,新版匯出到 Obsidian 功能可以自動選擇庫路徑,不再需要手動輸入庫名、資料夾名。

第一步:配置 Cherry Studio

開啟 Cherry Studio 的_設定_ → 資料設定 → _Obsidian 設定_選單,下拉選單中會自動出現在本機開啟過的 Obsidian 庫名,選擇你的目標 Obsidian 庫:

第二步:匯出對話

匯出完整對話

回到 Cherry Studio 的對話介面,右鍵點擊對話,選擇_匯出_,點擊_匯出到 Obsidian_:

此時會彈出一個視窗,用於調整這條匯出到 Obsidian 中的對話筆記的 Properties(屬性)、所放置在Obsidian的資料夾位置以及匯出到 Obsidian 中的處理方式:

  • 保管庫:點擊下拉選單可以選擇其他 Obsidian 庫

  • 路徑:點擊下拉選單可以選擇存放匯出對話筆記的資料夾

  • 作為 Obsidian 筆記屬性(Properties):

    • 標籤(tags)

    • 建立時間(created)

    • 來源(source)

  • 匯出到 Obsidian 中的處理方式有以下三種可選:

    • 新建(如果存在就覆蓋):在路徑處填寫的資料夾 裡新建一篇對話筆記,如果存在同名筆記則會覆蓋舊筆記

    • 前置:在已存在同名筆記的情況下,將選中的對話內容匯出新增到該筆記的開頭

    • 追加:在已存在同名筆記的情況下,將選中的對話內容匯出新增到該筆記的末尾

只有第一種方式會附帶 Properties(屬性),後兩種方式不會附帶 Properties(屬性)。

選擇完所有選項後,點選確定即可匯出完整對話到對應的 Obsidian 庫的對應資料夾。

匯出單條對話

對於單條對話的匯出,則點擊對話下方的_三條槓選單_,選擇_匯出_,點擊_匯出到 Obsidian_:

之後也會彈出與匯出完整對話時一樣的視窗,要求你配置筆記屬性與筆記的處理方式,一樣按照完成即可。

匯出成功

🎉 到這裡,恭喜你完成了 Cherry Studio 聯動 Obsidian 的所有配置,並完整地將匯出流程走了一遍,enjoy yourselves!


舊教學(適用於Cherry Studio<v1.1.13)

第一步:準備 Obsidian

開啟 Obsidian 庫,建立一個用於儲存匯出對話的資料夾(圖中以 Cherry Studio 資料夾為例):

注意記住左下角框出來的文字,這裡是你的保管庫名。

第二步:配置 Cherry Studio

在 Cherry Studio 的_設定_ → 資料設定 → _Obsidian 設定_選單中,輸入在中獲取到的保管庫名與資料夾名:

全域標籤處是可選的,可設定所有對話匯出後在 Obsidian 中的標籤,按需填寫。

第三步:匯出對話

匯出完整對話

回到 Cherry Studio 的對話介面,右鍵點擊對話,選擇_匯出_,點擊_匯出到 Obsidian_。

此時會彈出一個視窗,用於調整這條匯出到 Obsidian 中的對話筆記的 Properties(屬性),以及匯出到 Obsidian 中的處理方式。匯出到 Obsidian 中的處理方式有以下三種可選:

  • 新建(如果存在就覆蓋):在中填寫的資料夾 裡新建一篇對話筆記,如果存在同名筆記則會覆蓋舊筆記

  • 前置:在已存在同名筆記的情況下,將選中的對話內容匯出新增到該筆記的開頭

  • 追加:在已存在同名筆記的情況下,將選中的對話內容匯出新增到該筆記的末尾

只有第一種方式會附帶 Properties(屬性),後兩種方式不會附帶 Properties(屬性)。

匯出單條對話

對於單條對話的匯出,則點擊對話下方的_三條槓選單_,選擇_匯出_,點擊_匯出到 Obsidian_。

之後也會彈出與匯出完整對話時一樣的視窗,要求你配置筆記屬性與筆記的處理方式,一樣按照完成即可。

匯出成功

🎉 到這裡,恭喜你完成了 Cherry Studio 聯動 Obsidian 的所有配置,並完整地將匯出流程走了一遍,enjoy yourselves!

聯網模式

如何在 Cherry Studio 使用联网模式

此文件由 AI 從中文翻譯而來,尚未經過審閱。

連網模式

需要連網的場景舉例:

  • 時效性訊息:比如今天/本週/剛剛 黃金期貨價格等。

  • 即時數據:比如天氣,匯率等動態數值。

  • 新興知識:比如新事物,新概念,新技術等等...

一、如何開啟連網

在 Cherry Studio 的提問視窗,點擊 【小地球】 圖示即可開啟連網。

二、特別注意:連網有兩種模式

模式1:模型服務商的大模型自帶連網功能

這種情況下,開啟連網後,直接就可以使用連網服務了,非常簡單。

可以透過問答介面上方,模型名字後面是否帶有小地圖標記,迅速判斷該模型是否支援連網。

在模型管理頁面,這個方法也可以讓你快速分辨出哪些模型支援連網,哪些不支援。

Cherry Studio 目前已支援的連網模型服務商有

  • Google Gemini

  • OpenRouter(全部模型支援連網)

  • 騰訊混元

  • 智譜AI

  • 阿里雲百煉等

特別注意:

存在一種特殊的情況,即便模型上沒帶小地球標記,但是它也能實現連網,比如下面這個攻略教學解釋的情況。


模式2:模型不帶連網功能,使用 Tavily服務 實現連網功能

當我們使用一個不帶連網功能的大模型時(名字後面沒有小地球圖示),而我們又需要它獲取一些即時性的訊息進行處理,此時就需要用到Tavily網絡搜尋服務。

初次使用Tavily服務,會彈窗提示去設定一些資訊,請根據指引操作即可-非常簡單!

點擊獲取密鑰後,會自動跳轉到tavily的官網登入註冊頁面,註冊並登入後,建立APIkey,然後複製key到Cherry Studio即可。

不會註冊,參考本文檔同目錄下tavily連網登入註冊教學。

tavily註冊參考文件:

顯示下面的介面表示註冊成功。

再來試一次看看效果。結果表明,已經正常連網搜尋了,並且搜尋結果數是我們設定的預設值:5個。

注意:tavily 每個月有免費限制,超過了要付費~~

PS:如果發現錯誤,歡迎大家隨時聯絡。

自訂 CSS

此文件由 AI 從中文翻譯而來,尚未經過審閱。

自訂CSS

透過自訂 CSS 可以修改軟體的外觀更加符合自己的喜好,例如這樣:

內建變數

更多主題變數請參考原始碼:

相關推薦

Cherry Studio 主題庫:

分享一些中國風 Cherry Studio 主題皮膚:

修改儲存位置

此文件由 AI 從中文翻譯而來,尚未經過審閱。

預設儲存位置

Cherry Studio 資料儲存遵循系統規範,資料會自動放置在使用者目錄下,具體目錄位置如下:

macOS: /Users/username/Library/Application Support/CherryStudioDev

Windows: C:\Users\username\AppData\Roaming\CherryStudio

Linux: /home/username/.config/CherryStudio

也可以在以下位置查看:

修改儲存位置(參考用)

方法一:

可以透過建立軟連結的方式實現。先退出軟體,將資料移動到您希望儲存的位置,然後在原位置建立一個指向新位置的連結即可。

具體操作步驟請參考:

方法二: 基於 Electron 應用特性,透過設定啟動參數修改儲存位置。

--user-data-dir 如: Cherry-Studio-*-x64-portable.exe --user-data-dir="%user_data_dir%"

範例:

init_cherry_studio.bat (編碼格式: ANSI)

目錄 user-data-dir 初始化後的結構:

curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3.2
http://localhost:11434/
https://ollama.com/

思考模式

複雜推理、數學題、規劃類任務

- 求解幾何問題 - 編寫完整項目架構

非思考模式

快速問答、翻譯、摘要

- 查詢天氣 - 中英文互譯

如果對話過長造成匯入失敗
上方的教學
第一步
第二步
上方的教學
配置筆記屬性
選擇路徑
選擇處理方式
匯出單條對話
匯出到 Obsidian
檢視匯出結果
匯出完整對話
配置筆記屬性
匯出單條對話
匯出到 Obsidian
檢視匯出結果
火山引擎模型ID列表示例

知識科普

此文件由 AI 從中文翻譯而來,尚未經過審閱。

知識科普

什麼是 tokens?

Tokens 是 AI 模型處理文本的基本單位,可以理解為模型"思考"的最小單元。它不完全等同於我們理解的字符或單詞,而是模型自己的一種特殊的文本分割方式。

1. 中文分詞

  • 一個漢字通常會被編碼為 1-2 個 tokens

  • 例如:"你好" ≈ 2-4 tokens

2. 英文分詞

  • 常見單詞通常是 1 個 token

  • 較長或不常見的單詞會被分解成多個 tokens

  • 例如:

    • "hello" = 1 token

    • "indescribable" = 4 tokens

3. 特殊字符

  • 空格、標點符號等也會佔用 tokens

  • 換行符通常是 1 個 token

不同服務商的 Tokenizer 都不一樣,甚至同服務商不同模型的 Tokenizer 也有所差別,該知識僅用於明確 token 的概念。


什麼是 Tokenizer?

Tokenizer(分詞器)是 AI 模型將文本轉換為 tokens 的工具。它決定了如何把輸入文本切分成模型可以理解的最小單位。

為什麼不同模型的 Tokenizer 不一樣?

1. 訓練數據不同

  • 不同的語料庫導致優化方向不同

  • 多語言支援程度差異

  • 特定領域(醫療、法律等)的專門優化

2. 分詞算法不同

  • BPE (Byte Pair Encoding) - OpenAI GPT 系列

  • WordPiece - Google BERT

  • SentencePiece - 適合多語言場景

3. 優化目標不同

  • 有的注重壓縮效率

  • 有的注重語意保留

  • 有的注重處理速度

實際影響

同樣的文本在不同模型中的 token 數量可能不同:

輸入:"Hello, world!"
GPT-3: 4 tokens
BERT: 3 tokens
Claude: 3 tokens

什麼是嵌入模型 (Embedding Model)?

基本概念: 嵌入模型是一種將高維離散數據(文本、圖像等)轉換為低維連續向量的技術,這種轉換讓機器能更好地理解和處理複雜數據。想像一下,就像把複雜的拼圖簡化成一個簡單的座標點,但這個點仍然保留了拼圖的關鍵特徵。在大模型生態中,它作為"翻譯官",將人類可理解的信息轉換為 AI 可計算的數字形式。

工作原理: 以自然語言處理為例,嵌入模型可以將詞語映射到向量空間中的特定位置。在這個空間裡,語義相近的詞會自動聚集在一起。比如:

  • "國王"和"王后"的向量會很接近

  • "貓"和"狗"這樣的寵物詞也會距離相近

  • 而"汽車"和"麵包"這樣語義無關的詞則會距離較遠

主要應用場景:

  • 文本分析:文件分類、情感分析

  • 推薦系統:個性化內容推薦

  • 圖像處理:相似圖片檢索

  • 搜索引擎:語義搜索優化

核心優勢:

  1. 降維效果:將複雜數據簡化為易處理的向量形式

  2. 語義保持:保留原始數據中的關鍵語義信息

  3. 計算效率:顯著提升機器學習模型的訓練和推理效率

技術價值: 嵌入模型是現代 AI 系統的基礎組件,為機器學習任務提供了高質量的數據表示,是推動自然語言處理、計算機視覺等領域發展的關鍵技術。


Embedding 模型在知識檢索中的工作原理

基本工作流程:

  1. 知識庫預處理階段

  • 將文件分割成適當大小的 chunk(文本塊)

  • 使用 embedding 模型將每個 chunk 轉換為向量

  • 將向量和原文存儲到向量數據庫中

  1. 查詢處理階段

  • 將用戶問題轉換為向量

  • 在向量庫中檢索相似內容

  • 將檢索到的相關內容作為上下文提供給 LLM


什麼是 MCP(Model Context Protocol)?

MCP 是一種開源協議,旨在以標準化的方式向大型語言模型(LLM)提供上下文信息。

  • 類比理解: 可以把 MCP 想像成 AI 領域的「U盤」。我們知道,U盤可以存儲各種文件,插入電腦後就能直接使用。類似地,MCP Server 上可以「插」上各種提供上下文的「插件」,LLM 可以根據需要向 MCP Server 請求這些插件,從而獲取更豐富的上下文信息,增強自身能力。

  • 與 Function Tool 的對比: 傳統的 Function Tool(函數工具)也可以為 LLM 提供外部功能,但 MCP 更像是一種更高維度的抽象。Function Tool 更多的是針對具體任務的工具,而 MCP 則提供了一種更通用的、模塊化的上下文獲取機制。

MCP 的核心優勢

  1. 標準化: MCP 提供了統一的接口和數據格式,使得不同的 LLM 和上下文提供者可以無縫協作。

  2. 模塊化: MCP 允許開發者將上下文信息分解為獨立的模塊(插件),方便管理和複用。

  3. 靈活性: LLM 可以根據自身需求動態選擇所需的上下文插件,實現更智能、更個性化的互動。

  4. 可擴展性: MCP 的設計支援未來添加更多類型的上下文插件,為 LLM 的能力拓展提供了無限可能。

點擊地球圖示 - 開啟連網
表示 - 已開啟連網功能
彈窗,點擊:去設定
點擊獲取密鑰
複製key
貼上key,大功告成
火山引擎接入聯網
Tavily 聯網登入註冊教學

Cherry Studio 商用許可協議

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Cherry Studio 授權協議

使用或分發 Cherry Studio 素材之任何部分或元素,即視為您已認知並接受本協議內容,本協議立即生效。

一. 定義

  1. 本 Cherry Studio 授權協議(以下簡稱「協議」)應指由本協議定義之關於素材使用、複製、分發及修改的條款與條件。

  2. 「我們」(或「我方」)應指 上海千彗科技有限公司。

  3. 「您」(或「貴方」)應指行使本協議授予之權利,及/或為任何目的及於任何使用領域使用素材之自然人或法人實體。

  4. 「第三方」應指與我們或您均無共同控制權之個人或法人實體。

  5. 「Cherry Studio」應指本軟體套件,包含但不限於 [範例:核心庫、編輯器、外掛、範例專案],以及原始碼、文件、範例程式碼與我們分發之上開各項其他元素。(請依據 CherryStudio 實際構成詳述)

  6. 「素材」應統指上海千彗科技有限公司之專有 Cherry Studio 及文件(及其任何部分),依本協議提供。

  7. 「原始」形式應指進行修改之偏好形式,包含但不限於原始碼、文件來源檔案及設定檔。

  8. 「目標」形式應指原始形式經機械轉換或翻譯後產生之任何形式,包含但不限於編譯後目的碼、生成文件及轉換為其他媒體類型之形式。

  9. 「商業用途」指為直接或間接商業利益或商業優勢之目的,包含但不限於銷售、授權、訂閱、廣告、行銷、培訓、諮詢服務等。

  10. 「修改」指對素材原始形式進行任何變更、調整、衍生或二次開發,包含但不限於修改應用名稱、標誌、程式碼、功能、介面等。

二. 權利授予

  1. 免費商業使用(限未修改程式碼):我們依此根據我方擁有或體現於素材中之智慧財產權或其他權利,授予您一項非專屬、全球範圍、不可轉讓、免權利金之授權,以使用、複製、分發、拷貝及分發未經修改之素材,包含商業用途,惟須遵守本協議條款與條件。

  2. 商業授權(必要時):在滿足第三條「商業授權」所述條件時,您需從我方取得明確書面商業授權,方可行使本協議項下之權利。

三. 商業授權

於下列任一情形,您需聯繫我們並取得明確書面商業授權後,方可繼續使用 Cherry Studio 素材:

  1. 修改與衍生:您對 Cherry Studio 素材進行修改或基於其進行衍生開發(包含但不限於修改應用名稱、標誌、程式碼、功能、介面等)。

  2. 企業服務:於您企業內部,或為企業客戶提供基於 Cherry Studio 之服務,且該服務支援 10 人及以上累計使用者。

  3. 硬體綑綁銷售:您將 Cherry Studio 預裝或整合至硬體設備或產品中進行綑綁銷售。

  4. 政府或教育機構大規模採購:您之使用情境屬政府或教育機構大規模採購專案,尤涉及安全、資料隱私等敏感需求時。

  5. 公眾雲端服務:基於 Cherry Studio 提供面向公眾之雲端服務。

四. 再分發

您可以分發未經修改之素材副本,或將其作為包含未修改素材之產品或服務的一部分提供,以原始形式或目標形式分發,但您須滿足下列條件:

  1. 您應向素材之任何其他接收者提供本協議副本;

  2. 您應於分發之所有素材副本中,保留下列署名聲明,並置於此類副本分發之「NOTICE」或類似文字檔內:`"Cherry Studio is licensed under the Cherry Studio LICENSE AGREEMENT, Copyright (c) 上海千彗科技有限公司. All Rights Reserved."` (Cherry Studio 依 Cherry Studio 授權協議取得授權,版權所有 (c) 上海千彗科技有限公司。保留所有權利。)

五. 使用規則

  1. 素材可能受出口管制或限制。您使用素材時應遵守適用法律法規。

  2. 若您使用素材或其任何輸出結果建立、訓練、微調或改進將被分發或提供之軟體或模型,我們鼓勵您於相關產品文件中顯著標示「Built with Cherry Studio」或「Powered by Cherry Studio」。

六. 智慧財產權

  1. 我們保留對素材及由我方或為我方製作之衍生作品所有智慧財產權之所有權。在遵守本協議條款與條件之前提下,對於您製作之素材修改與衍生作品,其智慧財產權歸屬將依具體商業授權協議約定。在未獲商業授權情況下,您對素材之修改與衍生作品不享有所有權,其智慧財產權仍歸屬我方。

  2. 除履行本協議項下通知義務或在描述與再分發素材時合理慣常使用所必需外,未授予使用我方商號、商標、服務標誌或產品名稱之商標授權。

  3. 若您對我方或任何實體提起訴訟或其他法律程序(包含訴訟中之反訴或反請求),主張素材或其任何輸出,或上述任何部分侵害您擁有或可授權之智慧財產權或其他權利,則本協議授予您之一切授權應自該訴訟或法律程序開始或提起之日起終止。

七. 免責聲明與責任限制

  1. 我們無義務支援、更新、提供培訓或開發任何 CherryStudio 素材之新版,亦無義務授予任何相關授權。

  2. 素材依「現狀」提供,不附帶任何明示或暗示保證,包含對適售性、不侵權性或特定用途適用性之保證。對於素材及其任何輸出之安全性或穩定性,我們不作任何保證,亦不承擔任何責任。

  3. 在任何情況下,對於因您使用或無法使用素材或其任何輸出引起之損害(包含但不限於直接、間接、特殊或後續損害),無論其如何引起,我們均不對您承擔責任。

  4. 對於任何第三方因您使用或分發素材引起或與之相關之索賠,您將為我們辯護、賠償並使我們免受損害。

八. 存續與終止

  1. 本協議效期自您接受本協議或存取素材時起算,並將持續有效直至依本協議條款終止。

  2. 若您違反本協議任何條款,我們可終止本協議。協議終止後,您須停止使用素材。第七條、第九條及「二. 貢獻者協議」於本協議終止後持續有效。

九. 適用法律與管轄

  1. 本協議及因本協議引起或與之相關之任何爭議,均受中國法律管轄。

  2. 上海市人民法院對因本協議引起之任何爭議具有專屬管轄權。

簡單任務(建議關閉思考)

- 查詢「智譜AI的成立時間」 - 翻譯「I love you」為中文

中等任務(建議啟用思考)

- 比較飛機與高鐵從北京到上海的優劣 - 解釋木星為何有較多衛星

複雜任務(強烈建議啟用思考)

- 說明 MoE 模型中專家如何協作 - 基於市場資訊分析是否應買入ETF

:root {
  --color-background: #1a462788;
  --color-background-soft: #1a4627aa;
  --color-background-mute: #1a462766;
  --navbar-background: #1a4627;
  --chat-background: #1a4627;
  --chat-background-user: #28b561;
  --chat-background-assistant: #1a462722;
}

#content-container {
  background-color: #2e5d3a !important;
}
:root {
  font-family: "汉仪唐美人" !important; /* 字體 */
}

/* 深度思考展開字體顏色 */
.ant-collapse-content-box .markdown {
  color: red;
}

/* 主題變數 */
:root {
  --color-black-soft: #2a2b2a; /* 深色背景色 */
  --color-white-soft: #f8f7f2; /* 淺色背景色 */
}

/* 深色主題 */
body[theme-mode="dark"] {
  /* 顏色 */
  --color-background: #2b2b2b; /* 深色背景色 */
  --color-background-soft: #303030; /* 淺色背景色 */
  --color-background-mute: #282c34; /* 中性背景色 */
  --navbar-background: var(-–color-black-soft); /* 導覽列背景色 */
  --chat-background: var(–-color-black-soft); /* 聊天背景色 */
  --chat-background-user: #323332; /* 使用者聊天背景色 */
  --chat-background-assistant: #2d2e2d; /* 助手聊天背景色 */
}

/* 深色主題特定樣式 */
body[theme-mode="dark"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* 內容容器背景色 */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* 訊息背景色 */
  }

  .inputbar-container {
    background-color: #3d3d3a; /* 輸入框背景色 */
    border: 1px solid #5e5d5940; /* 輸入框邊框顏色 */
    border-radius: 8px; /* 輸入框邊框圓角 */
  }

  /* 程式碼樣式 */
  code {
    background-color: #e5e5e20d; /* 程式碼背景色 */
    color: #ea928a; /* 程式碼文字顏色 */
  }

  pre code {
    color: #abb2bf; /* 預格式化程式碼文字顏色 */
  }
}

/* 淺色主題 */
body[theme-mode="light"] {
  /* 顏色 */
  --color-white: #ffffff; /* 白色 */
  --color-background: #ebe8e2; /* 淺色背景色 */
  --color-background-soft: #cbc7be; /* 淺色背景色 */
  --color-background-mute: #e4e1d7; /* 中性背景色  */
  --navbar-background: var(-–color-white-soft); /* 導覽列背景色 */
  --chat-background: var(-–color-white-soft); /* 聊天背景色 */
  --chat-background-user: #f8f7f2; /* 使用者聊天背景色 */
  --chat-background-assistant: #f6f4ec; /* 助手聊天背景色 */
}

/* 淺色主題特定樣式 */
body[theme-mode="light"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* 內容容器背景色 */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* 訊息背景色 */
  }

  .inputbar-container {
    background-color: #ffffff; /* 輸入框背景色 */
    border: 1px solid #87867f40; /* 輸入框邊框顏色 */
    border-radius: 8px; /* 輸入框邊框圓角,修改為您喜歡的大小 */
  }

  /* 程式碼樣式 */
  code {
    background-color: #3d39290d; /* 程式碼背景色 */
    color: #7c1b13; /* 程式碼文字顏色 */
  }

  pre code {
    color: #000000; /* 預格式化程式碼文字顏色 */
  }
}
https://github.com/CherryHQ/cherry-studio/tree/main/src/renderer/src/assets/styles
https://github.com/boilcy/cherrycss
https://linux.do/t/topic/325119/129
自訂 CSS
PS D:\CherryStudio> dir


    目錄: D:\CherryStudio


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:05                user-data-dir
-a----         2025/4/14     23:05       94987175 Cherry-Studio-1.2.4-x64-portable.exe
-a----         2025/4/18     14:05            701 init_cherry_studio.bat
@title CherryStudio 初始化
@echo off

set current_path_dir=%~dp0
@echo 目前路徑:%current_path_dir%
set user_data_dir=%current_path_dir%user-data-dir
@echo CherryStudio 資料路徑:%user_data_dir%

@echo 搜尋目前路徑下的 Cherry-Studio-*-portable.exe
setlocal enabledelayedexpansion

for /f "delims=" %%F in ('dir /b /a-d "Cherry-Studio-*-portable*.exe" 2^>nul') do ( #此程式碼適用於 GitHub 和官網下載版本,其他版本請自行修改
    set "target_file=!cd!\%%F"
    goto :break
)
:break
if defined target_file (
    echo 找到檔案: %target_file%
) else (
    echo 未找到符合檔案,結束腳本執行
    pause
    exit
)

@echo 確認執行請繼續
pause

@echo 啟動 CherryStudio
start %target_file% --user-data-dir="%user_data_dir%"

@echo 操作完成
@echo on
exit
PS D:\CherryStudio> dir .\user-data-dir\


    目錄: D:\CherryStudio\user-data-dir


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:29                blob_storage
d-----         2025/4/18     14:07                Cache
d-----         2025/4/18     14:07                Code Cache
d-----         2025/4/18     14:07                Data
d-----         2025/4/18     14:07                DawnGraphiteCache
d-----         2025/4/18     14:07                DawnWebGPUCache
d-----         2025/4/18     14:07                Dictionaries
d-----         2025/4/18     14:07                GPUCache
d-----         2025/4/18     14:07                IndexedDB
d-----         2025/4/18     14:07                Local Storage
d-----         2025/4/18     14:07                logs
d-----         2025/4/18     14:30                Network
d-----         2025/4/18     14:07                Partitions
d-----         2025/4/18     14:29                Session Storage
d-----         2025/4/18     14:07                Shared Dictionary
d-----         2025/4/18     14:07                WebStorage
-a----         2025/4/18     14:07             36 .updaterId
-a----         2025/4/18     14:29             20 config.json
-a----         2025/4/18     14:07            434 Local State
-a----         2025/4/18     14:29             57 Preferences
-a----         2025/4/18     14:09           4096 SharedStorage
-a----         2025/4/18     14:30            140 window-state.json
https://github.com/CherryHQ/cherry-studio/issues/621#issuecomment-2588652880
​
​
https://cherry-ai.com/download
https://pan.quark.cn/s/c8533a1ec63e#/list/share
派歐算力雲 API 金鑰管理
​
陳恩
​
《【還在為 DeepSeek 瘋狂轉圈抓狂?】派歐雲+DeepSeek 滿血版 =?不再擁堵,即刻起飛》

自訂服務商

此文件由 AI 從中文翻譯而來,尚未經過審閱。

自訂服務供應商

Cherry Studio 不僅整合了主流的 AI 模型服務,還賦予您強大的自訂能力。透過 自訂 AI 服務供應商 功能,您可以輕鬆接入任何您需要的 AI 模型。

為什麼需要自訂 AI 服務供應商?

  • 靈活性: 不再受限於預置的供應商清單,自由選擇最適合您需求的 AI 模型。

  • 多樣性: 嘗試各種不同平台的 AI 模型,發掘它們的獨特優勢。

  • 可控性: 直接管理您的 API 金鑰和訪問地址,確保安全和隱私。

  • 客製化: 接入私有化部署的模型,滿足特定業務場景的需求。

如何新增自訂 AI 服務供應商?

只需簡單幾步,即可在 Cherry Studio 中新增您的自訂 AI 服務供應商:

  1. 開啟設定: 在 Cherry Studio 介面左側導覽列中,點擊「設定」(齒輪圖示)。

  2. 進入模型服務: 在設定頁面中,選擇「模型服務」標籤頁。

  3. 新增供應商: 在「模型服務」頁面中,您會看到現有的供應商清單。點擊清單下方的「+ 新增」按鈕,開啟「新增供應商」彈窗。

  4. 填寫資訊: 在彈窗中,您需要填寫以下資訊:

    • 供應商名稱: 為您的自訂供應商取一個易於識別的名稱(例如:MyCustomOpenAI)。

    • 供應商類型: 從下拉清單中選擇您的供應商類型。目前支援:

      • OpenAI

      • Gemini

      • Anthropic

      • Azure OpenAI

  5. 儲存設定: 填寫完畢後,點擊「新增」按鈕儲存您的設定。

設定自訂 AI 服務供應商

新增完成後,您需要在清單中找到您剛剛新增的供應商,並進行詳細設定:

  1. 啟用狀態 自訂供應商清單最右側有一個啟用開關,開啟代表啟用該自訂服務。

  2. API 金鑰:

    • 填寫您的 AI 服務供應商提供的 API 金鑰(API Key)。

    • 點擊右側的「檢查」按鈕,可以驗證金鑰的有效性。

  3. API 地址:

    • 填寫 AI 服務的 API 存取地址(Base URL)。

    • 請務必參考您的 AI 服務供應商提供的官方文件,取得正確的 API 地址。

  4. 模型管理:

    • 點擊「+ 新增」按鈕,手動新增此供應商下您想要使用的模型ID。例如 gpt-3.5-turbo、gemini-pro 等。

    • 如果您不確定具體的模型名稱,請參考您的 AI 服務供應商提供的官方文件。

    • 點擊「管理」按鈕,可以對已經新增的模型進行編輯或者刪除。

開始使用

完成以上設定後,您就可以在 Cherry Studio 的對話介面中,選擇您自訂的 AI 服務供應商和模型,開始與 AI 進行對話了!

使用 vLLM 作為自訂 AI 服務供應商

vLLM 是一個類似 Ollama 的快速且易於使用的 LLM 推理庫。以下是如何將 vLLM 整合到 Cherry Studio 中的步驟:

  1. 安裝 vLLM: 按照 vLLM 官方文件(https://docs.vllm.ai/en/latest/getting_started/quickstart.html)安裝 vLLM。

    pip install vllm # 如果你使用 pip
    uv pip install vllm # 如果你使用 uv
  2. 啟動 vLLM 服務: 使用 vLLM 提供的 OpenAI 相容介面啟動服務。主要有兩種方式,分別如下:

    • 使用vllm.entrypoints.openai.api_server啟動

    python -m vllm.entrypoints.openai.api_server --model gpt2
    • 使用uvicorn啟動

    vllm --model gpt2 --served-model-name gpt2

確保服務成功啟動,並監聽在預設連接埠 8000 上。當然,您也可以透過參數--port指定 vLLM 服務的連接埠號。

  1. 在 Cherry Studio 中新增 vLLM 供應商:

    • 按照前面描述的步驟,在 Cherry Studio 中新增一個自訂 AI 服務供應商。

    • 供應商名稱: vLLM

    • 供應商類型: 選擇 OpenAI。

  2. 設定 vLLM 供應商:

    • API 金鑰: 因為 vLLM 不需要 API 金鑰,可以將此欄位留空,或者填寫任意內容。

    • API 地址: 填寫 vLLM 服務的 API 地址。預設情況下,地址為: http://localhost:8000/(如果使用了不同的連接埠,請相應地修改)。

    • 模型管理: 新增您在 vLLM 中加載的模型名稱。在上面執行python -m vllm.entrypoints.openai.api_server --model gpt2的例子中,應該在此處填入gpt2

  3. 開始對話: 現在,您可以在 Cherry Studio 中選擇 vLLM 供應商和 gpt2 模型,開始與 vLLM 驅動的 LLM 進行對話了!

提示與技巧

  • 仔細閱讀文件: 在新增自訂供應商之前,請務必仔細閱讀您所使用的 AI 服務供應商的官方文件,了解 API 金鑰、訪問地址、模型名稱等關鍵資訊。

  • 檢查 API 金鑰: 使用「檢查」按鈕可以快速驗證 API 金鑰的有效性,避免因金鑰錯誤導致無法使用。

  • 關注 API 地址: 不同的 AI 服務供應商和模型,API 地址可能有所不同,請務必填寫正確的地址。

  • 按需新增模型: 請只新增您實際上會用到的模型,避免新增過多無用模型。

知識科普

知識庫教學

此文件由 AI 從中文翻譯而來,尚未經過審閱。

知識庫教程

在 0.9.1 版本中,CherryStudio 帶來了期待已久的知識庫功能。

下面我們將按步驟呈現 CherryStudio 的詳細使用說明。

添加嵌入模型

  1. 在模型管理服務中查找模型,可以點擊「嵌入模型」快速篩選;

  2. 找到需要的模型,添加到我的模型。

創建知識庫

  1. 知識庫入口:在 CherryStudio 左側工具欄,點擊知識庫圖標,即可進入管理頁面;

  2. 添加知識庫:點擊添加,開始創建知識庫;

  3. 命名:輸入知識庫的名稱並添加嵌入模型,以 bge-m3 為例,即可完成創建。

添加文件並向量化

  1. 添加文件:點擊添加文件的按鈕,打開文件選擇;

  2. 選擇文件:選擇支援的文件格式,如 pdf,docx,pptx,xlsx,txt,md,mdx 等,並打開;

  3. 向量化:系統會自動進行向量化處理,當顯示完成時(綠色 ✓),代表向量化已完成。

添加多種來源的數據

CherryStudio 支援多種添加數據的方式:

  1. 文件夾目錄:可以添加整個文件夾目錄,該目錄下支援格式的文件會被自動向量化;

  2. 網址連結:支援網址 url,如;

  3. 站點地圖:支援 xml 格式的站點地圖,如;

  4. 純文本筆記:支援輸入純文本的自定義內容。

提示:

  1. 導入知識庫的文檔中的插圖暫不支援轉換為向量,需要手動轉換為文本;

  2. 使用網址作為知識庫來源時不一定會成功,有些網站有比較嚴格的反扒機制(或需要登入、授權等),因此該方式不一定能獲取到準確內容。創建完成後建議先搜索測試一下。

  3. 一般網站都會提供sitemap,如CherryStudio的,一般在網站的根地址(即網址)後加/sitemap.xml可以獲取到相關資訊。如aaa.com/sitemap.xml 。

  4. 如果網站沒提供sitemap或者網址比較雜可自行組合一個sitemap的xml文件使用,文件暫時需要使用公網可直接訪問的直鏈的方式填入,本地文件連結不會被識別。

  1. 可以讓AI生成sitemap文件或讓AI寫一個sitemap的HTML生成器工具;

  2. 直鏈可以使用oss直鏈或者網盤直鏈等方式來生成。如果沒有現成工具也可到官網,登入後使用網站頂欄的免費文件上傳工具來生成直鏈。

搜索知識庫

當文件等資料向量化完成後,即可進行查詢:

  1. 點擊頁面下方的搜索知識庫按鈕;

  2. 輸入查詢的內容;

  3. 呈現搜索的結果;

  4. 並顯示該條結果的匹配分數。

對話中引用知識庫生成回覆

  1. 創建一個新的話題,在對話工具欄中,點擊知識庫,會展開已經創建的知識庫列表,選擇需要引用的知識庫;

  2. 輸入並發送問題,模型即返回通過檢索結果生成的答案;

  3. 同時,引用的數據來源會附在答案下方,可快捷查看源文件。

常見問題

此文件由 AI 從中文翻譯而來,尚未經過審閱。

常見錯誤代碼

  • 4xx(客戶端錯誤狀態碼):一般為請求語法錯誤、鑒權失敗或認證失敗等無法完成請求。

  • 5xx(伺服器錯誤狀態碼):一般為服務端錯誤,伺服器宕機、請求處理超時等。

錯誤碼
可能的情況
解決方法

控制台報錯查看方法

  • 點擊 Cherry Studio 客戶端窗口後按下快捷鍵 Ctrl + Shift + I(Mac端:Command + Option + I)

  • 當前活動窗口必須為 Cherry Studio 的客戶端窗口才能調出控制台;

  • 需要先打開控制台,再點擊測試或者發起對話等請求才能收集到請求信息。

  • 在彈出的控制台窗口中點擊 Network → 點擊查看②處最後一個標有紅色 × 的 completions(對話類、翻譯、模型連通性檢查等遇到錯誤時) 或 generations(繪畫遇到錯誤時) → 點擊Response查看完整的返回內容(圖中④的區域)。

如果你無法判斷該錯誤的原因,請將該界面截圖發送到 中尋求幫助。

該檢查方法不僅在對話時可以獲取錯誤信息,在模型測試時、添加知識庫時、繪畫時等都可以使用。無論哪種情況下都需要先打開調試窗口,再進行請求操作來獲取請求信息。

不同場景下Name(上圖②處)欄裡的名稱會有所區別

對話、翻譯、模型檢查:completions

繪畫:generations

知識庫創建:embeddings


公式沒被渲染/公式渲染錯誤

  • 公式未被渲染而是直接顯示的公式的程式碼時檢查公式是否有定界符

定界符用法

行內公式

  • 使用單個美元符號: $formula$

  • 或使用\( 和 \),如:\(formula\)

獨立公式塊

  • 使用雙美元符號: $$formula$$

  • 或使用 \[formula\]

  • 示例: $$\sum_{i=1}^n x_i$$

  • 公式渲染錯誤/亂碼 常見在公式內包含中文內容時,嘗試切換公式引擎為 KateX。


無法創建知識庫/提示獲取嵌入維度失敗

  1. 模型狀態不可用

確認服務商是否支援該模型或確認服務商該模型服務狀態是否正常。

2.使用了非嵌入模型


模型不能識圖/無法上傳或選擇圖片

首先需要確認模型是否支援識圖,熱門模型 Cherry Studio 會對其分類,模型名稱後帶小眼睛圖標的即支援識圖。

識圖模型會支援圖像文件的上傳,如果模型功能未被正確匹配可在對應服務商的模型列表當中找到該模型,點擊其名稱後的設置按鈕並勾選圖像選項。

模型具體的信息可以到對應服務商找到其信息查閱。同嵌入模型一樣,不支援視覺的模型不需要強制開啟圖像功能,勾選了圖像的選項也沒有作用。

Code Tools 使用教學

Tools

此文件由 AI 從中文翻譯而來,尚未經過審閱。

Cherry Studio v1.5.7 版本引入了操作簡易且功能強大的 Code Agent 功能,可直接啟動和管理多種 AI 編程agent。本教程將引導您完成設定和啟動的完整流程。


操作步驟

1. 升級 Cherry Studio

首先,請確保您的 Cherry Studio 已升級至 v1.5.7 或更高版本。您可前往 或官方網站下載最新版本。

2. 調整導航列位置

為方便使用頂部標籤頁功能,建議將導航列調整至頂部。

  • 操作路徑:設定 -> 顯示設定 -> 導航列設定

  • 將「導航列位置」選項設為 頂部。

3. 新增標籤頁

點選介面頂部的「+」號圖標,新增空白標籤頁。

4. 開啟 Code Agent 功能

在新標籤頁中點擊 Code(或 </>)圖標,進入 Code Agent 設定介面。

5. 選擇 CLI 工具

根據需求及持有的 API Key 選擇要使用的 Code Agent 工具。目前支援以下幾種:

  • Claude Code

  • Gemini CLI

  • Qwen Code

  • OpenAI Codex

6. 選擇 Agent 調用的模型

在下拉式選單中選擇與 CLI 工具相容的模型。(詳細模型相容性說明請參考下方「重要注意事項」)

7. 指定工作目錄

點擊「選擇目錄」按鈕,為 Agent 指定工作目錄。Agent 將具備存取此目錄下所有檔案及子目錄的權限,以便理解專案脈絡、讀取檔案及執行程式碼。

8. 設定環境變數

  • 自動配置:您在步驟 6(模型)和步驟 7(工作目錄)的選擇會自動生成相應環境變數。

  • 自訂新增:若 Agent 或專案需特定環境變數(如 PROXY_URL 等),可在此區域自訂新增。

9. 更新選項

  • 內建可執行檔:Cherry Studio 已整合上述所有 Code Agent 執行檔,多數情況下無需連網即可直接使用。

  • 自動更新:若希望 Agent 始終維持最新版本,可勾選 檢查更新並安裝最新版本 選項。勾選後每次啟動時會自動連網檢查並更新 Agent 工具。

10. 啟動 Agent

完成所有設定後點擊 啟動 按鈕。Cherry Studio 將自動呼叫系統 Terminal(終端機),載入所有環境變數後運行所選 Code Agent。現在您可在彈出的終端機視窗中與 AI Agent 互動。


重要注意事項

  1. 模型相容性說明:

    • Claude Code:需選擇支援 Anthropic API Endpoint 格式的模型。目前官方支援模型包含:

      • Claude 系列模型

      • DeepSeek V3.1 (官方 API 平台)

      • Kimi K2 (官方 API 平台)

      • 智譜 GLM 4.5 (官方 API 平台)

      • 注意:當前許多第三方服務商(如 One API, New API 等)針對 DeepSeek, Kimi, GLM 的 API 接口多數僅支援 OpenAI Chat Completions 格式,可能需等待服務商逐步適配後方能與 Claude Code 相容。

    • Gemini CLI:需選擇 Google 的 Gemini 系列模型。

    • Qwen Code:支援 OpenAI Chat Completions API 格式模型,強烈建議使用 Qwen3 Coder 系列模型以獲得最佳程式碼生成效果。

    • OpenAI Codex:支援 GPT 系列模型(如 gpt-4o, gpt-5 等)。

  2. 依賴與環境衝突:

    • Cherry Studio 內建獨立 Node.js 運行環境、Code Agent 執行檔及環境變數配置,旨在提供開箱即用的潔淨環境。

    • 若啟動 Agent 時遇到依賴衝突或異常錯誤,建議暫時解除安裝或停用系統內相關全域依賴(如 Node.js 或特定工具鏈)以排除衝突。

  3. API Token 消耗警示:

    • Code Agent 的 API Token 消耗量極大。處理複雜任務時,Agent 需反覆思考、規劃並生成程式碼,可能產生大量請求導致 Token 快速耗盡。

    • 請務必依據自身 API 額度及預算量力而為,密切關注 Token 使用狀況以防預算超支。

希望本教學能協助您快速掌握 Cherry Studio 強大的 Code Agent 功能!

https://docs.siliconflow.cn/introduction
https://docs.siliconflow.cn/sitemap.xml
sitemap
ocoolAI

400

請求體格式錯誤等

查看對話返回的錯誤內容或 控制台 查看報錯內容,根據提示操作。 【常見情況1】:如果是gemini模型,可能需要進行綁卡操作; 【常見情況2】:數據體積超限,常見於視覺模型,圖片體積超過上游單個請求流量上限會返回該錯誤碼; 【常見情況3】:加了不支援的參數或參數填寫錯誤。嘗試新建一個純淨的助手測試是否正常; 【常見情況4】:上下文超過限制,清除上下文或新建對話或減少上下文條數。

401

認證失敗:模型不被支援或服務端帳戶被封禁等

聯繫或查看對應服務商帳戶狀態

403

請求操作無權限

根據對話返回的錯誤信息或控制台錯誤信息提示進行相應操作

404

無法找到請求資源

檢查請求路徑等

422

請求格式正確,但語義錯誤

這類錯誤服務端能解析,但無法處理。常見於JSON語義錯誤(如:空值;要求值為字符串,但寫成了數字或布爾值等情況)。

429

請求速率達到上限

請求速率(TPM 或 RPM)達到上限,冷靜一會再用

500

伺服器內部錯誤,無法完成請求

持續出現的話聯繫上游服務商

501

伺服器不支援請求的功能,無法完成請求

502

作為網關或者代理工作的伺服器嘗試執行請求時,從遠端伺服器接收到了一個無效的回應

503

由於超載或系統維護,伺服器暫時的無法處理客戶端的請求。延時的長度可包含在伺服器的Retry-After頭信息中

504

充當網關或代理的伺服器,未及時從遠端伺服器獲取請求

∑i=1nxi\sum_{i=1}^n x_i∑i=1n​xi​
官方交流群
GitHub Releases
Cherry Studio - 全能的AI助手Cherry Studio
Cherry Studio - 全能的AI助手Cherry Studio

嵌入模型參考資訊

此文件由 AI 從中文翻譯而來,尚未經過審閱。

嵌入模型參考資訊

為了防止出錯,在本文檔中部分模型的 max input 的值沒有寫成極限值,例如:在官方給出的最大輸入值為8k(未明確給出具體數值)時,本文檔中給出的參考值為8191或8000等。(看不懂可忽略,按照文檔中的參考值填寫即可)

火山-豆包

官方模型資訊參考地址

名稱
max input

Doubao-embedding

4095

Doubao-embedding-vision

8191

Doubao-embedding-large

4095

阿里

官方模型資訊參考地址

名稱
max input

text-embedding-v3

8192

text-embedding-v2

2048

text-embedding-v1

2048

text-embedding-async-v2

2048

text-embedding-async-v1

2048

OpenAI

官方模型資訊參考地址

名稱
max input

text-embedding-3-small

8191

text-embedding-3-large

8191

text-embedding-ada-002

8191

百度

官方模型資訊參考地址

名稱
max input

Embedding-V1

384

tao-8k

8192

智譜

官方模型資訊參考地址

名稱
max input

embedding-2

1024

embedding-3

2048

混元

官方模型資訊參考地址

名稱
max input

hunyuan-embedding

1024

百川

官方模型資訊參考地址

名稱
max input

Baichuan-Text-Embedding

512

together

官方模型資訊參考地址

名稱
max input

M2-BERT-80M-2K-Retrieval

2048

M2-BERT-80M-8K-Retrieval

8192

M2-BERT-80M-32K-Retrieval

32768

UAE-Large-v1

512

BGE-Large-EN-v1.5

512

BGE-Base-EN-v1.5

512

Jina

官方模型資訊參考地址

名稱
max input

jina-embedding-b-en-v1

512

jina-embeddings-v2-base-en

8191

jina-embeddings-v2-base-zh

8191

jina-embeddings-v2-base-de

8191

jina-embeddings-v2-base-code

8191

jina-embeddings-v2-base-es

8191

jina-colbert-v1-en

8191

jina-reranker-v1-base-en

8191

jina-reranker-v1-turbo-en

8191

jina-reranker-v1-tiny-en

8191

jina-clip-v1

8191

jina-reranker-v2-base-multilingual

8191

reader-lm-1.5b

256000

reader-lm-0.5b

256000

jina-colbert-v2

8191

jina-embeddings-v3

8191

硅基流動

官方模型資訊參考地址

名稱
max input

BAAI/bge-m3

8191

netease-youdao/bce-embedding-base_v1

512

BAAI/bge-large-zh-v1.5

512

BAAI/bge-large-en-v1.5

512

Pro/BAAI/bge-m3

8191

Gemini

官方模型資訊參考地址

名稱
max input

text-embedding-004

2048

nomic

官方模型資訊參考地址

名稱
max input

nomic-embed-text-v1

8192

nomic-embed-text-v1.5

8192

gte-multilingual-base

8192

console

官方模型資訊參考地址

名稱
max input

embedding-query

4000

embedding-passage

4000

cohere

官方模型資訊參考地址

名稱
max input

embed-english-v3.0

512

embed-english-light-v3.0

512

embed-multilingual-v3.0

512

embed-multilingual-light-v3.0

512

embed-english-v2.0

512

embed-english-light-v2.0

512

embed-multilingual-v2.0

256

對話介面

此文件由 AI 從中文翻譯而來,尚未經過審閱。

助手與話題

助手

助手 是對所選模型進行個性化設置的配置,如提示詞預設和參數預設等,通過這些設置讓模型更符合預期的工作方式。

系統預設助手 提供通用參數(無提示詞),您可直接使用或到 智能體頁面 尋找所需預設。

話題

助手 是 話題 的父集合,單個助手可建立多個話題(對話),所有 話題 共享助手的參數設置和提示詞 (prompt) 等模型配置。

對話框內按鈕

新話題 在當前助手內建立新話題。

上傳圖片或文件 需模型支援圖片解析,上傳文件會自動解析為文字作為上下文。

網路搜尋 需先在設定中配置,搜尋結果將作為上下文提供給模型,詳見 聯網模式。

知識庫 開啟知識庫功能,詳見 知識庫教學。

MCP 伺服器 開啟 MCP 伺服器功能,詳見 MCP 使用教學。

產生圖片 預設隱藏,對支援產生圖片的模型(如 Gemini),需手動點亮按鈕才可生成圖片。

由於技術限制,您必須手動點亮按鈕才能產生圖片,此按鈕在功能優化後將移除。

選擇模型 為後續對話切換指定模型,保留上下文。

快捷短語 需先在設定中預設常用短語,此處可直接調用,支援變數。

清空訊息 刪除該話題所有內容。

展開 擴大對話框,方便輸入長文。

清除上下文 在不刪除內容情況下截斷模型能獲取的上下文,使模型"忘記"先前對話。

預估 Token 數 顯示預估數據:當前上下文數、最大上下文數(∞ 表示無限制)、當前輸入框訊息字數、預估 Token 數。

此功能僅供參考,實際 Token 數因模型而異,請以模型供應商資料為準。

翻譯 將輸入框內容翻譯成英文。

對話設定

模型設定

參數與助手設定中的 模型設定 同步,詳見 編輯助手。

對話設定中僅模型設定作用於當前助手,其餘設定作用於全域(例如設定訊息樣式後所有話題均適用)。

訊息設定

訊息分隔線:

分隔訊息正文與操作欄。

使用襯線字體:

切換字體樣式,也可透過 自訂css 更換字體。

程式碼顯示行號:

模型輸出程式碼時顯示行號。

程式碼塊可折疊:

程式碼過長時自動折疊區塊。

程式碼塊自動換行:

單行程式碼超出視窗時自動換行。

思考內容自動折疊:

支援思考的模型完成後自動折疊思考過程。

訊息樣式:

切換氣泡樣式或清單樣式。

程式碼風格:

切換程式碼片段顯示風格。

數學公式引擎:

  • KaTeX:渲染速度更快,針對效能優化

  • MathJax:功能更完整,支援更多數學符號(渲染較慢)

訊息字體大小:

調整對話介面字體大小。

輸入設定

顯示預估 Token 數:

輸入框顯示預估消耗 Token 數(僅供參考)。

長文字貼上為文件:

貼上長文字時自動顯示為文件樣式,減少干擾。

Markdown 渲染輸入訊息:

關閉時僅渲染模型回覆,不渲染發送訊息。

快速敲擊3次空白鍵翻譯:

輸入內容後連敲三次空白鍵可翻譯為英文。

注意:此操作會覆蓋原始內容。

目標語言:

設定翻譯按鈕和快速翻譯的目標語言。

助手設定

在助手介面右鍵點選助手名稱→選擇設定選項

編輯助手

助手設定作用於該助手所有話題。

提示詞設定

名稱:

自訂助手辨識名稱。

提示詞:

即 prompt ,可參考智能體頁面格式編輯。

模型設定

預設模型:

為助手固定預設模型。未設定時採用 全域預設模型。

助手預設模型優先級高於全域預設模型。

自動重置模型:

開啟時-切換模型後新建話題會重置為助手預設模型;關閉時新建話題沿用上個話題模型。

範例:助手預設模型為gpt-3.5-turbo,在話題1切換gpt-4o後:

開啟自動重置:話題2將使用gpt-3.5-turbo

關閉自動重置:話題2將使用gpt-4o

溫度 (Temperature) :

控制輸出隨機性(預設0.7):

  • 低值(0-0.3):精確輸出,適合程式碼生成

  • 中值(0.4-0.7):平衡創造力,推薦日常對話

  • 高值(0.8-1.0):高創造力,適合創意寫作

Top P (核採樣):

控制詞彙選擇範圍(預設1):

  • 小值(0.1-0.3):保守輸出,適合技術文件

  • 中值(0.4-0.6):平衡多樣性

  • 大值(0.7-1.0):多樣化表達,適合創意場景

  • 參數可單獨或組合使用

  • 根據任務類型選擇合適值

  • 實際效果請參考模型文件建議

上下文數量 (Context Window)

保留的上下文訊息數量:

  • 5-10:普通對話

  • 10:複雜任務(消耗更多 token)

  • 注意:訊息越多消耗 token 越多

開啟訊息長度限制 (MaxToken)

單次回答最大 Token 數:

範例:測試模型連通性時可設 MaxToken=1

多數模型上限為32k Tokens(部分支援更高)

建議值:

  • 普通聊天:500-800

  • 短文生成:800-2000

  • 程式碼生成:2000-3600

  • 長文生成:4000+ (需模型支援)

過低限制可能導致輸出截斷或不完整。

流式輸出(Stream)

資料即時傳輸處理方式:

  • 開啟:逐字輸出(打字機效果)

  • 關閉:整段一次性輸出

部分模型(如o1-mini)需關閉此功能。

自訂參數

在請求體(body)中添加額外參數(如 presence_penalty)。

填寫格式:參數名稱—類型—值,參考 OpenAI 文件

  • 自訂參數優先級高於內建參數

  • 使用 參數名稱:undefined 可排除參數

  • 各模型商可能有專屬參數

常見模型參考資訊

此文件由 AI 從中文翻譯而來,尚未經過審閱。

常見模型參考資訊

  • 以下資訊僅供參考,如有錯誤可聯繫糾正,部分模型的服務商不同其上下文大小和模型資訊可能也會有所不同;

  • 在客戶端輸入資料時需要將「k」轉換成實際數值(理論上1k=1024個tokens;1m=1024k tokens),例如8k為8×1024=8192 tokens。建議在實際使用時×1000即可,防止報錯,例如8k為8×1000=8000,1m=1×1000000=1000000;

  • 最大輸出為「-」的為未從官方查詢到該模型明確的最大輸出資訊。

<极不支持> ```html

模型名稱
最大輸入
最大輸出
函數調用
模型能力
服務商
簡介

360gpt-pro

8k

-

不支援

對話

360AI_360gpt

360智腦系列效果最好的主力千億級大模型,廣泛適用於各領域複雜任務場景。

360gpt-turbo

7k

-

不支援

對話

360AI_360gpt

兼顧性能和效果的百億級大模型,適合對性能/成本要求較高的場景。

360gpt-turbo-responsibility-8k

8k

-

不支援

對話

360AI_360gpt

兼顧性能和效果的百億級大模型,適合對性能/成本要求較高的場景。

360gpt2-pro

8k

-

不支援

對話

360AI_360gpt

360智腦系列效果最好的主力千億級大模型,廣泛適用於各領域複雜任務場景。

claude-3-5-sonnet-20240620

200k

16k

不支援

對話,識圖

Anthropic_claude

於2024年6月20日發佈的快照版本,Claude 3.5 Sonnet是一個平衡了性能和速度的模型,在保持高速度的同時提供頂級性能,支援多模態輸入。

claude-3-5-haiku-20241022

200k

16k

不支援

對話

Anthropic_claude

於2024年10月22日發佈的快照版本,Claude 3.5 Haiku在各項技能上都有所提升,包括編碼、工具使用和推理。作為Anthropic系列中速度最快的模型,它提供快速響應時間,適用於需要高互動性和低延遲的應用,如面向用戶的聊天機器人和即時代碼補全。它在數據提取和即時內容審核等專業任務中也表現出色,使其成為各行業廣泛應用的多功能工具。它不支援圖像輸入。

claude-3-5-sonnet-20241022

200k

8K

不支援

對話,識圖

Anthropic_claude

於2024年10月22日發佈的快照版本,Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長編程、數據科學、視覺處理、代理任務。

claude-3-5-sonnet-latest

200K

8k

不支援

對話,識圖

Anthropic_claude

動態指向最新的Claude 3.5 Sonnet版本,Claude 3.5 Sonnet提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長編程、數據科學、視覺處理、代理任務,該模型指向最新的版本。

claude-3-haiku-20240307

200k

4k

不支援

對話,識圖

Anthropic_claude

Claude 3 Haiku 是 Anthropic 的最快且最緊湊的模型,旨在實現近乎即時的響應。它具有快速且準確的定向性能。

claude-3-opus-20240229

200k

4k

不支援

對話,識圖

Anthropic_claude

Claude 3 Opus 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智能、流暢性和理解力方面表現卓越。

claude-3-sonnet-20240229

200k

8k

不支援

對話,識圖

Anthropic_claude

於2024年2月29日發佈的快照版本,Sonnet 特別擅長於: - 編碼:能夠自主編寫、編輯和運行程式碼,並具備推理和故障排除能力 - 數據科學:增強人類的數據科學專業知識;在使用多種工具獲取洞察時,能夠處理非結構化數據 - 視覺處理:擅長解讀圖表、圖形和圖像,準確轉錄文本以獲取超越文本本身的洞察 - 代理任務:工具使用出色,非常適合處理代理任務(即需要與其他系統交互的複雜多步驟問題解決任務)

google/gemma-2-27b-it

8k

-

不支援

對話

Google_gamma

Gemma 是由 Google 開發的輕量級、最先進的開放模型系列,採用與 Gemini 模型相同的研究和技術建構。這些模型是僅解碼器的大型語言模型,支援英語,提供預訓練和指令微調兩種變體的開放權重。Gemma 模型適用於各種文本生成任務,包括問答、摘要和推理。

google/gemma-2-9b-it

8k

-

不支援

對話

Google_gamma

Gemma 是 Google 開發的輕量級、最先進的開放模型系列之一。它是一個僅解碼器的大型語言模型,支援英語,提供開放權重、預訓練變體和指令微調變體。Gemma 模型適用於各種文本生成任務,包括問答、摘要和推理。該 9B 模型是通過 8 萬億個 tokens 訓練而成。

gemini-1.5-pro

2m

8k

不支援

對話

Google_gemini

Gemini 1.5 Pro 的最新穩定版本。作為一個強大的多模態模型,它可以處理長達6 萬行程式碼或 2,000 頁文本。特別適合需要複雜推理的任務。

gemini-1.0-pro-001

33k

8k

不支援

對話

Google_gemini

這是 Gemini 1.0 Pro 的穩定版本。作為一個 NLP 模型,它專門處理多輪文本和程式碼聊天以及程式碼生成等任務。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。

gemini-1.0-pro-002

32k

8k

不支援

對話

Google_gemini

這是 Gemini 1.0 Pro 的穩定版本。作為一個 NLP 模型,它專門處理多輪文本和程式碼聊天以及程式碼生成等任務。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。

gemini-1.0-pro-latest

33k

對話,已廢棄或即將廢棄

Google_gemini

這是 Gemini 1.0 Pro 的最新版本。作為一個 NLP 模型,它專門處理多輪文本和程式碼聊天以及程式碼生成等任務。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。

gemini-1.0-pro-vision-001

16k

2k

不支援

對話

Google_gemini

這是 Gemini 1.0 Pro 的視覺版本。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。

gemini-1.0-pro-vision-latest

16k ```html

識圖

Google_gemini

這是 Gemini 1.0 Pro 的視覺最新版本。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。

gemini-1.5-flash

1m

8k

不支援

對話,識圖

Google_gemini

這是 Gemini 1.5 Flash 的最新穩定版本。作為一個平衡的多模態模型,它可以處理音頻、圖片、影片和文本輸入。

glm-4v-flash

2k

1k

不支援

對話,識圖

智譜_glm

免費模型:具備強大的圖片理解能力

```

SearXNG 本地部署與配置

此文件由 AI 從中文翻譯而來,尚未經過審閱。

SearXNG 部署與配置

CherryStudio 支援透過 SearXNG 進行網絡搜索,SearXNG 是一個可本地部署也可在伺服器上部署的開源項目,所以與其他需要 API 供應商的配置方式略有不同。

SearXNG 項目鏈接:SearXNG

SearXNG 的優勢

  • 開源免費,無需 API

  • 隱私性相對較高

  • 可高度定制化

本地部署

一、Docker 直接部署

由於 SearXNG 不需要複雜的環境配置,可以不用 docker compose,只需要簡單提供一個空閒端口即可部署,所以最快捷的方式可以使用 Docker 直接拉取鏡像進行部署。

1. 下載安裝並配置 docker

安裝後選擇一個鏡像存儲路徑:

2. 搜索並拉取 SearXNG 鏡像

搜索欄輸入 searxng:

拉取鏡像:

3. 運行鏡像

拉取成功後來到 images 頁面:

選擇拉取的鏡像點擊運行:

打開設置項進行配置:

以 8085 端口為例:

運行成功後點擊鏈接即可打開 SearXNG 的前端界面:

出現這個頁面說明部署成功:

伺服器部署

鑒於 Windows 下安裝 Docker 是一件較為麻煩的事情,使用者可以將 SearXNG 部署在伺服器上,也可藉此共享給其他人使用。但是很遺憾,SearXNG 自身暫不支援鑒權,導致他人可以透過技術手段掃描到並濫用你部署的實例。

為此,Cherry Studio 目前已支援配置 HTTP 基本認證(RFC7617),如果使用者欲將自己部署的 SearXNG 暴露在公網環境下,請務必透過 Nginx 等反向代理軟件配置 HTTP 基本認證。下面提供簡要教程,需要你有基本的 Linux 運維知識。

部署 SearXNG

類似地,仍然使用 Docker 部署。假設你已按照官方教程在伺服器上安裝好了最新版 Docker CE,以下提供一條龍命令,適用於 Debian 系統下全新安裝:

sudo apt update
sudo apt install git -y

# 拉取官方倉庫
cd /opt
git clone https://github.com/searxng/searxng-docker.git
cd /opt/searxng-docker

# 如果你的伺服器頻寬很小, 可以設置為 false
export IMAGE_PROXY=true

# 修改配置文件
cat <<EOF > /opt/searxng-docker/searxng/settings.yml
# see https://docs.searxng.org/admin/settings/settings.html#settings-use-default-settings
use_default_settings: true
server:
  # base_url is defined in the SEARXNG_BASE_URL environment variable, see .env and docker-compose.yml
  secret_key: $(openssl rand -hex 32)
  limiter: false  # can be disabled for a private instance
  image_proxy: $IMAGE_PROXY
ui:
  static_use_hash: true
redis:
  url: redis://redis:6379/0
search:
  formats:
    - html
    - json
EOF

如果你需要修改本地監聽端口、復用本地已有的 nginx,可以編輯 docker-compose.yaml 文件,參考如下:

version: "3.7"

services:
# 如果不需要 Caddy 而復用本地已有的 Nginx, 就把下面的去掉. 我們默認不需要 Caddy.
  caddy:
    container_name: caddy
    image: docker.io/library/caddy:2-alpine
    network_mode: host
    restart: unless-stopped
    volumes:
      - ./Caddyfile:/etc/caddy/Caddyfile:ro
      - caddy-data:/data:rw
      - caddy-config:/config:rw
    environment:
      - SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}
      - SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}
    cap_drop:
      - ALL
    cap_add:
      - NET_BIND_SERVICE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"
# 如果不需要 Caddy 而復用本地已有的 Nginx, 就把上面的去掉. 我們默認不需要 Caddy.
  redis:
    container_name: redis
    image: docker.io/valkey/valkey:8-alpine
    command: valkey-server --save 30 1 --loglevel warning
    restart: unless-stopped
    networks:
      - searxng
    volumes:
      - valkey-data2:/data
    cap_drop:
      - ALL
    cap_add:
      - SETGID
      - SETUID
      - DAC_OVERRIDE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

  searxng:
    container_name: searxng
    image: docker.io/searxng/searxng:latest
    restart: unless-stopped
    networks:
      - searxng
    # 默認映射到宿主機 8080 端口, 假如你想監聽 8000 就改成 "127.0.0.1:8000:8080"
    ports:
      - "127.0.0.1:8080:8080"
    volumes:
      - ./searxng:/etc/searxng:rw
    environment:
      - SEARXNG_BASE_URL=https://${SEARXNG_HOSTNAME:-localhost}/
      - UWSGI_WORKERS=${SEARXNG_UWSGI_WORKERS:-4}
      - UWSGI_THREADS=${SEARXNG_UWSGI_THREADS:-4}
    cap_drop:
      - ALL
    cap_add:
      - CHOWN
      - SETGID
      - SETUID
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

networks:
  searxng:

volumes:
# 如果不需要 Caddy 而復用本地已有的 Nginx, 就把下面的去掉
  caddy-data:
  caddy-config:
# 如果不需要 Caddy 而復用本地已有的 Nginx, 就把上面的去掉
  valkey-data2:

執行 docker compose up -d 啟動。執行 docker compose logs -f searxng 可以看到日誌。

部署 Nginx 反向代理和 HTTP 基本認證

如果你使用了一些伺服器面板程序,例如寶塔面板或 1Panel,請參閱其文檔添加網站並配置 nginx 反向代理,隨後找到修改 nginx 配置文件的地方, 參考下面的範例進行修改:

server
{
    listen 443 ssl;

    # 這行是你的主機名
    server_name search.example.com;

    # index index.html;
    # root /data/www/default;

    # 如果配置了 SSL 應該有這兩行
    ssl_certificate    /path/to/your/cert/fullchain.pem;
    ssl_certificate_key    /path/to/your/cert/privkey.pem;

    # HSTS
    # add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload";

    # 默認情況下透過面板配置反向代理, 默認的 location 塊就是這樣
    location / {
        # 只需要在 location 塊添加下面兩行, 其他保留原狀就行.
        # 此處範例假設你的配置文件保存在 /etc/nginx/conf.d/ 目錄下.
        # 如果是寶塔應該是保存在 /www 之類的目錄下, 需要注意.
        auth_basic "Please enter your username and password";
        auth_basic_user_file /etc/nginx/conf.d/search.htpasswd;

        proxy_http_version 1.1;
        proxy_set_header Connection "";
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Forwarded-For $proxy_protocol_addr;
        proxy_pass http://127.0.0.1:8000;
        client_max_body_size 0;
    }

    # access_log  ...;
    # error_log  ...;
}

假設 Nginx 配置文件保存於 /etc/nginx/conf.d 下,我們將將密碼文件保存在同目錄下。

執行命令(自行將 example_name、example_password 替換為你將要設定的用戶名和密碼):

echo "example_name:$(openssl passwd -5 'example_password')" > /etc/nginx/conf.d/search.htpasswd

重啓 Nginx(重載配置也可以)。

這時可以打開一下網頁,已經會提示你輸入用戶名和密碼,請輸入前面設定的用戶名和密碼查看能否成功進入 SearXNG 搜索頁面,藉此檢查配置是否正確。

Cherry Studio 相關配置

SearXNG 本地或在伺服器部署成功後,接下來是 CherryStudio 的相關配置。

來到網絡搜索設置頁面,選擇 Searxng:

直接輸入本地部署的鏈接發現驗證失敗,此時不用擔心:

因為直接部署後默認並沒有配置 json 返回類型,所以無法獲取數據,需要修改配置文件。

回到 Docker,來到 Files 標籤頁找到鏡像中找到帶標籤的文件夾:

展開後繼續往下翻,會發現另一個帶標籤的文件夾:

繼續展開,找到 settings.yml 配置文件:

點擊打開文件編輯器:

找到 78 行,可以看到類型只有一個 html

添加 json 類型後保存,重新運行鏡像

重新回到 Cherry Studio 進行驗證,驗證成功:

地址既可以填寫本地:http://localhost:端口號 也可以填寫 docker 地址:http://host.docker.internal:端口號

如果使用者遵循前面的範例在伺服器上部署並正確配置了反向代理,已經開啟了 json 返回類型。輸入地址後進行驗證,由於已給反向代理配置了 HTTP 基本認證,此時驗證則應返回 401 錯誤碼:

在客戶端配置 HTTP 基本認證,輸入剛才設定的用戶名與密碼:

進行驗證,應當驗證成功。

其他配置

此時 SearXNG 已具備默認聯網搜索能力,如需定制搜索引擎需要自行進行配置

需要注意的是此處首選項並不能影響大模型調用時的配置

如需配置需要大模型調用的搜索引擎,需在配置文件中設置:

配置語言參考:

若內容太長直接修改不方便,可將其複製到本地 IDE 中,修改後粘貼到配置文件中即可。

驗證失敗常見原因

返回格式未添加 json 格式

在配置文件中將返回格式加上 json:

未正確配置搜索引擎

Cherry Studio 會默認選取 categories 同時包含 web general 的引擎進行搜索,默認情況下會選中 google 等引擎,由於大陸無法直接訪問 google 等網站導致失敗。增加以下配置使得 searxng 強制使用 baidu 引擎,即可解決問題:

use_default_settings:
  engines:
    keep_only:
      - baidu
engines:
  - name: baidu
    engine: baidu 
    categories: 
      - web
      - general
    disabled: false

訪問速率過快

searxng 的 limiter 配置阻礙了 API 訪問,請嘗試將其在設置中設為 false:

模型榜單

此文件由 AI 從中文翻譯而來,尚未經過審閱。

這是一個基於 Chatbot Arena (lmarena.ai) 數據的排行榜,通過自動化流程生成。

數據更新時間: 2025-09-11 11:40:35 UTC / 2025-09-11 19:40:35 CST (北京時間)

點擊排行榜中的 模型名稱 可跳轉至其詳細資訊或試用頁面。

排行榜

排名(UB)
排名(StyleCtrl)
模型名
分數
置信區間
票數
服務商
許可協議
知識截止日期

說明

  • 排名(UB):基於 Bradley-Terry 模型計算的排名。此排名反映了模型在競技場中的綜合表現,並提供了其 Elo 分數的 上界 估計,幫助理解模型的潛在競爭力。

  • 排名(StyleCtrl):經過對話風格控制後的排名。此排名旨在減少因模型回覆風格(例如冗長、簡潔)帶來的偏好偏差,更純粹地評估模型的核心能力。

  • 模型名:大型語言模型 (LLM) 的名稱。此列已嵌入模型相關連結,點擊可跳轉。

  • 分數:模型在競技場中通過用戶投票獲得的 Elo 評分。Elo 評分是一種相對排名系統,分數越高表示模型表現越好。該分數是動態變化的,反映了模型在當前競爭環境中的相對實力。

  • 置信區間:模型 Elo 評分的95%置信區間(例如:+6/-6)。這個區間越小,表示模型的評分越穩定可靠;反之,區間越大可能意味著數據量不足或模型表現波動較大。它提供了對評分準確性的量化評估。

  • 票數:該模型在競技場中收到的總投票數量。投票數越多,通常意味著其評分的統計可靠性越高。

  • 服務商:提供該模型的組織或公司。

  • 許可協議:模型的許可協議類型,例如專有 (Proprietary)、Apache 2.0、MIT 等。

  • 知識截止日期:模型訓練數據的知識截止日期。暫無數據 表示相關資訊未提供或未知。

數據來源與更新頻率

本排行榜數據由 項目自動生成並提供,該項目從 獲取並處理數據。此排行榜由 GitHub Actions 每天自動更新。

免責聲明

本報告僅供參考。排行榜數據是動態變化的,並基於特定時間段內用戶在 Chatbot Arena 上的偏好投票。數據的完整性和準確性取決於上游數據源及 fboulnois/llm-leaderboard-csv 項目的更新和處理。不同模型可能採用不同的許可協議,使用時請務必參考模型提供商的官方說明。

1

1

Gemini-2.5-Pro

1470

+5/-5

26,019

Google

Proprietary

nan

2

2

Gemini-2.5-Pro-Preview-05-06

1446

+6/-6

13,715

Google

Proprietary

nan

3

2

GLM-4.5

1434

+9/-9

4,112

Z.ai

MIT

nan

4

2

Grok-4-0709

1434

+6/-6

13,058

xAI

Proprietary

nan

5

3

ChatGPT-4o-latest (2025-03-26)

1429

+4/-4

30,777

OpenAI

Proprietary

nan

6

3

o3-2025-04-16

1428

+4/-4

32,033

OpenAI

Proprietary

nan

7

3

Qwen3-235B-A22B-Instruct-2507

1427

+9/-9

4,154

Alibaba

Apache 2.0

nan

8

3

DeepSeek-R1-0528

1427

+5/-5

18,284

DeepSeek

MIT

nan

9

4

Grok-3-Preview-02-24

1423

+4/-4

31,757

xAI

Proprietary

nan

10

8

Llama-4-Maverick-03-26-Experimental

1416

+4/-4

26,604

Meta

nan

nan

11

8

GPT-4.5-Preview

1415

+5/-5

15,271

OpenAI

Proprietary

nan

12

7

Qwen3-235B-A22B-Thinking-2507

1413

+9/-9

3,715

Alibaba

Apache 2.0

nan

13

8

chocolate (Early Grok-3)

1412

+6/-6

13,837

xAI

Proprietary

nan

14

10

Gemini-2.5-Flash

1411

+4/-4

31,359

Google

Proprietary

nan

15

15

Gemini-2.0-Flash-Thinking-Exp-01-21

1397

+4/-4

27,552

Google

Proprietary

nan极小

... (中間行數省略以節省空間,實際翻譯應包含完整表格)

255

253

ChatGLM3-6B

978

+11/-11

4,763

Tsinghua

Apache-2.0

2023/10

256

254

MPT-7B-Chat

963

+11/-11

3,997

MosaicML

CC-BY-NC-SA-4.0

2023/5

257

254

GPT4All-13B-Snoozy

962

+15/-15

1,788

Nomic AI

Non-commercial

2023/3

258

254

RWKV-4-Raven-14B

956

+11/-11

4,920

RWKV

Apache 2.0

2023/4

259

255

ChatGLM2-6B

947

+13/-13

2,713

Tsinghua

Apache-2.0

2023/6

260

255

Alpaca-13B

940

+11/-11

5,864

Stanford

Non-commercial

2023/3

261

258

ChatGLM-6B

925

+12/-12

4,983

Tsinghua

Non-commercial

2023/3

262

258

OpenAssistant-Pythia-12B

923

+10/-10

6,368

OpenAssistant

Apache 2.0

202极早期

263

260

[FastChat-T5-3B](极早模型版](https://huggingface.co/lmsys/fastchat-t5-3b-v1.0)

901

+12/-12

4,288

LMSYS

Apache 2.0

2023/4

264

263

StableLM-Tuned-Alpha-7B

873

+12/-12

3,336

Stability AI

CC-BY-NC-SA-4.0

2023/4

265

263

Dolly-V2-12B

857

+13/-13

3,480

Databricks

MIT

2023/4

266

264

LLaMA-13B

840

+16/-16

2,446

Meta

Non-commercial

2023/2

fboulnois/llm-leaderboard-csv
lmarena.ai
Logo
Logo