Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
此文件由 AI 從中文翻譯而來,尚未經過審閱。
該介面可進行數據本地與雲端備份恢復、本地數據目錄查詢與清除快取、匯出設定及第三方連接等操作。
數據備份目前支援本地備份、WebDAV 備份與 S3 相容儲存(物件儲存)備份三種方式。詳細說明與教學請參考以下文件:
匯出設定可配置導出選單顯示的匯出項目,另可設定 Markdown 匯出的預設路徑、顯示樣式等。
第三方連接可配置 Cherry Studio 與第三方應用的整合,用於快速導出對話內容至您熟悉的知識管理應用。目前支援的應用包括:Notion、Obsidian、思源筆記、語雀、Joplin,詳細配置教學請參考以下文件:
此文件由 AI 從中文翻譯而來,尚未經過審閱。
使用 GitHub Copilot 需要先擁有一個 GitHub 帳號,並訂閱 GitHub Copilot 服務,免費版本的訂閱也可以,但免費版本不支援最新的 Claude 3.7 模型,具體請參考 。
點擊「登入 GitHub」,取得 Device Code 並複製。
成功取得 Device Code 後,點擊連結開啟瀏覽器,在瀏覽器中登入 GitHub 帳號,輸入 Device Code 並授權。
授權成功後,返回 Cherry Studio,點擊「連接 GitHub」,成功後會顯示 GitHub 使用者名稱和頭像。
點擊下方的「管理」按鈕,會自動連網取得當前支援的模型清單。
目前使用 Axios 構建請求,Axios 不支援 socks 代理,請使用系統代理或 HTTP 代理,或者直接不在 CherryStudio 中設定代理,使用全域代理。首先請確保您的網路連線正常,以避免取得 Device Code 失敗的情況。
暂时不支持Claude模型
此文件由 AI 從中文翻譯而來,尚未經過審閱。
取得 Gemini 的 API Key 前,你需要有一個 Google Cloud 專案(如果你已有,此過程可跳過)
進入 建立專案,填寫專案名稱並點擊建立專案
進入
在建立的專案中啟用
開啟 權限介面,建立服務帳號
在服務帳號管理頁面找到剛剛建立的服務帳號,點擊金鑰
並建立一個新的 JSON 格式金鑰
建立成功後,金鑰檔案將會以 JSON 檔案的格式自動儲存到你的電腦上,請 妥善保存
選擇Vertex AI服務商
將JSON檔案的對應欄位填入
點擊新增 ,就可以愉快地開始使用了!
此文件由 AI 從中文翻譯而來,尚未經過審閱。
Cherry Studio 資料備份支援透過 S3 兼容儲存(物件儲存)的方式進行備份。常見的 S3 兼容儲存服務有:AWS S3、Cloudflare R2、阿里雲 OSS、騰訊雲 COS 以及 MinIO 等。
基於 S3 兼容儲存可透過 A電腦
S3儲存
B電腦
的方式來實現多端資料同步。
建立物件儲存桶(Bucket),並記錄下儲存桶名稱。強烈建議將儲存桶設定為私有讀寫以避免備份資料外洩!!
參考文件,前往雲端服務控制台取得 S3 兼容儲存的 Access Key ID
、Secret Access Key
、Endpoint
、Bucket
、Region
等資訊。
Endpoint:S3 兼容儲存的存取位址,通常形如 https://<bucket-name>.<region>.amazonaws.com
或 https://<ACCOUNT_ID>.r2.cloudflarestorage.com
。
Region:儲存桶所在的區域,例如 us-west-1
、ap-southeast-1
等,Cloudflare R2 請填寫 auto
。
Bucket:儲存桶名稱。
Access Key ID 與 Secret Access Key:用於身分驗證的憑證。
Root Path:選填,指定備份到儲存桶時的根路徑,預設為空。
相關文件
AWS S3:
Cloudflare R2:
阿里雲 OSS:
騰訊雲 COS:
在 S3 備份設定中填寫上述資訊,點擊備份按鈕即可進行備份,點擊管理按鈕可檢視和管理備份檔案清單。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
MCP (Model Context Protocol) 是一種開源協定,旨在以標準化的方式向大型語言模型(LLM)提供上下文資訊。更多關於 MCP 的介紹請見
以下以 fetch
功能為例,示範如何在 Cherry Studio 中使用 MCP,可在 中查看詳情。
Cherry Studio 目前只使用內建的 和 ,不會復用系統中已經安裝的 uv 和 bun。
在 設定 - MCP 伺服器
中,點擊 安裝
按鈕,即可自動下載並安裝。由於直接從 GitHub 下載,速度可能較慢,且有較大可能失敗。安裝成功與否,以下文提到的資料夾內是否有檔案為準。
可執行程式安裝目錄:
Windows: C:\Users\使用者名稱\.cherrystudio\bin
macOS、Linux: ~/.cherrystudio/bin
無法正常安裝的情況下:
可將系統中的相對應命令使用軟連結的方式連結到此處。若無對應目錄,需手動建立。也可手動下載可執行檔案放到此目錄下:
Bun: UV:
此文件由 AI 從中文翻譯而來,尚未經過審閱。
聯繫人:王先生
📱:18954281942 (非客服電話)
商用授權詳情:
此文件由 AI 從中文翻譯而來,尚未經過審閱。
自動安裝 MCP 服務(測試版)
基於本體知識圖譜的持久性記憶基礎實現。這使得模型能夠在不同對話間記住用戶的相關資訊。
MEMORY_FILE_PATH=/path/to/your/file.json
一個 MCP 伺服器實現,提供了透過結構化思維過程進行動態和反思性問題解決的工具。
一個整合了 Brave 搜尋 API 的 MCP 伺服器實現,提供網頁與本地搜尋雙重功能。
BRAVE_API_KEY=YOUR_API_KEY
用於取得 URL 網頁內容的 MCP 伺服器。
實現檔案系統操作的模型上下文協議(MCP)的 Node.js 伺服器。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
加入 Telegram 討論群組獲取協助:https://t.me/CherryStudioAI
Github Issues 提交:https://github.com/CherryHQ/cherry-studio/issues/new/choose
開發者聯絡郵箱:[email protected]
此文件由 AI 從中文翻譯而來,尚未經過審閱。
歡迎使用 Cherry Studio(以下簡稱「本軟體」或「我們」)。我們高度重視您的隱私保護,本隱私協議將說明我們如何處理與保護您的個人信息和數據。請在使用本軟體前仔細閱讀並理解本協議:
為了優化用戶體驗和提升軟體質量,我們僅可能會匿名收集以下非個人化信息:
• 軟體版本信息;
• 軟體功能的活躍度、使用頻次;
• 匿名的崩潰、錯誤日誌信息;
上述信息完全匿名,不會涉及任何個人身份數據,也無法關聯到您的個人信息。
為了最大限度保護您的隱私安全,我們明確承諾:
• 不會收集、保存、傳輸或處理您輸入到本軟體中的模型服務 API Key 信息;
• 不會收集、保存、傳輸或處理您在使用本軟體過程中產生的任何對話數據,包括但不限於聊天內容、指令信息、知識庫信息、向量數據及其他自定義內容;
• 不會收集、保存、傳輸或處理任何可識別個人身份的敏感信息。
本軟體採用您自行申請並配置的第三方模型服務提供商的 API Key,以完成相關模型的調用與對話功能。您使用的模型服務(例如大模型、API 接口等)由您選擇的第三方提供商提供並完全由其負責,Cherry Studio 僅作為本地工具提供與第三方模型服務的接口調用功能。
因此:
• 所有您與大模型服務產生的對話數據與 Cherry Studio 無關,我們既不參與數據的存儲,也不會進行任何形式的數據傳輸或中轉;
• 您需要自行查看並接受對應第三方模型服務提供商的隱私協議及相關政策,這些服務的隱私協議可訪問各提供商官方網站進行查看。
您需自行承擔因使用第三方模型服務提供商而可能涉及的隱私風險。具體隱私政策、數據安全措施與相關責任,請查閱所選模型服務提供商官方網站相關內容,我們對此不承擔任何責任。
本協議可能隨軟體版本更新進行適當調整,請您定期關注。協議發生實質性變更時,我們將以適當方式提醒您。
若您對本協議內容或 Cherry Studio 隱私保護措施存在任何疑問,歡迎隨時聯繫我們。
感謝您選擇並信任 Cherry Studio,我們將持續為您提供安全可靠的產品體驗。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
Cherry Studio 的翻譯功能為您提供快速、準確的文字翻譯服務,支援多種語言之間的相互翻譯。
翻譯介面主要由以下幾個部分組成:
來源語言選擇區:
任意語言:Cherry Studio 會自動識別來源語言並進行翻譯。
目標語言選擇區:
下拉選單:選擇您希望將文字翻譯成的語言。
設定按鈕:
點擊後將跳轉到 預設模型設定。
捲動同步:
點擊可以切換捲動同步(在任何一邊進行捲動,另一邊也會一起捲動)。
文字輸入框(左側):
輸入或貼上您需要翻譯的文字。
翻譯結果框(右側):
顯示翻譯後的文字。
複製按鈕:點擊按鈕可將翻譯結果複製到剪貼簿。
翻譯按鈕:
點擊此按鈕開始翻譯。
翻譯記錄(左上角):
點擊後可以檢視翻譯歷史記錄。
選擇目標語言:
在目標語言選擇區選擇您希望翻譯成的語言。
輸入或貼上文字:
在左側的文字輸入框中輸入或貼上您要翻譯的文字。
開始翻譯:
點擊 翻譯
按鈕。
檢視和複製結果:
翻譯結果將顯示在右側的翻譯結果框中。
點擊複製按鈕即可將翻譯結果複製到剪貼簿。
Q: 翻譯不準確怎麼辦?
A: AI 翻譯雖然強大,但並非完美。對於專業領域或複雜語境的文字,建議進行人工校對。您也可以嘗試切換不同的模型。
Q: 支援哪些語言?
A: Cherry Studio 翻譯功能支援多種主流語言,具體支援的語言清單請參考 Cherry Studio 的官方網站或應用程式內說明。
Q: 可以翻譯整個檔案嗎?
A: 目前的介面主要用於文字翻譯。對於檔案翻譯,可能需要進入 Cherry Studio 的對話頁面新增檔案進行翻譯。
Q: 翻譯速度慢怎麼辦?
A: 翻譯速度可能受網路連線、文字長度、伺服器負載等因素影響。請確保您的網路連線穩定,並耐心等待。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
點擊側邊欄下方的 API Key 管理
建立 API Key
建立成功後,點擊已建立 API Key 後的眼睛圖示開啟並複製
將複製的 API Key 填入 Cherry Studio 後,開啟服務商開關
在方舟控制台側邊欄最下方的 開通管理 開通需要使用的模型,可依需求開通豆包系列和 DeepSeek 等模型
在 模型列表文件 中,找到所需模型對應的 模型ID
開啟 Cherry Studio 的 模型服務 設定找到火山引擎
點擊新增,將取得的 模型ID 複製至 模型ID 文字輸入框
依此流程逐一新增模型
API 地址有兩種寫法:
第一種為客戶端預設的:https://ark.cn-beijing.volces.com/api/v3/
第二種寫法為:https://ark.cn-beijing.volces.com/api/v3/chat/completions#
如何注册tavily?
此文件由 AI 從中文翻譯而來,尚未經過審閱。
訪問上述官網,或者從cherry studio-設定-網路搜尋-點擊取得秘鑰,會直接跳轉到tavily登入註冊頁面。
如果是第一次使用,要先註冊一個(Sign up)帳號,才能登入(Log in)使用。預設跳轉的是登入頁面哦。
點擊註冊帳號,進入下面的界面,輸入自己的常用信箱,或者使用谷歌、github帳號,然後下一步輸入密碼,常規操作。
🚨🚨🚨【關鍵步驟】 註冊成功後,會有一個動態驗證碼的步驟,需要掃描二維碼,產生一次性Code才能繼續使用。
很簡單,此時你有2個辦法。
下載一個驗證身份的APP,微軟出的—— Authenticator 【略微繁瑣】
使用微信小程式:騰訊身份驗證器 。【簡單,有手就行,建議】
開啟微信小程式,搜尋:騰訊身份驗證器
上面的步驟做完,就會進入下面的界面,說明你註冊成功了,複製key到cherry studio就可以開始愉快使用了。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
在官方 API Key頁面 點擊 + Create new secret key
複製生成的key,並開啟CherryStudio的服務商設置
找到OpenAI服務商,貼上剛取得的key
點擊最下方的管理或添加按鈕,加入支援的模型並開啟右上角服務商開關即可使用
專有名詞保留
API Key
、OpenAI
、Create new secret key
等專有名詞維持原文
CherryStudio
服務名稱未翻譯
技術指令保留
按鈕代碼 <mark style="background-color:green;">+ Create new secret key</mark>
完整保留
連結與路徑維持
所有超連結 [API Key頁面](...)
和圖檔路徑 src="../../.gitbook/..."
均未修改
特殊連結 (broken-reference)
保持原始標注
提示框結構保留 `
` 區塊內容翻譯時維持原結構: - 「中國除台灣之外」精準表達地理限制 - 「需確保帳戶內有餘額」強調使用前提
UI元素完整複製
圖示註解 <figcaption></figcaption>
等空白標籤結構完全保留
行動指令直譯 「點擊」、「開啟」、「複製」等操作動詞採用繁體中文慣用技術術語
技術語境調整 將「需要有餘額」轉換為商務技術文件常用表述「需確保帳戶內有餘額」
此文件由 AI 從中文翻譯而來,尚未經過審閱。
目前頁面僅用於介紹介面功能,設定教學可參考基礎教學中的 教學。
在 Cherry Studio 中,單一服務商支援多 Key 輪詢使用,輪詢方式為從前到後依序循環。
多組 Key 需以英文逗號分隔新增。如下方範例:
必須使用 英文 逗號。
使用內建服務商時通常不需填寫 API 網址,如需要修改請嚴格按照對應官方文件提供的網址填寫。
若服務商提供 https://xxx.xxx.com/v1/chat/completions 格式的網址,只需填寫根網址部分(https://xxx.xxx.com)。
Cherry Studio 會自動拼接剩餘路徑(/v1/chat/completions),未按要求填寫可能導致功能異常。
通常點擊服務商設定頁面左下角的 管理
按鈕,系統會自動取得該服務商所有可調用模型,從列表中點擊 +
按鈕即可新增至模型清單。
點擊 API 祕鑰輸入框後方的檢查按鈕,即可測試設定是否成功。
設定完成後務必開啟右上角的開關,否則該服務商仍處於未啟用狀態,無法在模型清單中找到對應模型。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
Cherry Studio 資料備份支援透過 WebDAV 的方式進行備份。你可以選擇合適的 WebDAV 服務來進行雲端備份。
基於 WebDAV 可以通過 A電腦
WebDAV
B電腦
的方式來實現多端資料同步。
登入堅果雲,點擊右上角使用者名稱,選擇「帳戶資訊」:
選擇「安全選項」,點擊「新增應用」
輸入應用名稱,生成隨機密碼;
複製記錄密碼;
取得伺服器地址、帳戶和密碼;
在 Cherry Studio 設定——資料設定中,填寫 WebDAV 資訊;
選擇備份或者恢復資料,並可以設定自動備份的時間週期。
WebDAV 服務門檻較低的通常是網盤:
(需要會員)
(需要購買)
(免費空間容量為 10GB,單個檔案大小限制為 250MB。)
(Dropbox 免費 2GB,可以邀請好友擴容 16GB 。)
(免費空間為 10GB,透過邀請可獲得 5GB 額外空間。)
(免費使用者提供 10GB 容量。)
其次是需自行部署的服務:
此文件由 AI 從中文翻譯而來,尚未經過審閱。
一、前往建立帳號登入
二、點擊,進入ModelArts控制台
三、授權
四、點擊側欄鑒權管理,建立API Key(密鑰)並複製
然後在CherryStudio裡建立新服務商
建立完成後填入密鑰
五、點擊側欄模型部署,全部領取
六、點擊呼叫
把①處的地址複製,貼上到CherryStudio的服務商地址中並在結尾加上「#」號
並在結尾加上「#」號
並在結尾加上「#」號
並在結尾加上「#」號
並在結尾加上「#」號
為什麼加「#」號
當然也可不看那裡,直接按照教程操作即可;
也可使用刪除v1/chat/completions的方法填寫,只要會填按自己方式怎麼填都行,不會填務必按照教程操作。
然後把②處模型名稱複製,到CherryStudio中點「+添加」按鈕新建模型
輸入模型名稱,不要自行增減內容,不帶引號,示例怎麼寫就怎麼抄。
點擊添加模型按鈕即可完成。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
自動安裝 MCP 需要將 Cherry Studio 升級至 v1.1.18 或更高版本。
除了手動安裝外,Cherry Studio 還內建了 @mcpmarket/mcp-auto-install
工具,這是一個更便捷的 MCP 伺服器安裝方式。你只需要在支援 MCP 服務的大型模型對話中輸入相應的指令即可。
測試階段提醒:
@mcpmarket/mcp-auto-install
目前仍處於測試階段
效果依賴大型模型的「智商」,有些會自動添加,有些還是需要在 MCP 設定中再手動更改某些參數
目前搜尋來源是從 @modelcontextprotocol 中進行搜尋,可以自行設定(下方說明)
例如,你可以輸入:
系統會自動識別你的需求,並透過 @mcpmarket/mcp-auto-install
完成安裝。這個工具支援多種類型的 MCP 伺服器,包括但不限於:
filesystem(檔案系統)
fetch(網路請求)
sqlite(資料庫)
等等...
MCP_PACKAGE_SCOPES 變數可以自訂 MCP 服務搜尋來源,預設值為:
@modelcontextprotocol
,可以自訂設定。
@mcpmarket/mcp-auto-install
函式庫的介紹幫我安裝一個 filesystem mcp server
// `axun-uUpaWEdMEMU8C61K` 為服務id,自訂即可
"axun-uUpaWEdMEMU8C61K": {
"name": "mcp-auto-install",
"description": "Automatically install MCP services (Beta version)",
"isActive": false,
"registryUrl": "https://registry.npmmirror.com",
"command": "npx",
"args": [
"-y",
"@mcpmarket/mcp-auto-install",
"connect",
"--json"
],
"env": {
"MCP_REGISTRY_PATH": "详情见https://www.npmjs.com/package/@mcpmarket/mcp-auto-install"
},
"disabledTools": []
}
sk-xxxx1,sk-xxxx2,sk-xxxx3,sk-xxxx4
此文件由 AI 從中文翻譯而來,尚未經過審閱。
透過自訂 CSS 可以修改軟體的外觀更加符合自己的喜好,例如這樣:
:root {
--color-background: #1a462788;
--color-background-soft: #1a4627aa;
--color-background-mute: #1a462766;
--navbar-background: #1a4627;
--chat-background: #1a4627;
--chat-background-user: #28b561;
--chat-background-assistant: #1a462722;
}
#content-container {
background-color: #2e5d3a !important;
}
:root {
font-family: "汉仪唐美人" !important; /* 字體 */
}
/* 深度思考展開字體顏色 */
.ant-collapse-content-box .markdown {
color: red;
}
/* 主題變數 */
:root {
--color-black-soft: #2a2b2a; /* 深色背景色 */
--color-white-soft: #f8f7f2; /* 淺色背景色 */
}
/* 深色主題 */
body[theme-mode="dark"] {
/* 顏色 */
--color-background: #2b2b2b; /* 深色背景色 */
--color-background-soft: #303030; /* 淺色背景色 */
--color-background-mute: #282c34; /* 中性背景色 */
--navbar-background: var(-–color-black-soft); /* 導覽列背景色 */
--chat-background: var(–-color-black-soft); /* 聊天背景色 */
--chat-background-user: #323332; /* 使用者聊天背景色 */
--chat-background-assistant: #2d2e2d; /* 助手聊天背景色 */
}
/* 深色主題特定樣式 */
body[theme-mode="dark"] {
#content-container {
background-color: var(-–chat-background-assistant) !important; /* 內容容器背景色 */
}
#content-container #messages {
background-color: var(-–chat-background-assistant); /* 訊息背景色 */
}
.inputbar-container {
background-color: #3d3d3a; /* 輸入框背景色 */
border: 1px solid #5e5d5940; /* 輸入框邊框顏色 */
border-radius: 8px; /* 輸入框邊框圓角 */
}
/* 程式碼樣式 */
code {
background-color: #e5e5e20d; /* 程式碼背景色 */
color: #ea928a; /* 程式碼文字顏色 */
}
pre code {
color: #abb2bf; /* 預格式化程式碼文字顏色 */
}
}
/* 淺色主題 */
body[theme-mode="light"] {
/* 顏色 */
--color-white: #ffffff; /* 白色 */
--color-background: #ebe8e2; /* 淺色背景色 */
--color-background-soft: #cbc7be; /* 淺色背景色 */
--color-background-mute: #e4e1d7; /* 中性背景色 */
--navbar-background: var(-–color-white-soft); /* 導覽列背景色 */
--chat-background: var(-–color-white-soft); /* 聊天背景色 */
--chat-background-user: #f8f7f2; /* 使用者聊天背景色 */
--chat-background-assistant: #f6f4ec; /* 助手聊天背景色 */
}
/* 淺色主題特定樣式 */
body[theme-mode="light"] {
#content-container {
background-color: var(-–chat-background-assistant) !important; /* 內容容器背景色 */
}
#content-container #messages {
background-color: var(-–chat-background-assistant); /* 訊息背景色 */
}
.inputbar-container {
background-color: #ffffff; /* 輸入框背景色 */
border: 1px solid #87867f40; /* 輸入框邊框顏色 */
border-radius: 8px; /* 輸入框邊框圓角,修改為您喜歡的大小 */
}
/* 程式碼樣式 */
code {
background-color: #3d39290d; /* 程式碼背景色 */
color: #7c1b13; /* 程式碼文字顏色 */
}
pre code {
color: #000000; /* 預格式化程式碼文字顏色 */
}
}
更多主題變數請參考原始碼:https://github.com/CherryHQ/cherry-studio/tree/main/src/renderer/src/assets/styles
Cherry Studio 主題庫: https://github.com/boilcy/cherrycss
分享一些中國風 Cherry Studio 主題皮膚: https://linux.do/t/topic/325119/129
如何在 Cherry Studio 使用联网模式
此文件由 AI 從中文翻譯而來,尚未經過審閱。
在 Cherry Studio 的提問視窗,點擊 【小地球】 圖示即可開啟連網。
模式1:模型服務商的大模型自帶連網功能
這種情況下,開啟連網後,直接就可以使用連網服務了,非常簡單。
可以透過問答介面上方,模型名字後面是否帶有小地圖標記,迅速判斷該模型是否支援連網。
在模型管理頁面,這個方法也可以讓你快速分辨出哪些模型支援連網,哪些不支援。
Cherry Studio 目前已支援的連網模型服務商有
Google Gemini
OpenRouter(全部模型支援連網)
騰訊混元
智譜AI
阿里雲百煉等
特別注意:
存在一種特殊的情況,即便模型上沒帶小地球標記,但是它也能實現連網,比如下面這個攻略教學解釋的情況。
模式2:模型不帶連網功能,使用 Tavily服務 實現連網功能
當我們使用一個不帶連網功能的大模型時(名字後面沒有小地球圖示),而我們又需要它獲取一些即時性的訊息進行處理,此時就需要用到Tavily網絡搜尋服務。
初次使用Tavily服務,會彈窗提示去設定一些資訊,請根據指引操作即可-非常簡單!
點擊獲取密鑰後,會自動跳轉到tavily的官網登入註冊頁面,註冊並登入後,建立APIkey,然後複製key到Cherry Studio即可。
不會註冊,參考本文檔同目錄下tavily連網登入註冊教學。
tavily註冊參考文件:
顯示下面的介面表示註冊成功。
再來試一次看看效果。結果表明,已經正常連網搜尋了,並且搜尋結果數是我們設定的預設值:5個。
注意:tavily 每個月有免費限制,超過了要付費~~
PS:如果發現錯誤,歡迎大家隨時聯絡。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
在 0.9.1 版本中,CherryStudio 帶來了期待已久的知識庫功能。
下面我們將按步驟呈現 CherryStudio 的詳細使用說明。
在模型管理服務中查找模型,可以點擊「嵌入模型」快速篩選;
找到需要的模型,添加到我的模型。
知識庫入口:在 CherryStudio 左側工具欄,點擊知識庫圖標,即可進入管理頁面;
添加知識庫:點擊添加,開始創建知識庫;
命名:輸入知識庫的名稱並添加嵌入模型,以 bge-m3 為例,即可完成創建。
添加文件:點擊添加文件的按鈕,打開文件選擇;
選擇文件:選擇支援的文件格式,如 pdf,docx,pptx,xlsx,txt,md,mdx 等,並打開;
向量化:系統會自動進行向量化處理,當顯示完成時(綠色 ✓),代表向量化已完成。
CherryStudio 支援多種添加數據的方式:
文件夾目錄:可以添加整個文件夾目錄,該目錄下支援格式的文件會被自動向量化;
網址連結:支援網址 url,如https://docs.siliconflow.cn/introduction;
站點地圖:支援 xml 格式的站點地圖,如https://docs.siliconflow.cn/sitemap.xml;
純文本筆記:支援輸入純文本的自定義內容。
當文件等資料向量化完成後,即可進行查詢:
點擊頁面下方的搜索知識庫按鈕;
輸入查詢的內容;
呈現搜索的結果;
並顯示該條結果的匹配分數。
創建一個新的話題,在對話工具欄中,點擊知識庫,會展開已經創建的知識庫列表,選擇需要引用的知識庫;
輸入並發送問題,模型即返回通過檢索結果生成的答案;
同時,引用的數據來源會附在答案下方,可快捷查看源文件。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
Cherry Studio 是一款多模型桌面客戶端,目前支援:Windows、Linux、MacOS 系列電腦安裝包。它聚合主流 LLM 模型,提供多場景輔助。使用者可透過智慧會話管理、開源訂製、多主題介面來提升工作效率。
Cherry Studio 現已與 PPIO 高效能 API 通道深度適配——透過企業級算力保障,實現 DeepSeek-R1/V3 高速響應 與 99.9% 服務可用性,帶給您快速流暢的體驗。
下方教學包含完整接入方案(含金鑰配置),3 分鐘開啟「Cherry Studio 智慧調度 + PPIO 高效能 API」的進階模式。
首先前往官網下載 Cherry Studio:https://cherry-ai.com/download (如果進不去可以開啟下方的夸克網盤連結下載需要的版本:https://pan.quark.cn/s/c8533a1ec63e#/list/share
(1)先點選左下角設定,自訂提供商名稱為:PPIO
,點選「確定」
(2)前往 派歐算力雲 API 金鑰管理,點選【使用者頭像】—【API 金鑰管理】進入控制檯
點選【+ 建立】按鈕來建立新的 API 金鑰。自訂一個金鑰名稱,產生的金鑰僅在產生時呈現,務必複製並儲存到文件中,以免影響後續使用
(3)在 CherryStudio 填入金鑰 點選設定,選擇【PPIO 派歐雲】,輸入官網產生的 API 金鑰,最後點選【檢查】
(4)選擇模型:以 deepseek/deepseek-r1/community 為例,如需更換其他模型,可直接更換。
DeepSeek R1 和 V3 community 版本僅供大家嘗鮮,也是全參數滿血版模型,穩定性和效果無差異,如需大量呼叫則須 充值並切換到非 community 版本。
(1)點選【檢查】顯示連線成功後即可正常使用
(2)最後點選【@】選擇 PPIO 供應商下剛剛新增的 DeepSeek R1 模型,即可成功開始聊天~
【部分素材來源:陳恩】
若您更傾向直觀學習,我們在 B 站準備了影片教學。透過手把手教學,助您快速掌握「PPIO API+Cherry Studio」的配置方法,點選下方連結直達影片,開啟流暢開發體驗 → 《【還在為 DeepSeek 瘋狂轉圈抓狂?】派歐雲+DeepSeek 滿血版 =?不再擁堵,即刻起飛》
【影片素材來源:sola】
此文件由 AI 從中文翻譯而來,尚未經過審閱。
Cherry Studio 支援將話題導入 Notion 的數據庫。
開啟網站 Notion Integrations 建立應用程式
建立應用程式
名稱:Cherry Studio
類型:選擇第一個
圖示:可以保存此圖片
複製金鑰並填寫到 Cherry Studio 設定中
開啟 Notion 網站建立新頁面,在下方選擇數據庫類型,名稱填寫 Cherry Studio,按照圖示操作連接
若您的 Notion 數據庫 URL 類似:
https://www.notion.so/<long_hash_1>?v=<long_hash_2>
則 Notion 數據庫 ID 就是 <long_hash_1>
部分
填寫 頁面標題欄位名稱
:
若網頁顯示英文,填寫 Name
若網頁顯示中文,填寫 名稱
恭喜!Notion 配置已完成 ✅ 接下來可將 Cherry Studio 內容匯出到您的 Notion 數據庫
此文件由 AI 從中文翻譯而來,尚未經過審閱。
關注我們的社群帳號:推特(X)、小紅書、微博、嗶哩嗶哩、抖音
加入我們的社群:QQ群(575014769)、Telegram、Discord、微信群(點擊查看)
Cherry Studio 是一款集多模型對話、知識庫管理、AI 繪畫、翻譯等功能於一體的全能 AI 助手平台。 Cherry Studio 高度自訂的設計、強大的擴充能力和友善的使用者體驗,使其成為專業使用者和 AI 愛好者的理想選擇。無論是零基礎使用者還是開發者,都能在 Cherry Studio 中找到適合自己的 AI 功能,提升工作效率和創造力。
一問多答:支援同一問題透過多個模型同時生成回覆,方便使用者對比不同模型的表現,詳見 對話介面。
自動分組:每個助手的對話記錄會自動分組管理,便於使用者快速查找歷史對話。
對話匯出:支援將完整對話或部分對話匯出為多種格式(如 Markdown、Word 等),方便儲存與分享。
高度自訂參數:除了基礎參數調整外,還支援使用者填寫自訂參數,滿足個性化需求。
助手市集:內建千餘個行業專用助手,涵蓋翻譯、程式設計、寫作等領域,同時支援使用者自訂助手。
多種格式渲染:支援 Markdown 渲染、公式渲染、HTML 即時預覽等功能,提升內容展示效果。
AI 繪畫:提供專用繪畫面板,使用者可透過自然語言描述產生高品質影像。
AI 小程式:整合多種免費 Web 端 AI 工具,無需切換瀏覽器即可直接使用。
翻譯功能:支援專用翻譯面板、對話翻譯、提示詞翻譯等多種翻譯場景。
檔案管理:對話、繪畫和知識庫中的檔案統一分類管理,避免繁瑣查找。
全域搜尋:支援快速定位歷史記錄和知識庫內容,提升工作效率。
服務商模型聚合:支援 OpenAI、Gemini、Anthropic、Azure 等主流服務商的模型統一呼叫。
模型自動取得:一鍵取得完整模型列表,無需手動設定。
多密鑰輪詢:支援多個 API 密鑰輪換使用,避免速率限制問題。
精準頭像匹配:為每個模型自動匹配專屬頭像,提升辨識度。
自訂服務商:支援符合 OpenAI、Gemini 、Anthropic 等規範的三方服務商接入,相容性強。
自訂 CSS:支援全域樣式自訂,打造專屬介面風格。
自訂對話佈局:支援清單或氣泡樣式佈局,並可自訂訊息樣式(如程式碼片段樣式)。
自訂頭像:支援為軟體和助手設定個性化頭像。
自訂側邊欄選單:使用者可根據需求隱藏或排序側邊欄功能,最佳化使用體驗。
多種格式支援:支援 PDF、DOCX、PPTX、XLSX、TXT、MD 等多種檔案格式匯入。
多種資料源支援:支援本地檔案、網址、網站地圖甚至手動輸入內容作為知識庫源。
知識庫匯出:支援將處理好的知識庫匯出並分享給他人使用。
支援搜尋檢查:知識庫匯入後,使用者可即時檢索測試,查看處理結果和分段效果。
快捷問答:在任何場景(如微信、瀏覽器)中呼出快捷助手,快速獲取答案。
快捷翻譯:支援快速翻譯其他場景中的詞彙或文字。
內容總結:對長文字內容進行快速總結,提升資訊提取效率。
解釋說明:無需複雜提示詞,一鍵解釋說明不懂的問題。
多種備份方案:支援本地備份、WebDAV 備份和定時備份,確保資料安全。
資料安全:支援全本地場景使用,結合本地大模型,避免資料洩漏風險。
新手友善:Cherry Studio 致力於降低技術門檻,零基礎使用者也能快速上手,讓使用者專注於工作、學習或者創作。
文件完善:提供詳細的使用文件和常見問題處理手冊,幫助使用者快速解決問題。
持續迭代:專案團隊積極響應使用者回饋,持續最佳化功能,確保專案健康發展。
開源與擴充性:支援使用者透過開原始碼進行客製化和擴充,滿足個性化需求。
知識管理與查詢:透過本地知識庫功能,快速建構和查詢專屬知識庫,適用於研究、教育等領域。
多模型對話與創作:支援多模型同時對話,幫助使用者快速獲取資訊或產生內容。
翻譯與辦公自動化:內建翻譯助手和檔案處理功能,適合需要跨語言交流或文件處理的使用者。
AI 繪畫與設計:透過自然語言描述產生影像,滿足創意設計需求。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
使用或分發 Cherry Studio 素材之任何部分或元素,即視為您已認知並接受本協議內容,本協議立即生效。
本 Cherry Studio 授權協議(以下簡稱「協議」)應指由本協議定義之關於素材使用、複製、分發及修改的條款與條件。
「我們」(或「我方」)應指 上海千彗科技有限公司。
「您」(或「貴方」)應指行使本協議授予之權利,及/或為任何目的及於任何使用領域使用素材之自然人或法人實體。
「第三方」應指與我們或您均無共同控制權之個人或法人實體。
「Cherry Studio」應指本軟體套件,包含但不限於 [範例:核心庫、編輯器、外掛、範例專案],以及原始碼、文件、範例程式碼與我們分發之上開各項其他元素。(請依據 CherryStudio 實際構成詳述)
「素材」應統指上海千彗科技有限公司之專有 Cherry Studio 及文件(及其任何部分),依本協議提供。
「原始」形式應指進行修改之偏好形式,包含但不限於原始碼、文件來源檔案及設定檔。
「目標」形式應指原始形式經機械轉換或翻譯後產生之任何形式,包含但不限於編譯後目的碼、生成文件及轉換為其他媒體類型之形式。
「商業用途」指為直接或間接商業利益或商業優勢之目的,包含但不限於銷售、授權、訂閱、廣告、行銷、培訓、諮詢服務等。
「修改」指對素材原始形式進行任何變更、調整、衍生或二次開發,包含但不限於修改應用名稱、標誌、程式碼、功能、介面等。
免費商業使用(限未修改程式碼):我們依此根據我方擁有或體現於素材中之智慧財產權或其他權利,授予您一項非專屬、全球範圍、不可轉讓、免權利金之授權,以使用、複製、分發、拷貝及分發未經修改之素材,包含商業用途,惟須遵守本協議條款與條件。
商業授權(必要時):在滿足第三條「商業授權」所述條件時,您需從我方取得明確書面商業授權,方可行使本協議項下之權利。
於下列任一情形,您需聯繫我們並取得明確書面商業授權後,方可繼續使用 Cherry Studio 素材:
修改與衍生:您對 Cherry Studio 素材進行修改或基於其進行衍生開發(包含但不限於修改應用名稱、標誌、程式碼、功能、介面等)。
企業服務:於您企業內部,或為企業客戶提供基於 Cherry Studio 之服務,且該服務支援 10 人及以上累計使用者。
硬體綑綁銷售:您將 Cherry Studio 預裝或整合至硬體設備或產品中進行綑綁銷售。
政府或教育機構大規模採購:您之使用情境屬政府或教育機構大規模採購專案,尤涉及安全、資料隱私等敏感需求時。
公眾雲端服務:基於 Cherry Studio 提供面向公眾之雲端服務。
您可以分發未經修改之素材副本,或將其作為包含未修改素材之產品或服務的一部分提供,以原始形式或目標形式分發,但您須滿足下列條件:
您應向素材之任何其他接收者提供本協議副本;
您應於分發之所有素材副本中,保留下列署名聲明,並置於此類副本分發之「NOTICE」或類似文字檔內:`"Cherry Studio is licensed under the Cherry Studio LICENSE AGREEMENT, Copyright (c) 上海千彗科技有限公司. All Rights Reserved."` (Cherry Studio 依 Cherry Studio 授權協議取得授權,版權所有 (c) 上海千彗科技有限公司。保留所有權利。)
素材可能受出口管制或限制。您使用素材時應遵守適用法律法規。
若您使用素材或其任何輸出結果建立、訓練、微調或改進將被分發或提供之軟體或模型,我們鼓勵您於相關產品文件中顯著標示「Built with Cherry Studio」或「Powered by Cherry Studio」。
我們保留對素材及由我方或為我方製作之衍生作品所有智慧財產權之所有權。在遵守本協議條款與條件之前提下,對於您製作之素材修改與衍生作品,其智慧財產權歸屬將依具體商業授權協議約定。在未獲商業授權情況下,您對素材之修改與衍生作品不享有所有權,其智慧財產權仍歸屬我方。
除履行本協議項下通知義務或在描述與再分發素材時合理慣常使用所必需外,未授予使用我方商號、商標、服務標誌或產品名稱之商標授權。
若您對我方或任何實體提起訴訟或其他法律程序(包含訴訟中之反訴或反請求),主張素材或其任何輸出,或上述任何部分侵害您擁有或可授權之智慧財產權或其他權利,則本協議授予您之一切授權應自該訴訟或法律程序開始或提起之日起終止。
我們無義務支援、更新、提供培訓或開發任何 CherryStudio 素材之新版,亦無義務授予任何相關授權。
素材依「現狀」提供,不附帶任何明示或暗示保證,包含對適售性、不侵權性或特定用途適用性之保證。對於素材及其任何輸出之安全性或穩定性,我們不作任何保證,亦不承擔任何責任。
在任何情況下,對於因您使用或無法使用素材或其任何輸出引起之損害(包含但不限於直接、間接、特殊或後續損害),無論其如何引起,我們均不對您承擔責任。
對於任何第三方因您使用或分發素材引起或與之相關之索賠,您將為我們辯護、賠償並使我們免受損害。
本協議效期自您接受本協議或存取素材時起算,並將持續有效直至依本協議條款終止。
若您違反本協議任何條款,我們可終止本協議。協議終止後,您須停止使用素材。第七條、第九條及「二. 貢獻者協議」於本協議終止後持續有效。
本協議及因本協議引起或與之相關之任何爭議,均受中國法律管轄。
上海市人民法院對因本協議引起之任何爭議具有專屬管轄權。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
當助手未設置預設助手模型時,其新對話當中預設選擇的模型為此處設置的模型。
優化提示詞、劃詞助手使用的也是此處設置的模型。
每次對話後會調用模型為對話生成一個話題名稱,此處設置的模型為命名時所使用的模型。
對話、繪畫等輸入框當中的翻譯功能,翻譯介面的翻譯模型都使用的是此處設置的模型。
快捷助手功能使用的模型,詳見 快捷助手
此文件由 AI 從中文翻譯而來,尚未經過審閱。
Ollama 是一款優秀的開源工具,讓您可以在本地輕鬆執行和管理各種大型語言模型(LLMs)。Cherry Studio 現已支援 Ollama 整合,讓您可以在熟悉的介面中,直接與本地部署的 LLM 進行互動,無需依賴雲端服務!
Ollama 是一個簡化大型語言模型(LLM)部署和使用的工具。它具有以下特點:
本地執行: 模型完全在您的本地電腦上執行,無需連網,保護您的隱私和資料安全。
簡單易用: 通過簡單的命令列指令,即可下載、執行和管理各種 LLM。
模型豐富: 支援 Llama 2、Deepseek、Mistral、Gemma 等多種流行的開源模型。
跨平台: 支援 macOS、Windows 和 Linux 系統。
開放API:支援與OpenAI兼容的介面,可以和其他工具整合。
無需雲端服務: 不再受限於雲端 API 的配額和費用,盡情體驗本地 LLM 的強大功能。
資料隱私: 您的所有對話資料都保留在本地,無需擔心隱私洩露。
離線可用: 即使在沒有網路連線的情況下,也能繼續與 LLM 進行互動。
客製化: 可以根據您的需求,選擇和配置最適合您的 LLM。
首先,您需要在您的電腦上安裝並執行 Ollama。請按照以下步驟操作:
下載 Ollama: 瀏覽 Ollama 官網(https://ollama.com/),根據您的作業系統下載對應的安裝包。 在 Linux 下,可直接執行命令安裝ollama:
curl -fsSL https://ollama.com/install.sh | sh
安裝 Ollama: 按照安裝程式的指引完成安裝。
下載模型: 開啟終端機(或命令提示字元),使用 ollama run
指令下載您想要使用的模型。例如,要下載 Llama 2 模型,可以執行:
ollama run llama3.2
Ollama 會自動下載並執行該模型。
保持 Ollama 執行: 在您使用 Cherry Studio 與 Ollama 模型互動期間,請確保 Ollama 保持執行狀態。
接下來,在 Cherry Studio 中添加 Ollama 作為自訂 AI 服務商:
開啟設定: 在 Cherry Studio 介面左側導覽列中,點擊「設定」(齒輪圖示)。
進入模型服務: 在設定頁面中,選擇「模型服務」選項卡。
添加供應商: 點擊清單中的 Ollama。
在服務商清單中找到剛剛添加的 Ollama,並進行詳細配置:
啟用狀態:
確保 Ollama 服務商最右側的開關已開啟,表示已啟用。
API 密鑰:
Ollama 預設不需要 API 密鑰。您可以將此欄位留空,或者填寫任意內容。
API 地址:
填寫 Ollama 提供的本地 API 地址。通常情況下,地址為:
http://localhost:11434/
如果修改了連接埠,請自行更改。
保持活躍時間: 此選項是設定工作階段的保持時間,單位是分鐘。如果在設定時間內沒有新的對話,Cherry Studio 會自動斷開與 Ollama 的連線,釋放資源。
模型管理:
點擊「+ 添加」按鈕,手動添加您在 Ollama 中已經下載的模型名稱。
比如您已經通過ollama run llama3.2
下載了llama3.2
模型, 那麼此處可以填入llama3.2
點擊「管理」按鈕,可以對已添加的模型進行編輯或刪除。
完成以上配置後,您就可以在 Cherry Studio 的聊天介面中,選擇 Ollama 服務商和您已下載的模型,開始與本地 LLM 進行對話了!
首次執行模型: 第一次執行某個模型時,Ollama 需要下載模型檔案,可能需要較長時間,請耐心等待。
檢視可用模型: 在終端機中執行 ollama list
命令,可以檢視您已下載的 Ollama 模型清單。
硬體要求: 執行大型語言模型需要一定的計算資源(CPU、記憶體、GPU),請確保您的電腦配置滿足模型的要求。
Ollama 文件: 可以點擊配置頁面中的查看Ollama文件及模型
連結快速跳轉至Ollama官網文件。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
Cherry Studio 資料儲存遵循系統規範,資料會自動放置在使用者目錄下,具體目錄位置如下:
macOS: /Users/username/Library/Application Support/CherryStudioDev
Windows: C:\Users\username\AppData\Roaming\CherryStudio
Linux: /home/username/.config/CherryStudio
也可以在以下位置查看:
方法一:
可以透過建立軟連結的方式實現。先退出軟體,將資料移動到您希望儲存的位置,然後在原位置建立一個指向新位置的連結即可。
具體操作步驟請參考:https://github.com/CherryHQ/cherry-studio/issues/621#issuecomment-2588652880
方法二: 基於 Electron 應用特性,透過設定啟動參數修改儲存位置。
--user-data-dir 如: Cherry-Studio-*-x64-portable.exe --user-data-dir="%user_data_dir%"
範例:
PS D:\CherryStudio> dir
目錄: D:\CherryStudio
Mode LastWriteTime Length Name
---- ------------- ------ ----
d----- 2025/4/18 14:05 user-data-dir
-a---- 2025/4/14 23:05 94987175 Cherry-Studio-1.2.4-x64-portable.exe
-a---- 2025/4/18 14:05 701 init_cherry_studio.bat
init_cherry_studio.bat (編碼格式: ANSI)
@title CherryStudio 初始化
@echo off
set current_path_dir=%~dp0
@echo 目前路徑:%current_path_dir%
set user_data_dir=%current_path_dir%user-data-dir
@echo CherryStudio 資料路徑:%user_data_dir%
@echo 搜尋目前路徑下的 Cherry-Studio-*-portable.exe
setlocal enabledelayedexpansion
for /f "delims=" %%F in ('dir /b /a-d "Cherry-Studio-*-portable*.exe" 2^>nul') do ( #此程式碼適用於 GitHub 和官網下載版本,其他版本請自行修改
set "target_file=!cd!\%%F"
goto :break
)
:break
if defined target_file (
echo 找到檔案: %target_file%
) else (
echo 未找到符合檔案,結束腳本執行
pause
exit
)
@echo 確認執行請繼續
pause
@echo 啟動 CherryStudio
start %target_file% --user-data-dir="%user_data_dir%"
@echo 操作完成
@echo on
exit
目錄 user-data-dir 初始化後的結構:
PS D:\CherryStudio> dir .\user-data-dir\
目錄: D:\CherryStudio\user-data-dir
Mode LastWriteTime Length Name
---- ------------- ------ ----
d----- 2025/4/18 14:29 blob_storage
d----- 2025/4/18 14:07 Cache
d----- 2025/4/18 14:07 Code Cache
d----- 2025/4/18 14:07 Data
d----- 2025/4/18 14:07 DawnGraphiteCache
d----- 2025/4/18 14:07 DawnWebGPUCache
d----- 2025/4/18 14:07 Dictionaries
d----- 2025/4/18 14:07 GPUCache
d----- 2025/4/18 14:07 IndexedDB
d----- 2025/4/18 14:07 Local Storage
d----- 2025/4/18 14:07 logs
d----- 2025/4/18 14:30 Network
d----- 2025/4/18 14:07 Partitions
d----- 2025/4/18 14:29 Session Storage
d----- 2025/4/18 14:07 Shared Dictionary
d----- 2025/4/18 14:07 WebStorage
-a---- 2025/4/18 14:07 36 .updaterId
-a---- 2025/4/18 14:29 20 config.json
-a---- 2025/4/18 14:07 434 Local State
-a---- 2025/4/18 14:29 57 Preferences
-a---- 2025/4/18 14:09 4096 SharedStorage
-a---- 2025/4/18 14:30 140 window-state.json
此文件由 AI 從中文翻譯而來,尚未經過審閱。
Tokens 是 AI 模型處理文本的基本單位,可以理解為模型"思考"的最小單元。它不完全等同於我們理解的字符或單詞,而是模型自己的一種特殊的文本分割方式。
1. 中文分詞
一個漢字通常會被編碼為 1-2 個 tokens
例如:"你好"
≈ 2-4 tokens
2. 英文分詞
常見單詞通常是 1 個 token
較長或不常見的單詞會被分解成多個 tokens
例如:
"hello"
= 1 token
"indescribable"
= 4 tokens
3. 特殊字符
空格、標點符號等也會佔用 tokens
換行符通常是 1 個 token
Tokenizer(分詞器)是 AI 模型將文本轉換為 tokens 的工具。它決定了如何把輸入文本切分成模型可以理解的最小單位。
1. 訓練數據不同
不同的語料庫導致優化方向不同
多語言支援程度差異
特定領域(醫療、法律等)的專門優化
2. 分詞算法不同
BPE (Byte Pair Encoding) - OpenAI GPT 系列
WordPiece - Google BERT
SentencePiece - 適合多語言場景
3. 優化目標不同
有的注重壓縮效率
有的注重語意保留
有的注重處理速度
同樣的文本在不同模型中的 token 數量可能不同:
基本概念: 嵌入模型是一種將高維離散數據(文本、圖像等)轉換為低維連續向量的技術,這種轉換讓機器能更好地理解和處理複雜數據。想像一下,就像把複雜的拼圖簡化成一個簡單的座標點,但這個點仍然保留了拼圖的關鍵特徵。在大模型生態中,它作為"翻譯官",將人類可理解的信息轉換為 AI 可計算的數字形式。
工作原理: 以自然語言處理為例,嵌入模型可以將詞語映射到向量空間中的特定位置。在這個空間裡,語義相近的詞會自動聚集在一起。比如:
"國王"和"王后"的向量會很接近
"貓"和"狗"這樣的寵物詞也會距離相近
而"汽車"和"麵包"這樣語義無關的詞則會距離較遠
主要應用場景:
文本分析:文件分類、情感分析
推薦系統:個性化內容推薦
圖像處理:相似圖片檢索
搜索引擎:語義搜索優化
核心優勢:
降維效果:將複雜數據簡化為易處理的向量形式
語義保持:保留原始數據中的關鍵語義信息
計算效率:顯著提升機器學習模型的訓練和推理效率
技術價值: 嵌入模型是現代 AI 系統的基礎組件,為機器學習任務提供了高質量的數據表示,是推動自然語言處理、計算機視覺等領域發展的關鍵技術。
基本工作流程:
知識庫預處理階段
將文件分割成適當大小的 chunk(文本塊)
使用 embedding 模型將每個 chunk 轉換為向量
將向量和原文存儲到向量數據庫中
查詢處理階段
將用戶問題轉換為向量
在向量庫中檢索相似內容
將檢索到的相關內容作為上下文提供給 LLM
MCP 是一種開源協議,旨在以標準化的方式向大型語言模型(LLM)提供上下文信息。
類比理解: 可以把 MCP 想像成 AI 領域的「U盤」。我們知道,U盤可以存儲各種文件,插入電腦後就能直接使用。類似地,MCP Server 上可以「插」上各種提供上下文的「插件」,LLM 可以根據需要向 MCP Server 請求這些插件,從而獲取更豐富的上下文信息,增強自身能力。
與 Function Tool 的對比: 傳統的 Function Tool(函數工具)也可以為 LLM 提供外部功能,但 MCP 更像是一種更高維度的抽象。Function Tool 更多的是針對具體任務的工具,而 MCP 則提供了一種更通用的、模塊化的上下文獲取機制。
標準化: MCP 提供了統一的接口和數據格式,使得不同的 LLM 和上下文提供者可以無縫協作。
模塊化: MCP 允許開發者將上下文信息分解為獨立的模塊(插件),方便管理和複用。
靈活性: LLM 可以根據自身需求動態選擇所需的上下文插件,實現更智能、更個性化的互動。
可擴展性: MCP 的設計支援未來添加更多類型的上下文插件,為 LLM 的能力拓展提供了無限可能。
輸入:"Hello, world!"
GPT-3: 4 tokens
BERT: 3 tokens
Claude: 3 tokens
mcp-server-time
--local-timezone
<你的標準時區,例如:Asia/Shanghai>
此文件由 AI 從中文翻譯而來,尚未經過審閱。
4xx(客戶端錯誤狀態碼):一般為請求語法錯誤、權限驗證失敗或認證失敗等無法完成請求。
5xx(伺服器錯誤狀態碼):一般為伺服器端錯誤,如伺服器故障、請求處理超時等。
400
請求體格式錯誤等
查看對話返回的錯誤內容或 查看報錯內容,根據提示操作。
【常見情況1】:如果是Gemini模型,可能需要進行綁卡操作; 【常見情況2】:資料體積超限,常見於視覺模型,圖片體積超過上游單個請求流量上限會返回此錯誤碼; 【常見情況3】:添加了不支援的參數或參數填寫錯誤,嘗試新建一個純淨的助手測試是否正常; 【常見情況4】:上下文超過限制,清除上下文或新建對話或減少上下文條數。
401
認證失敗:模型不被支援或服務端賬戶被封禁等
聯繫或查看對應服務商賬戶狀態
403
請求操作無權限
根據對話返回的錯誤信息或錯誤信息提示進行相應操作
404
無法找到請求資源
檢查請求路徑等
422
請求格式正確,但語義錯誤
這類錯誤伺服器能解析,但無法處理。常見於JSON語義錯誤(如:空值;要求值為字符串,但寫成了數字或布林值等情況)。
429
請求速率達到上限
請求速率(TPM或RPM)達到上限,稍後再試
500
伺服器內部錯誤,無法完成請求
持續出現時聯繫上游服務商
501
伺服器不支援請求的功能,無法完成請求
502
作為閘道或代理工作的伺服器嘗試執行請求時,從遠端伺服器接收到了一個無效的響應
503
由於超載或系統維護,伺服器暫時無法處理客戶端的請求。延時長度可包含在伺服器的Retry-After頭訊息中
504
充當閘道或代理的伺服器,未及時從遠端伺服器獲取請求
點擊 Cherry Studio 客戶端視窗後按下快捷鍵 Ctrl + Shift + I(Mac端:Command + Option + I)
在彈出的控制台視窗中點擊 Network
→ 點擊查看②處最後一個標有紅色 ×
的 completions
(對話類、翻譯、模型連通性檢查等遇到錯誤時) 或 generations
(繪畫遇到錯誤時) → 點擊Response
查看完整的返回內容(圖中④的區域)。
如果無法判斷錯誤原因,請將該界面截圖傳送到 官方交流群 中尋求協助。
該檢查方法在對話時可獲取錯誤訊息,在模型測試時、新增知識庫時、繪畫時等均可使用。無論何種情況都需要先開啟調試視窗,再進行請求操作來獲取請求訊息。
公式未被渲染而是直接顯示公式代碼時,檢查公式是否有定界符
定界符用法
行內公式
使用單個美元符號:
$formula$
或使用
\(
和\)
,如:\(formula\)
獨立公式塊
使用雙美元符號:
$$formula$$
或使用
\[formula\]
示例:
$$\sum_{i=1}^n x_i$$
公式渲染錯誤/亂碼(常見於公式內含中文時),嘗試切換公式引擎為 KateX。
模型狀態不可用
確認服務商是否支援該模型或確認服務商該模型服務狀態是否正常。
使用了非嵌入模型
首先需要確認模型是否支援識圖,熱門模型 Cherry Studio 會對其分類,模型名稱後帶小眼睛圖示的即支援識圖。
識圖模型會支援圖像檔案的上傳,如果模型功能未被正確匹配,可在對應服務商的模型列表中找到該模型,點擊其名稱後的設定按鈕並勾選圖像選項。
模型具體訊息可到對應服務商查閱其資訊。同嵌入模型一樣,不支援視覺的模型不需要強制開啟圖像功能,勾選了圖像選項也沒有作用。
https://git.io/ublacklist
中文
https://raw.githubusercontent.com/laylavish/uBlockOrigin-HUGE-AI-Blocklist/main/list_uBlacklist.txt
AI生成
此文件由 AI 從中文翻譯而來,尚未經過審閱。
Doubao-embedding
4095
Doubao-embedding-vision
8191
Doubao-embedding-large
4095
text-embedding-v3
8192
text-embedding-v2
2048
text-embedding-v1
2048
text-embedding-async-v2
2048
text-embedding-async-v1
2048
text-embedding-3-small
8191
text-embedding-3-large
8191
text-embedding-ada-002
8191
Embedding-V1
384
tao-8k
8192
embedding-2
1024
embedding-3
2048
hunyuan-embedding
1024
Baichuan-Text-Embedding
512
M2-BERT-80M-2K-Retrieval
2048
M2-BERT-80M-8K-Retrieval
8192
M2-BERT-80M-32K-Retrieval
32768
UAE-Large-v1
512
BGE-Large-EN-v1.5
512
BGE-Base-EN-v1.5
512
jina-embedding-b-en-v1
512
jina-embeddings-v2-base-en
8191
jina-embeddings-v2-base-zh
8191
jina-embeddings-v2-base-de
8191
jina-embeddings-v2-base-code
8191
jina-embeddings-v2-base-es
8191
jina-colbert-v1-en
8191
jina-reranker-v1-base-en
8191
jina-reranker-v1-turbo-en
8191
jina-reranker-v1-tiny-en
8191
jina-clip-v1
8191
jina-reranker-v2-base-multilingual
8191
reader-lm-1.5b
256000
reader-lm-0.5b
256000
jina-colbert-v2
8191
jina-embeddings-v3
8191
BAAI/bge-m3
8191
netease-youdao/bce-embedding-base_v1
512
BAAI/bge-large-zh-v1.5
512
BAAI/bge-large-en-v1.5
512
Pro/BAAI/bge-m3
8191
text-embedding-004
2048
nomic-embed-text-v1
8192
nomic-embed-text-v1.5
8192
gte-multilingual-base
8192
embedding-query
4000
embedding-passage
4000
embed-english-v3.0
512
embed-english-light-v3.0
512
embed-multilingual-v3.0
512
embed-multilingual-light-v3.0
512
embed-english-v2.0
512
embed-english-light-v2.0
512
embed-multilingual-v2.0
256
此文件由 AI 從中文翻譯而來,尚未經過審閱。
Cherry Studio 是一個免費開源的專案,隨著專案規模擴大,專案小組的工作量也日漸增多。為了減少溝通成本並能快速高效解決您的問題,我們希望大家在提問前盡可能按照以下步驟處理遇到的問題,讓專案小組能將更多時間投入專案維護和開發。感謝您的配合!
大多數基礎問題透過仔細查閱文件都能解決:
軟體功能和使用問題可查閱功能介紹文件;
高頻問題收錄在常見問題頁面,請先在此查看解決方案;
複雜問題可直接使用搜尋功能或在搜尋框提問;
務必仔細閱讀每篇文件中的提示框內容,能幫您避免許多問題;
在 GitHub 的 Issue 頁面查看或搜尋類似問題及解決方案。
與客戶端功能無關的問題(如模型報錯、回答不符預期、參數設置等),建議先在網路上搜尋解決方案,或將報錯內容和問題描述提供給AI尋找解決方案。
若上述方法仍未解決問題,請至官方 TG頻道、Discord頻道、(一鍵進群)詳細描述問題尋求協助:
模型報錯:提供完整介面截圖及控制台報錯資訊(敏感資訊可打碼,但需保留模型名稱、參數設置和報錯內容)。控制台報錯資訊查看方法點此
軟體Bug:提供具體錯誤描述及詳細。若為偶發問題,請詳細描述問題發生時的場景、背景與配置參數
同時請註明平台資訊(Windows/Mac/Linux)與軟體版本號
文件請求或建議
請聯繫 TG頻道 @Wangmouuu
或 QQ(1355873789
),或發送郵件至:[email protected]
此文件由 AI 從中文翻譯而來,尚未經過審閱。
你是否正在經歷:微信收藏了26篇乾貨文章卻再也沒打開過,電腦裡存著「學習資料」文件夾中散落的10+個文件,想找半年前讀過的某個理論卻只記得零星關鍵詞。而當每日信息量超過大腦處理極限時,90%珍貴知識會在72小時內被遺忘。 現在,通過無問芯穹大模型服務平台API + Cherry Studio打造個人知識庫,可以將被閒置收藏的微信文章、碎片化的課程內容轉化為結構化知識,實現精準調用。
1. 無問芯穹API服務:知識庫「思考中樞」,好用、穩定
作為知識庫的「思考中樞」,無問芯穹大模型服務平台提供 DeepSeek R1 完整功能版等模型版本,提供穩定的 API 服務,**目前註冊後無門檻免費使用。**支援主流嵌入模型 bge、jina 模型來建構知識庫,平台持續更新穩定最新、最強開源模型服務,包含圖片、影片、語音等多種不同模態。
2. Cherry Studio:零代碼搭建知識庫
Cherry Studio是一款易用的AI工具,相較於RAG知識庫開發需1-2個月部署週期,此工具支援零代碼操作,可將Markdown/PDF/網頁等多格式一鍵導入,40MB文件1分鐘完成解析,還可添加電腦本機文件夾、微信收藏夾文章網址、課程筆記。
Step 1:基礎準備
訪問Cherry Studio官網下載適配版本(https://cherry-ai.com/)
註冊帳號:登入無問芯穹大模型服務平台 (https://cloud.infini-ai.com/genstudio/model?cherrystudio)
獲取API金鑰:在「模型廣場」選擇deepseek-r1,點擊創建並獲取APIKEY,複製模型名稱
Step 2:開啟CherryStudio設定,在模型服務中選擇無問芯穹,填寫API金鑰,並啟用無問芯穹模型服務
完成以上步驟,在互動時選擇所需大模型,即可在CherryStudio中使用無問芯穹API服務。 為方便使用,此處可設定「預設模型」
Step 3:添加知識庫
選擇無問芯穹大模型服務平台的嵌入模型bge系列或jina系列任一版本
導入學習資料後,輸入"梳理〈機器學習〉第三章核心公式推導"
附生成結果圖
此文件由 AI 從中文翻譯而來,尚未經過審閱。
快捷助手是 Cherry Studio 提供的便捷工具,允許您在任何應用程式中快速存取 AI 功能,實現即時提問、翻譯、摘要和解釋等操作。
開啟設定: 導覽至 設定
-> 快速鍵
-> 快捷助手
。
啟用開關: 找到並開啟 快捷助手
對應按鈕。
設定快速鍵(選用):
Windows 預設快速鍵為 Ctrl + E。
macOS 預設快速鍵為 ⌘ + E。
您可在此自訂快速鍵以避免衝突或符合個人使用習慣。
喚起功能: 在任何應用程式中,按下設定好的快速鍵(或預設快速鍵)即可開啟快捷助手。
功能操作: 在快捷助手視窗中可直接進行:
即時提問: 向 AI 提出任何疑問。
文字翻譯: 輸入待翻譯文字內容。
內容摘要: 輸入長文字進行重點摘要。
術語解釋: 輸入需說明的概念或專有名詞。
關閉視窗: 按下 ESC 鍵或點擊視窗外任意位置即可關閉。
快速鍵衝突: 若預設快速鍵與其他應用程式衝突,請修改設定。
探索進階功能: 除說明文件功能外,快捷助手可能支援程式碼生成、風格轉換等操作,建議持續嘗試發掘。
問題回報與建議: 使用時如遇問題或有功能改進建議,請隨時向 Cherry Studio 團隊 提交回饋。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
Cherry Studio 不僅整合了主流的 AI 模型服務,還賦予您強大的自訂能力。透過 自訂 AI 服務供應商 功能,您可以輕鬆接入任何您需要的 AI 模型。
靈活性: 不再受限於預置的供應商清單,自由選擇最適合您需求的 AI 模型。
多樣性: 嘗試各種不同平台的 AI 模型,發掘它們的獨特優勢。
可控性: 直接管理您的 API 金鑰和訪問地址,確保安全和隱私。
客製化: 接入私有化部署的模型,滿足特定業務場景的需求。
只需簡單幾步,即可在 Cherry Studio 中新增您的自訂 AI 服務供應商:
開啟設定: 在 Cherry Studio 介面左側導覽列中,點擊「設定」(齒輪圖示)。
進入模型服務: 在設定頁面中,選擇「模型服務」標籤頁。
新增供應商: 在「模型服務」頁面中,您會看到現有的供應商清單。點擊清單下方的「+ 新增」按鈕,開啟「新增供應商」彈窗。
填寫資訊: 在彈窗中,您需要填寫以下資訊:
供應商名稱: 為您的自訂供應商取一個易於識別的名稱(例如:MyCustomOpenAI)。
供應商類型: 從下拉清單中選擇您的供應商類型。目前支援:
OpenAI
Gemini
Anthropic
Azure OpenAI
儲存設定: 填寫完畢後,點擊「新增」按鈕儲存您的設定。
新增完成後,您需要在清單中找到您剛剛新增的供應商,並進行詳細設定:
啟用狀態 自訂供應商清單最右側有一個啟用開關,開啟代表啟用該自訂服務。
API 金鑰:
填寫您的 AI 服務供應商提供的 API 金鑰(API Key)。
點擊右側的「檢查」按鈕,可以驗證金鑰的有效性。
API 地址:
填寫 AI 服務的 API 存取地址(Base URL)。
請務必參考您的 AI 服務供應商提供的官方文件,取得正確的 API 地址。
模型管理:
點擊「+ 新增」按鈕,手動新增此供應商下您想要使用的模型ID。例如 gpt-3.5-turbo
、gemini-pro
等。
如果您不確定具體的模型名稱,請參考您的 AI 服務供應商提供的官方文件。
點擊「管理」按鈕,可以對已經新增的模型進行編輯或者刪除。
完成以上設定後,您就可以在 Cherry Studio 的對話介面中,選擇您自訂的 AI 服務供應商和模型,開始與 AI 進行對話了!
vLLM 是一個類似 Ollama 的快速且易於使用的 LLM 推理庫。以下是如何將 vLLM 整合到 Cherry Studio 中的步驟:
安裝 vLLM: 按照 vLLM 官方文件()安裝 vLLM。
啟動 vLLM 服務: 使用 vLLM 提供的 OpenAI 相容介面啟動服務。主要有兩種方式,分別如下:
使用vllm.entrypoints.openai.api_server
啟動
使用uvicorn
啟動
確保服務成功啟動,並監聽在預設連接埠 8000
上。當然,您也可以透過參數--port
指定 vLLM 服務的連接埠號。
在 Cherry Studio 中新增 vLLM 供應商:
按照前面描述的步驟,在 Cherry Studio 中新增一個自訂 AI 服務供應商。
供應商名稱: vLLM
供應商類型: 選擇 OpenAI
。
設定 vLLM 供應商:
API 金鑰: 因為 vLLM 不需要 API 金鑰,可以將此欄位留空,或者填寫任意內容。
API 地址: 填寫 vLLM 服務的 API 地址。預設情況下,地址為: http://localhost:8000/
(如果使用了不同的連接埠,請相應地修改)。
模型管理: 新增您在 vLLM 中加載的模型名稱。在上面執行python -m vllm.entrypoints.openai.api_server --model gpt2
的例子中,應該在此處填入gpt2
開始對話: 現在,您可以在 Cherry Studio 中選擇 vLLM 供應商和 gpt2
模型,開始與 vLLM 驅動的 LLM 進行對話了!
仔細閱讀文件: 在新增自訂供應商之前,請務必仔細閱讀您所使用的 AI 服務供應商的官方文件,了解 API 金鑰、訪問地址、模型名稱等關鍵資訊。
檢查 API 金鑰: 使用「檢查」按鈕可以快速驗證 API 金鑰的有效性,避免因金鑰錯誤導致無法使用。
關注 API 地址: 不同的 AI 服務供應商和模型,API 地址可能有所不同,請務必填寫正確的地址。
按需新增模型: 請只新增您實際上會用到的模型,避免新增過多無用模型。
此文件由 AI 從中文翻譯而來,尚未經過審閱。
添加 ModelScope MCP 伺服器需將 Cherry Studio 升級至 v1.2.9 或更高版本。
在 v1.2.9 版本中,Cherry Studio 與 ModelScope 魔搭達成官方合作,大幅簡化了 MCP 伺服器添加的操作步驟,避免配置過程出錯,而且可以在 ModelScope 社區發現海量 MCP 伺服器。接下來跟隨操作步驟,一起瞭解如何在 Cherry Studio 中同步 ModelScope 的 MCP 伺服器。
點擊設定中的 MCP 伺服器設定,選取 同步伺服器
選擇 ModelScope,並瀏覽發現 MCP 服務
註冊登錄 ModelScope,並查看 MCP 服務詳情;
在 MCP 服務詳情中,選擇連接服務;
點擊 Cherry Studio 中的「獲取api」令牌,跳轉 ModelScope 官網,複製 api 令牌,並回到 Cherry Studio 中貼上。
在 Cherry Studio 的 MCP 伺服器列表中,可以看到 ModelScope 連接的 MCP 服務並在對話中呼叫。
在後續 ModelScope 網頁新連接的 MCP 伺服器,直接點擊 同步伺服器
就可以實現增量的 MCP 伺服器添加。
通過以上步驟,你已經成功掌握了如何在 Cherry Studio 中便捷地同步 ModelScope 上的 MCP 伺服器,整個配置過程不僅大大簡化,有效避免了手動配置的繁瑣和潛在錯誤,更讓你能够輕鬆接入 ModelScope 社區提供的海量 MCP 伺服器資源。
開始探索和使用這些強大的 MCP 服務,為你的 Cherry Studio 使用體驗帶來更多便利和可能性吧!
此文件由 AI 從中文翻譯而來,尚未經過審閱。
開啟 Cherry Studio 設定。
找到 MCP 伺服器
選項。
點擊 新增伺服器
。
填入 MCP Server 的相關參數()。可能需要填寫的內容包括:
名稱:自訂名稱,例如 fetch-server
類型:選擇 STDIO
指令:填寫 uvx
參數:填寫 mcp-server-fetch
(可能還有其他參數,視具體 Server 而定)
點擊 儲存
。
完成上述設定後,Cherry Studio 會自動下載所需的 MCP Server - fetch server
。下載完成後,我們就可以開始使用了!注意:當 mcp-server-fetch 設定未成功時,可嘗試重新啟動電腦。
需先在 MCP 伺服器
設定中成功新增 MCP 伺服器
從上圖可見,結合 MCP 的 fetch
功能後,Cherry Studio 能更準確理解使用者查詢意圖,並從網路獲取相關資訊,給出更精準、更全面的回答。
pip install vllm # 如果你使用 pip
uv pip install vllm # 如果你使用 uv
python -m vllm.entrypoints.openai.api_server --model gpt2
vllm --model gpt2 --served-model-name gpt2
数据设置→Obsidian配置
此文件由 AI 從中文翻譯而來,尚未經過審閱。
Cherry Studio 支援與 Obsidian 聯動,將完整對話或單條對話匯出到 Obsidian 庫中。
該過程無需安裝額外的 Obsidian 外掛。但由於 Cherry Studio 匯入到 Obsidian 採用的原理與 Obsidian Web Clipper 類似,因此建議使用者最好將 Obsidian 升級至最新版本(當前 Obsidian 版本至少應大於 1.7.2),以免。
開啟 Cherry Studio 的_設定_ → 資料設定 → _Obsidian 設定_選單,下拉選單中會自動出現在本機開啟過的 Obsidian 庫名,選擇你的目標 Obsidian 庫:
匯出完整對話
回到 Cherry Studio 的對話介面,右鍵點擊對話,選擇_匯出_,點擊_匯出到 Obsidian_:
此時會彈出一個視窗,用於調整這條匯出到 Obsidian 中的對話筆記的 Properties(屬性)、所放置在Obsidian的資料夾位置以及匯出到 Obsidian 中的處理方式:
保管庫:點擊下拉選單可以選擇其他 Obsidian 庫
路徑:點擊下拉選單可以選擇存放匯出對話筆記的資料夾
作為 Obsidian 筆記屬性(Properties):
標籤(tags)
建立時間(created)
來源(source)
匯出到 Obsidian 中的處理方式有以下三種可選:
新建(如果存在就覆蓋):在路徑處填寫的資料夾
裡新建一篇對話筆記,如果存在同名筆記則會覆蓋舊筆記
前置:在已存在同名筆記的情況下,將選中的對話內容匯出新增到該筆記的開頭
追加:在已存在同名筆記的情況下,將選中的對話內容匯出新增到該筆記的末尾
選擇完所有選項後,點選確定即可匯出完整對話到對應的 Obsidian 庫的對應資料夾。
匯出單條對話
對於單條對話的匯出,則點擊對話下方的_三條槓選單_,選擇_匯出_,點擊_匯出到 Obsidian_:
之後也會彈出與匯出完整對話時一樣的視窗,要求你配置筆記屬性與筆記的處理方式,一樣按照完成即可。
🎉 到這裡,恭喜你完成了 Cherry Studio 聯動 Obsidian 的所有配置,並完整地將匯出流程走了一遍,enjoy yourselves!
開啟 Obsidian 庫,建立一個用於儲存匯出對話的資料夾
(圖中以 Cherry Studio 資料夾為例):
注意記住左下角框出來的文字,這裡是你的保管庫
名。
在 Cherry Studio 的_設定_ → 資料設定 → _Obsidian 設定_選單中,輸入在中獲取到的保管庫
名與資料夾
名:
全域標籤
處是可選的,可設定所有對話匯出後在 Obsidian 中的標籤,按需填寫。
匯出完整對話
回到 Cherry Studio 的對話介面,右鍵點擊對話,選擇_匯出_,點擊_匯出到 Obsidian_。
此時會彈出一個視窗,用於調整這條匯出到 Obsidian 中的對話筆記的 Properties(屬性),以及匯出到 Obsidian 中的處理方式。匯出到 Obsidian 中的處理方式有以下三種可選:
新建(如果存在就覆蓋):在中填寫的資料夾
裡新建一篇對話筆記,如果存在同名筆記則會覆蓋舊筆記
前置:在已存在同名筆記的情況下,將選中的對話內容匯出新增到該筆記的開頭
追加:在已存在同名筆記的情況下,將選中的對話內容匯出新增到該筆記的末尾
匯出單條對話
對於單條對話的匯出,則點擊對話下方的_三條槓選單_,選擇_匯出_,點擊_匯出到 Obsidian_。
之後也會彈出與匯出完整對話時一樣的視窗,要求你配置筆記屬性與筆記的處理方式,一樣按照完成即可。
🎉 到這裡,恭喜你完成了 Cherry Studio 聯動 Obsidian 的所有配置,並完整地將匯出流程走了一遍,enjoy yourselves!
此文件由 AI 從中文翻譯而來,尚未經過審閱。
CherryStudio 支援透過 SearXNG 進行網絡搜索,SearXNG 是一個可本地部署也可在伺服器上部署的開源項目,所以與其他需要 API 供應商的配置方式略有不同。
SearXNG 項目鏈接:SearXNG
開源免費,無需 API
隱私性相對較高
可高度定制化
由於 SearXNG 不需要複雜的環境配置,可以不用 docker compose,只需要簡單提供一個空閒端口即可部署,所以最快捷的方式可以使用 Docker 直接拉取鏡像進行部署。
1. 下載安裝並配置 docker
安裝後選擇一個鏡像存儲路徑:
2. 搜索並拉取 SearXNG 鏡像
搜索欄輸入 searxng:
拉取鏡像:
3. 運行鏡像
拉取成功後來到 images 頁面:
選擇拉取的鏡像點擊運行:
打開設置項進行配置:
以 8085
端口為例:
運行成功後點擊鏈接即可打開 SearXNG 的前端界面:
出現這個頁面說明部署成功:
鑒於 Windows 下安裝 Docker 是一件較為麻煩的事情,使用者可以將 SearXNG 部署在伺服器上,也可藉此共享給其他人使用。但是很遺憾,SearXNG 自身暫不支援鑒權,導致他人可以透過技術手段掃描到並濫用你部署的實例。
為此,Cherry Studio 目前已支援配置 HTTP 基本認證(RFC7617),如果使用者欲將自己部署的 SearXNG 暴露在公網環境下,請務必透過 Nginx 等反向代理軟件配置 HTTP 基本認證。下面提供簡要教程,需要你有基本的 Linux 運維知識。
類似地,仍然使用 Docker 部署。假設你已按照官方教程在伺服器上安裝好了最新版 Docker CE,以下提供一條龍命令,適用於 Debian 系統下全新安裝:
sudo apt update
sudo apt install git -y
# 拉取官方倉庫
cd /opt
git clone https://github.com/searxng/searxng-docker.git
cd /opt/searxng-docker
# 如果你的伺服器頻寬很小, 可以設置為 false
export IMAGE_PROXY=true
# 修改配置文件
cat <<EOF > /opt/searxng-docker/searxng/settings.yml
# see https://docs.searxng.org/admin/settings/settings.html#settings-use-default-settings
use_default_settings: true
server:
# base_url is defined in the SEARXNG_BASE_URL environment variable, see .env and docker-compose.yml
secret_key: $(openssl rand -hex 32)
limiter: false # can be disabled for a private instance
image_proxy: $IMAGE_PROXY
ui:
static_use_hash: true
redis:
url: redis://redis:6379/0
search:
formats:
- html
- json
EOF
如果你需要修改本地監聽端口、復用本地已有的 nginx,可以編輯 docker-compose.yaml
文件,參考如下:
version: "3.7"
services:
# 如果不需要 Caddy 而復用本地已有的 Nginx, 就把下面的去掉. 我們默認不需要 Caddy.
caddy:
container_name: caddy
image: docker.io/library/caddy:2-alpine
network_mode: host
restart: unless-stopped
volumes:
- ./Caddyfile:/etc/caddy/Caddyfile:ro
- caddy-data:/data:rw
- caddy-config:/config:rw
environment:
- SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}
- SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}
cap_drop:
- ALL
cap_add:
- NET_BIND_SERVICE
logging:
driver: "json-file"
options:
max-size: "1m"
max-file: "1"
# 如果不需要 Caddy 而復用本地已有的 Nginx, 就把上面的去掉. 我們默認不需要 Caddy.
redis:
container_name: redis
image: docker.io/valkey/valkey:8-alpine
command: valkey-server --save 30 1 --loglevel warning
restart: unless-stopped
networks:
- searxng
volumes:
- valkey-data2:/data
cap_drop:
- ALL
cap_add:
- SETGID
- SETUID
- DAC_OVERRIDE
logging:
driver: "json-file"
options:
max-size: "1m"
max-file: "1"
searxng:
container_name: searxng
image: docker.io/searxng/searxng:latest
restart: unless-stopped
networks:
- searxng
# 默認映射到宿主機 8080 端口, 假如你想監聽 8000 就改成 "127.0.0.1:8000:8080"
ports:
- "127.0.0.1:8080:8080"
volumes:
- ./searxng:/etc/searxng:rw
environment:
- SEARXNG_BASE_URL=https://${SEARXNG_HOSTNAME:-localhost}/
- UWSGI_WORKERS=${SEARXNG_UWSGI_WORKERS:-4}
- UWSGI_THREADS=${SEARXNG_UWSGI_THREADS:-4}
cap_drop:
- ALL
cap_add:
- CHOWN
- SETGID
- SETUID
logging:
driver: "json-file"
options:
max-size: "1m"
max-file: "1"
networks:
searxng:
volumes:
# 如果不需要 Caddy 而復用本地已有的 Nginx, 就把下面的去掉
caddy-data:
caddy-config:
# 如果不需要 Caddy 而復用本地已有的 Nginx, 就把上面的去掉
valkey-data2:
執行 docker compose up -d
啟動。執行 docker compose logs -f searxng
可以看到日誌。
如果你使用了一些伺服器面板程序,例如寶塔面板或 1Panel,請參閱其文檔添加網站並配置 nginx 反向代理,隨後找到修改 nginx 配置文件的地方, 參考下面的範例進行修改:
server
{
listen 443 ssl;
# 這行是你的主機名
server_name search.example.com;
# index index.html;
# root /data/www/default;
# 如果配置了 SSL 應該有這兩行
ssl_certificate /path/to/your/cert/fullchain.pem;
ssl_certificate_key /path/to/your/cert/privkey.pem;
# HSTS
# add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload";
# 默認情況下透過面板配置反向代理, 默認的 location 塊就是這樣
location / {
# 只需要在 location 塊添加下面兩行, 其他保留原狀就行.
# 此處範例假設你的配置文件保存在 /etc/nginx/conf.d/ 目錄下.
# 如果是寶塔應該是保存在 /www 之類的目錄下, 需要注意.
auth_basic "Please enter your username and password";
auth_basic_user_file /etc/nginx/conf.d/search.htpasswd;
proxy_http_version 1.1;
proxy_set_header Connection "";
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_protocol_addr;
proxy_pass http://127.0.0.1:8000;
client_max_body_size 0;
}
# access_log ...;
# error_log ...;
}
假設 Nginx 配置文件保存於 /etc/nginx/conf.d
下,我們將將密碼文件保存在同目錄下。
執行命令(自行將 example_name
、example_password
替換為你將要設定的用戶名和密碼):
echo "example_name:$(openssl passwd -5 'example_password')" > /etc/nginx/conf.d/search.htpasswd
重啓 Nginx(重載配置也可以)。
這時可以打開一下網頁,已經會提示你輸入用戶名和密碼,請輸入前面設定的用戶名和密碼查看能否成功進入 SearXNG 搜索頁面,藉此檢查配置是否正確。
SearXNG 本地或在伺服器部署成功後,接下來是 CherryStudio 的相關配置。
來到網絡搜索設置頁面,選擇 Searxng:
直接輸入本地部署的鏈接發現驗證失敗,此時不用擔心:
因為直接部署後默認並沒有配置 json 返回類型,所以無法獲取數據,需要修改配置文件。
回到 Docker,來到 Files 標籤頁找到鏡像中找到帶標籤的文件夾:
展開後繼續往下翻,會發現另一個帶標籤的文件夾:
繼續展開,找到 settings.yml 配置文件:
點擊打開文件編輯器:
找到 78 行,可以看到類型只有一個 html
添加 json 類型後保存,重新運行鏡像
重新回到 Cherry Studio 進行驗證,驗證成功:
地址既可以填寫本地:http://localhost:端口號 也可以填寫 docker 地址:http://host.docker.internal:端口號
如果使用者遵循前面的範例在伺服器上部署並正確配置了反向代理,已經開啟了 json 返回類型。輸入地址後進行驗證,由於已給反向代理配置了 HTTP 基本認證,此時驗證則應返回 401 錯誤碼:
在客戶端配置 HTTP 基本認證,輸入剛才設定的用戶名與密碼:
進行驗證,應當驗證成功。
此時 SearXNG 已具備默認聯網搜索能力,如需定制搜索引擎需要自行進行配置
需要注意的是此處首選項並不能影響大模型調用時的配置
如需配置需要大模型調用的搜索引擎,需在配置文件中設置:
配置語言參考:
若內容太長直接修改不方便,可將其複製到本地 IDE 中,修改後粘貼到配置文件中即可。
在配置文件中將返回格式加上 json:
Cherry Studio 會默認選取 categories 同時包含 web general 的引擎進行搜索,默認情況下會選中 google 等引擎,由於大陸無法直接訪問 google 等網站導致失敗。增加以下配置使得 searxng 強制使用 baidu 引擎,即可解決問題:
use_default_settings:
engines:
keep_only:
- baidu
engines:
- name: baidu
engine: baidu
categories:
- web
- general
disabled: false
searxng 的 limiter 配置阻礙了 API 訪問,請嘗試將其在設置中設為 false:
此文件由 AI 從中文翻譯而來,尚未經過審閱。
<极不支持> ```html
360gpt-pro
8k
-
不支援
對話
360AI_360gpt
360智腦系列效果最好的主力千億級大模型,廣泛適用於各領域複雜任務場景。
360gpt-turbo
7k
-
不支援
對話
360AI_360gpt
兼顧性能和效果的百億級大模型,適合對性能/成本要求較高的場景。
360gpt-turbo-responsibility-8k
8k
-
不支援
對話
360AI_360gpt
兼顧性能和效果的百億級大模型,適合對性能/成本要求較高的場景。
360gpt2-pro
8k
-
不支援
對話
360AI_360gpt
360智腦系列效果最好的主力千億級大模型,廣泛適用於各領域複雜任務場景。
claude-3-5-sonnet-20240620
200k
16k
不支援
對話,識圖
Anthropic_claude
於2024年6月20日發佈的快照版本,Claude 3.5 Sonnet是一個平衡了性能和速度的模型,在保持高速度的同時提供頂級性能,支援多模態輸入。
claude-3-5-haiku-20241022
200k
16k
不支援
對話
Anthropic_claude
於2024年10月22日發佈的快照版本,Claude 3.5 Haiku在各項技能上都有所提升,包括編碼、工具使用和推理。作為Anthropic系列中速度最快的模型,它提供快速響應時間,適用於需要高互動性和低延遲的應用,如面向用戶的聊天機器人和即時代碼補全。它在數據提取和即時內容審核等專業任務中也表現出色,使其成為各行業廣泛應用的多功能工具。它不支援圖像輸入。
claude-3-5-sonnet-20241022
200k
8K
不支援
對話,識圖
Anthropic_claude
於2024年10月22日發佈的快照版本,Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長編程、數據科學、視覺處理、代理任務。
claude-3-5-sonnet-latest
200K
8k
不支援
對話,識圖
Anthropic_claude
動態指向最新的Claude 3.5 Sonnet版本,Claude 3.5 Sonnet提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長編程、數據科學、視覺處理、代理任務,該模型指向最新的版本。
claude-3-haiku-20240307
200k
4k
不支援
對話,識圖
Anthropic_claude
Claude 3 Haiku 是 Anthropic 的最快且最緊湊的模型,旨在實現近乎即時的響應。它具有快速且準確的定向性能。
claude-3-opus-20240229
200k
4k
不支援
對話,識圖
Anthropic_claude
Claude 3 Opus 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智能、流暢性和理解力方面表現卓越。
claude-3-sonnet-20240229
200k
8k
不支援
對話,識圖
Anthropic_claude
於2024年2月29日發佈的快照版本,Sonnet 特別擅長於: - 編碼:能夠自主編寫、編輯和運行程式碼,並具備推理和故障排除能力 - 數據科學:增強人類的數據科學專業知識;在使用多種工具獲取洞察時,能夠處理非結構化數據 - 視覺處理:擅長解讀圖表、圖形和圖像,準確轉錄文本以獲取超越文本本身的洞察 - 代理任務:工具使用出色,非常適合處理代理任務(即需要與其他系統交互的複雜多步驟問題解決任務)
google/gemma-2-27b-it
8k
-
不支援
對話
Google_gamma
Gemma 是由 Google 開發的輕量級、最先進的開放模型系列,採用與 Gemini 模型相同的研究和技術建構。這些模型是僅解碼器的大型語言模型,支援英語,提供預訓練和指令微調兩種變體的開放權重。Gemma 模型適用於各種文本生成任務,包括問答、摘要和推理。
google/gemma-2-9b-it
8k
-
不支援
對話
Google_gamma
Gemma 是 Google 開發的輕量級、最先進的開放模型系列之一。它是一個僅解碼器的大型語言模型,支援英語,提供開放權重、預訓練變體和指令微調變體。Gemma 模型適用於各種文本生成任務,包括問答、摘要和推理。該 9B 模型是通過 8 萬億個 tokens 訓練而成。
gemini-1.5-pro
2m
8k
不支援
對話
Google_gemini
Gemini 1.5 Pro 的最新穩定版本。作為一個強大的多模態模型,它可以處理長達6 萬行程式碼或 2,000 頁文本。特別適合需要複雜推理的任務。
gemini-1.0-pro-001
33k
8k
不支援
對話
Google_gemini
這是 Gemini 1.0 Pro 的穩定版本。作為一個 NLP 模型,它專門處理多輪文本和程式碼聊天以及程式碼生成等任務。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。
gemini-1.0-pro-002
32k
8k
不支援
對話
Google_gemini
這是 Gemini 1.0 Pro 的穩定版本。作為一個 NLP 模型,它專門處理多輪文本和程式碼聊天以及程式碼生成等任務。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。
gemini-1.0-pro-latest
33k
對話,已廢棄或即將廢棄
Google_gemini
這是 Gemini 1.0 Pro 的最新版本。作為一個 NLP 模型,它專門處理多輪文本和程式碼聊天以及程式碼生成等任務。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。
gemini-1.0-pro-vision-001
16k
2k
不支援
對話
Google_gemini
這是 Gemini 1.0 Pro 的視覺版本。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。
gemini-1.0-pro-vision-latest
16k ```html
識圖
Google_gemini
這是 Gemini 1.0 Pro 的視覺最新版本。該模型將於 2025 年 2 月 15 日停用,建議遷移到 1.5 系列模型。
gemini-1.5-flash
1m
8k
不支援
對話,識圖
Google_gemini
這是 Gemini 1.5 Flash 的最新穩定版本。作為一個平衡的多模態模型,它可以處理音頻、圖片、影片和文本輸入。
glm-4v-flash
2k
1k
不支援
對話,識圖
智譜_glm
免費模型:具備強大的圖片理解能力
```
此文件由 AI 從中文翻譯而來,尚未經過審閱。
助手
是對所選模型做一些個性化的設置來使用模型,如提示詞預設和參數預設等,通過這些設置讓所選模型能更加符合你預期的工作。
系統預設助手
預設了一個比較通用的參數(無提示詞),您可以直接使用或者到 尋找你需要的預設來使用。
助手
是 話題
的父集,單個助手下方可以建立多個話題(即對話),所有 話題
共用 助手
的參數設置和預設詞(prompt)等模型設置。
新話題
在當前助手內建立一個新話題。
上傳圖片或文件
上傳圖片需要模型支援,上傳文件會自動解析為文字作為上下文提供給模型。
網絡搜索
須在設置中配置網絡搜索相關信息,搜尋結果作為上下文返回給大模型,詳見 。
知識庫
開啟知識庫,詳見 。
MCP 服務器
開啟 MCP 服務器功能,詳見 。
生成圖片
預設不顯示,對於支援生成圖片的模型(如 Gemini),需手動點亮後才能生成圖片。
選擇模型
對於接下來的對話,切換成指定的模型,保留上下文。
快捷短語
需要先在設置中預設常用短語,在此處調用,直接輸入,支援變量。
清空消息
刪除該話題下所有內容。
展開
讓對話框變更大,以便輸入長文。
清除上下文
在不刪除內容的情況下,截斷模型能獲得的上下文,也就是說模型將「忘記」之前的對話內容。
預估 Token 數
展示預估 Token 數,四個數據分別為 當前上下文數
、 最大上下文數
( ∞ 表示無限上下文)、 當前輸入框內訊息字數
、 預估 Token 數
。
翻譯
將當前輸入框內內容翻譯成英文。
模型設置與助手設置當中的 模型設置
參數同步,詳見 。
訊息分隔線
:
使用分隔線將訊息正文與操作欄分隔開。
使用襯線字體
:
字體樣式切換,現在你也可以通過 來更換字體。
程式碼顯示行號
:
模型輸出程式碼片段時顯示代碼塊行號。
代碼塊可折疊
:
打開後,當程式碼片段中程式碼較長時,將自動折疊代碼塊。
代碼塊可換行
:
打開後,當程式碼片段中單行程式碼較長時(超出窗口),將自動換行。
思考內容自動折疊
:
打開後,支援思考的模型在思考完成後會自動折疊思考過程。
訊息樣式
:
可切換對話界面為氣泡樣式或清單樣式。
程式碼風格
:
可切換程式碼片段的顯示風格。
數學公式引擎
:
KaTeX 渲染速度更快,因為它是專門為效能優化設計的;
MathJax 渲染較慢,但功能更全面,支援更多的數學符號和命令。
訊息字體大小
:
調整對話界面字體的大小。
顯示預估 Token 數
:
在輸入框顯示輸入文本預估消耗的Token數(非實際上下文消耗的Token,僅供參考)。
長文本貼上為文件
:
當從其他地方複製長段文本貼上到輸入框時,會自動顯示為文件的樣式,減少後續輸入內容時的干擾。
Markdown 渲染輸入消息
:
關閉時只渲染模型回覆的訊息,不渲染發送的訊息。
快速敲擊3次空格翻譯
:
在對話界面輸入框輸入訊息後,連敲三次空格可翻譯輸入的內容為英文。
注意:該操作會覆蓋原文。
目標語言
:
設置輸入框翻譯按鈕以及快速敲擊3次空格翻譯的目標語言。
在助手界面選擇需要設定的助手名稱→在右鍵選單中選對應設置
提示詞設置
名稱
:
可自訂方便辨識的助手名稱。
提示詞
:
即 prompt ,可以參照智能體頁面的提示詞寫法來編輯內容。
模型設置
預設模型
:
可以為該助手固定一個預設模型,從智能體頁面新增時或複製助手時,初始模型為該模型。不設置該項初始模型則為全局初始模型(即 )。
自動重置模型
:
打開時 - 當在該話題下使用過程中切換其他模型使用時,再次新建話題會將新話題重置為助手的預設模型。當該項關閉時新建話題的模型會跟隨上一話題所使用的模型。
如助手的預設模型為gpt-3.5-turbo,我在該助手下方建立話題1,在話題1的對話過程中切換了gpt-4o使用,此時:
如果開啟了自動重置:新建話題2時,話題2預設選擇的模型為gpt-3.5-turbo;
如果未開啟自動重置:新建話題2時,話題2預設選擇的模型為gpt-4o。
溫度 (Temperature)
:
溫度參數控制模型生成文本的隨機性和創造性程度(預設值為0.7)。具體表現為:
低溫度值(0-0.3):
輸出更確定、更專注
適合程式碼生成、資料分析等需要準確性的場景
傾向於選擇最可能的詞彙輸出
中等溫度值(0.4-0.7):
平衡了創造性和連貫性
適合日常對話、一般性寫作
推薦用於聊天機器人對話(0.5左右)
高溫度值(0.8-1.0):
產生更具創造性和多樣性的輸出
適合創意寫作、腦力激盪等場景
但可能降低文本的連貫性
Top P (核取樣)
:
預設值為 1,值越小,AI 生成的內容越單調,也越容易理解;值越大,AI 回覆的詞彙範圍越大,越多樣化。
核取樣通過控制詞彙選擇的概率閾值來影響輸出:
較小值(0.1-0.3):
僅考慮最高概率的詞彙
輸出更保守、更可控
適合程式碼註解、技術文件等場景
中等值(0.4-0.6):
平衡詞彙多樣性和準確性
適合一般對話和寫作任務
較大值(0.7-1.0):
考慮更廣泛的詞彙選擇
產生更豐富多樣的內容
適合創意寫作等需要多樣化表達的場景
上下文數量 (Context Window)
要保留在上下文中的訊息數量,數值越大,上下文越長,消耗的 token 越多:
5-10:適合普通對話
>10:需要更長記憶的複雜任務(例如:按照寫作提綱分步生成長文的任務,需要確保生成的上下文邏輯連貫)
注意:訊息數越多,token 消耗越大
開啟訊息長度限制 (MaxToken)
單次回答最大 數,在大語言模型中,max token(最大令牌數)是一個關鍵參數,它直接影響模型生成回答的質量和長度。
如:在CherryStudio當中填寫好key後測試模型是否連通時,只需要知道模型是否有正確返回訊息而不需特定內容,這種情況下設置MaxToken為1即可。
多數模型的MaxToken上限為32k Tokens,當然也有64k,甚至更多的,具體需要到對應介紹頁面查看。
具體設置多少取決於自己的需要,當然也可以參考以下建議。
建議:
普通聊天:500-800
短文生成:800-2000
程式碼生成:2000-3600
長文生成:4000及以上 (需要模型本身支援)
一般情況下模型生成的回答將被限制在 MaxToken 的範圍內,當然也有可能出現被截斷(如寫長程式碼時)或表達不完整等情況出現,特殊情況下也需要根據實際情況來靈活調整。
串流輸出(Stream)
串流輸出是一種數據處理方式,它允許數據以連續的串流形式進行傳輸和處理,而不是一次性發送所有數據。這種方式使得數據可以在生成後立即被處理和輸出,極大地提高了即時性和效率。
在 CherryStudio 客戶端等類似環境下簡單來說就是打字機效果。
關閉後(非串流):模型生成完信息後整段一次性輸出(想像一下微信收到訊息的感覺);
打開時:逐字輸出,可以理解為大模型每生成一個字就立馬發送給你,直到全部發送完。
自定義參數
在請求體(body)中加入額外請求參數,如 presence_penalty
等字段,一般人一般情況下用不到。
上述top-p、maxtokens、stream等參數就是這些參數之一。
填法:參數名稱—參數類型(文本、數字等)—值,參考文件:
此文件由 AI 從中文翻譯而來,尚未經過審閱。
這是一個基於 Chatbot Arena (lmarena.ai) 資料的排行榜,透過自動化流程生成。
資料更新時間: 2025-07-07 11:42:50 UTC / 2025-07-07 19:42:50 CST (北京時間)
1
1
1477
+5/-5
15,769
Proprietary
暫無資料
2
2
1446
+4/-5
13,997
Proprietary
暫無資料
3
3
1429
+4/-4
24,237
OpenAI
Proprietary
暫無資料
3
2
1427
+3/-4
21,965
OpenAI
Proprietary
暫無資料
3
6
1425
+4/-5
12,847
DeepSeek
MIT
暫無資料
3
7
1422
+3/-4
25,763
xAI
Proprietary
暫無資料
5
6
1418
+4/-4
21,209
Proprietary
暫無資料
6
4
1414
+5/-4
15,271
OpenAI
Proprietary
暫無資料
9
7
1398
+5/-5
17,002
Proprietary
暫無資料
9
11
1392
+5/-4
15,758
Alibaba
Apache 2.0
暫無資料
11
6
1384
+3/-4
18,275
OpenAI
Proprietary
暫無資料
11
12
1382
+3/-3
21,008
DeepSeek
MIT
暫無資料
11
17
1380
+6/-5
8,247
Tencent
Proprietary
暫無資料
11
11
1376
+6/-6
8,058
MiniMax
Apache 2.0
暫無資料
13
12
1374
+3/-5
19,430
DeepSeek
MIT
暫無資料
14
19
1370
+4/-4
19,980
Mistral
Proprietary
暫無資料
14
6
1370
+4/-4
20,056
Anthropic
Proprietary
暫無資料
15
23
1367
+4/-4
14,597
Alibaba
Apache 2.0
暫無資料
16
11
1366
+2/-3
29,038
OpenAI
Proprietary
暫無資料
16
11
1363
+4/-4
17,974
OpenAI
Proprietary
暫無資料
17
23
1363
+3/-3
32,074
Alibaba
Proprietary
暫無資料
18
25
1363
+3/-3
36,915
Proprietary
暫無資料
18
31
1359
+6/-5
10,561
xAI
Proprietary
暫無資料
19
25
1360
+3/-3
26,443
Gemma
暫無資料
24
31
1344
+12/-7
4,074
Alibaba
Apache 2.0
暫無資料
25
19
1351
+3/-4
33,177
OpenAI
Proprietary
2023/10
25
12
1343
+4/-5
16,050
Anthropic
Proprietary
暫無資料
26
25
1340
+4/-4
19,404
OpenAI
Proprietary
暫無資料
26
32
1337
+7/-8
3,976
Gemma
暫無資料
26
23
1337
+5/-4
17,292
OpenAI
Proprietary
暫無資料
26
31
1334
+4/-4
22,841
DeepSeek
DeepSeek
暫無資料
26
31
1332
+13/-13
2,061
Mistral
Apache 2.0
暫無資料
28
38
1333
+4/-5
18,386
Alibaba
Apache 2.0
暫無資料
29
36
1327
+8/-6
6,028
Zhipu
Proprietary
暫無資料
30
31
1329
+4/-4
26,104
Proprietary
暫無資料
30
56
1327
+5/-7
7,517
Amazon
Proprietary
暫無資料
30
32
1326
+7/-6
6,055
Alibaba
Proprietary
暫無資料
30
31
1321
+10/-11
2,656
Nvidia
Nvidia Open Model
暫無資料
32
32
1326
+3/-3
24,524
Cohere
CC-BY-NC-4.0
暫無資料
33
42
1323
+4/-4
14,229
Alibaba
Apache 2.0
暫無資料
33
38
1321
+7/-8
5,126
StepFun
Proprietary
暫無資料
33
31
1318
+8/-10
2,452
Tencent
Proprietary
暫無資料
34
39
1312
+11/-12
2,371
Nvidia
Nvidia
暫無資料
35
39
1320
+2/-2
54,951
OpenAI
Proprietary
2023/10
35
32
1319
+3/-3
36,971
OpenAI
Proprietary
暫無資料
38
32
1318
+2/-2
58,645
Proprietary
暫無資料
38
33
1312
+8/-10
2,510
Tencent
Proprietary
暫無資料
41
18
1313
+4/-4
25,955
Anthropic
Proprietary
暫無資料
43
58
1307
+7/-8
7,379
Gemma
暫無資料
44
21
1306
+4/-3
30,677
Anthropic
Proprietary
暫無資料
47
48
1304
+2/-2
67,084
xAI
Proprietary
2024/3
47
50
1303
+4/-3
28,968
01 AI
Proprietary
暫無資料
48
35
1301
+2/-2
117,747
OpenAI
Proprietary
2023/10
48
63
1298
+4/-6
10,715
Alibaba
Proprietary
暫無資料
50
25
1299
+2/-2
77,905
Anthropic
Proprietary
2024/4
50
55
1295
+6/-6
7,243
DeepSeek
DeepSeek
暫無資料
52
74
1292
+8/-9
4,321
Gemma
暫無資料
55
43
1292
+4/-4
18,010
Meta
Llama 4
暫無資料
55
64
1291
+3/-3
26,074
NexusFlow
NexusFlow
暫無資料
55
60
1290
+3/-3
27,788
Zhipu AI
Proprietary
暫無資料
55
49
1288
+8/-7
3,856
Tencent
Proprietary
暫無資料
55
56
1287
+6/-8
6,302
OpenAI
Proprietary
暫無資料
56
70
1287
+3/-3
37,021
Proprietary
暫無資料
56
79
1284
+5/-7
7,577
Nvidia
Llama 3.1
2023/12
57
61
1288
+2/-2
72,473
OpenAI
Proprietary
2023/10
59
41
1285
+2/-3
43,788
Meta
Llama 3.1 Community
2023/12
60
36
1284
+2/-2
86,159
Anthropic
Proprietary
2024/4
60
42
1283
+2/-2
63,038
Meta
Llama 3.1 Community
2023/12
61
41
1282
+3/-2
52,144
Proprietary
Online
61
60
1277
+8/-10
4,014
Tencent
Proprietary
暫無資料
62
79
1282
+2/-3
55,442
xAI
Proprietary
2024/3
62
43
1281
+2/-2
47,973
OpenAI
Proprietary
2023/10
63
63
1279
+3/-4
17,432
Alibaba
Qwen
暫無資料
63
56
1277
+6/-6
7,451
Meta
Llama
暫無資料
71
79
1271
+7/-6
7,367
Mistral
Apache 2.0
暫無資料
72
57
1276
+2/-2
82,435
Proprietary
2023/11
72
74
1274
+3/-3
26,344
DeepSeek
DeepSeek
暫無資料
72
61
1273
+3/-3
47,631
Meta
Llama-3.3
暫無資料
72
79
1273
+3/-3
41,519
Alibaba
Qwen
2024/9
73
56
1272
+2/-2
102,133
OpenAI
Proprietary
2023/12
78
86
1260
+10/-10
3,010
Ai2
Llama 3.1
暫無資料
79
64
1267
+2/-2
48,217
Mistral
Mistral Research
2024/7
79
79
1266
+4/-3
20,580
NexusFlow
CC-BY-NC-4.0
2024/7
79
61
1266
+2/-2
103,748
OpenAI
Proprietary
2023/4
79
79
1265
+3/-3
29,633
Mistral
MRL
暫無資料
79
62
1258
+9/-8
4,287
Mistral
Proprietary
暫無資料
80
86
1264
+2/-2
58,637
Meta
Llama 3.1 Community
2023/12
81
58
1263
+2/-1
202,641
Anthropic
Proprietary
2023/8
83
87
1261
+3/-3
26,371
Amazon
Proprietary
暫無資料
83
65
1261
+2/-2
97,079
OpenAI
Proprietary
2023/12
89
60
1254
+2/-2
49,399
Anthropic
Propretary
暫無資料
89
86
1251
+6/-7
7,948
Reka AI
Proprietary
暫無資料
89
88
1246
+7/-10
4,210
Tencent
Proprietary
暫無資料
92
90
1243
+2/-2
65,661
Proprietary
2023/11
93
88
1237
+4/-6
9,125
AI21 Labs
Jamba Open
2024/3
93
96
1233
+8/-6
5,730
Alibaba
Apache 2.0
暫無資料
94
89
1236
+2/-2
79,538
Gemma license
2024/6
94
98
1233
+4/-4
15,321
Mistral
Apache 2.0
暫無資料
94
106
1233
+3/-4
20,646
Amazon
Proprietary
暫無資料
94
90
1232
+5/-5
10,548
Princeton
MIT
2024/7
94
86
1228
+9/-10
3,889
Nvidia
Llama 3.1
2023/12
95
94
1231
+4/-6
10,535
Cohere
CC-BY-NC-4.0
2024/8
96
110
1228
+3/-3
37,697
Proprietary
暫無資料
97
106
1222
+9/-11
3,460
Allen AI
Apache-2.0
暫無資料
99
105
1225
+3/-3
28,768
Cohere
CC-BY-NC-4.0
暫無資料
99
96
1225
+3/-4
20,608
Nvidia
NVIDIA Open Model
2023/6
99
99
1222
+5/-5
10,221
Zhipu AI
Proprietary
暫無資料
101
96
1221
+5/-5
8,132
Reka AI
Proprietary
暫無資料
102
110
1221
+4/-4
25,213
Microsoft
MIT
暫無資料
103
97
1222
+2/-1
163,629
Meta
Llama 3 Community
2023/12
106
96
1217
+2/-2
113,067
Anthropic
Proprietary
2023/8
109
119
1214
+3/-3
20,654
Amazon
Proprietary
暫無資料
111
120
1205
+10/-10
2,901
Tencent
Proprietary
暫無資料
112
121
1201
+10/-9
3,074
Ai2
Llama 3.1
暫無資料
113
109
1208
+2/-2
57,197
Gemma license
2024/6
113
106
1206
+2/-2
80,846
Cohere
CC-BY-NC-4.0
2024/3
114
109
1203
+3/-2
38,872
Alibaba
Qianwen LICENSE
2024/6
114
92
1202
+2/-3
55,962
OpenAI
Proprietary
2021/9
114
119
1198
+7/-6
5,111
Mistral
MRL
暫無資料
115
121
1196
+7/-4
10,391
Cohere
CC-BY-NC-4.0
暫無資料
116
110
1196
+4/-5
10,851
Cohere
CC-BY-NC-4.0
2024/8
117
111
1195
+2/-2
122,309
Anthropic
Proprietary
2023/8
117
105
1194
+4/-4
15,753
DeepSeek AI
DeepSeek License
2024/6
117
120
1192
+5/-5
9,274
AI21 Labs
Jamba Open
2024/3
118
136
1192
+2/-2
52,578
Meta
Llama 3.1 Community
2023/12
126
105
1179
+2/-2
91,614
OpenAI
Proprietary
2021/9
126
121
1177
+3/-3
27,430
Alibaba
Qianwen LICENSE
2024/4
126
153
1169
+11/-10
3,410
Alibaba
Apache 2.0
暫無資料
127
136
1173
+4/-3
25,135
01 AI
Apache-2.0
2024/5
127
120
1173
+2/-2
64,926
Mistral
Proprietary
暫無資料
127
121
1172
+4/-5
16,027
Reka AI
Proprietary
Online
130
131
1168
+2/-2
109,056
Meta
Llama 3 Community
2023/3
130
143
1165
+4/-5
10,599
InternLM
Other
2024/8
131
125
1164
+2/-3
56,398
Cohere
CC-BY-NC-4.0
2024/3
131
131
1164
+3/-3
35,556
Mistral
Proprietary
暫無資料
131
124
1163
+3/-2
53,751
Mistral
Apache 2.0
2024/4
131
127
1163
+4/-4
25,803
Reka AI
Proprietary
2023/11
131
125
1163
+3/-2
40,658
Alibaba
Qianwen LICENSE
2024/2
131
128
1159
+8/-11
3,289
IBM
Apache 2.0
暫無資料
133
143
1160
+2/-3
48,892
Gemma license
2024/7
140
124
1147
+4/-4
18,800
Proprietary
2023/4
140
134
1143
+8/-7
4,854
HuggingFace
Apache 2.0
2024/4
141
137
1141
+3/-4
22,765
Alibaba
Qianwen LICENSE
2024/2
141
145
1135
+8/-10
3,380
IBM
Apache 2.0
暫無資料
142
143
1139
+4/-3
26,105
Microsoft
MIT
2023/10
142
154
1135
+3/-5
16,676
Nexusflow
Apache-2.0
2024/3
145
143
1130
+2/-2
76,126
Mistral
Apache 2.0
2023/12
145
149
1127
+4/-6
15,917
01 AI
Yi License
2023/6
145
133
1126
+6/-7
6,557
Proprietary
2023/4
146
147
1125
+4/-4
18,687
Alibaba
Qianwen LICENSE
2024/2
147
147
1122
+6/-7
8,383
Microsoft
Llama 2 Community
2023/8
148
133
1122
+2/-2
68,867
OpenAI
Proprietary
2021/9
148
143
1119
+3/-3
33,743
Databricks
DBRX LICENSE
2023/12
148
151
1119
+7/-6
8,390
Meta
Llama 3.2
2023/12
148
151
1118
+4/-4
18,476
Microsoft
MIT
2023/10
149
152
1115
+6/-6
6,658
AllenAI/UW
AI2 ImpACT Low-risk
2023/11
152
143
1109
+8/-6
7,002
IBM
Apache 2.0
暫無資料
156
162
1109
+3/-3
39,595
Meta
Llama 2 Community
2023/7
156
149
1107
+4/-5
12,990
OpenChat
Apache-2.0
2024/1
156
156
1107
+4/-4
22,936
LMSYS
Non-commercial
2023/8
157
149
1106
+3/-3
34,173
Snowflake
Apache 2.0
2024/4
157
160
1104
+4/-5
10,415
UC Berkeley
CC-BY-NC-4.0
2023/11
157
166
1100
+7/-9
3,836
NousResearch
Apache-2.0
2024/1
158
151
1100
+4/-4
25,070
Gemma license
2024/2
158
165
1097
+9/-9
3,636
Nvidia
Llama 2 Community
2023/11
162
151
1093
+9/-8
4,988
DeepSeek AI
DeepSeek License
2023/11
162
151
1092
+7/-6
8,106
OpenChat
Apache-2.0
2023/11
163
153
1090
+7/-8
5,088
NousResearch
Apache-2.0
2023/11
163
158
1090
+8/-7
7,191
IBM
Apache 2.0
暫無資料
164
169
1088
+4/-3
20,067
Mistral
Apache-2.0
2023/12
164
168
1087
+4/-5
12,808
Microsoft
MIT
2023/10
164
169
1086
+9/-7
4,872
Alibaba
Qianwen LICENSE
2024/2
164
165
1078
+14/-14
1,714
Cognitive Computations
Apache-2.0
2023/10
165
145
1083
+4/-4
17,036
OpenAI
Proprietary
2021/9
166
168
1078
+9/-9
4,286
Upstage AI
CC-BY-NC-4.0
2023/11
167
173
1082
+3/-4
21,097
Microsoft
MIT
2023/10
169
174
1079
+4/-4
19,722
Meta
Llama 2 Community
2023/7
172
169
1075
+7/-7
7,176
Microsoft
Llama 2 Community
2023/7
175
179
1070
+7/-6
8,523
Meta
Llama 3.2
2023/12
176
178
1069
+6/-4
11,321
HuggingFace
MIT
2023/10
176
172
1062
+11/-11
2,375
HuggingFace
Apache 2.0
暫無資料
176
169
1061
+11/-12
2,644
MosaicML
CC-BY-NC-SA-4.0
2023/6
176
177
1057
+15/-15
1,192
Meta
Llama 2 Community
2024/1
177
173
1056
+12/-13
1,811
HuggingFace
MIT
2023/10
180
178
1059
+6/-7
7,509
Meta
Llama 2 Community
2023/7
180
168
1050
+15/-15
1,327
TII
Falcon-180B TII License
2023/9
181
172
1058
+4/-4
19,775
LMSYS
Llama 2 Community
2023/7
181
178
1053
+4/-6
9,176
Gemma license
2024/2
181
178
1053
+5/-5
21,622
Microsoft
MIT
2023/10
181
193
1053
+5/-5
14,532
Meta
Llama 2 Community
2023/7
181
171
1051
+8/-8
5,065
Alibaba
Qianwen LICENSE
2023/8
181
181
1049
+11/-11
2,996
UW
Non-commercial
2023/5
190
182
1037
+6/-5
11,351
Gemma license
2024/2
191
185
1033
+7/-10
5,276
Together AI
Apache 2.0
2023/12
191
199
1031
+8/-7
6,503
Allen AI
Apache-2.0
2024/2
194
192
1023
+5/-5
9,142
Mistral
Apache 2.0
2023/9
194
193
1021
+6/-8
7,017
LMSYS
Llama 2 Community
2023/7
194
182
1019
+7/-5
8,713
Proprietary
2021/6
199
197
1005
+8/-9
4,918
Gemma license
2024/2
199
194
1004
+5/-7
7,816
Alibaba
Qianwen LICENSE
2024/2
201
200
980
+8/-6
7,020
UC Berkeley
Non-commercial
2023/4
201
201
971
+7/-9
4,763
Tsinghua
Apache-2.0
2023/10
202
201
948
+16/-16
1,788
Nomic AI
Non-commercial
2023/3
203
201
944
+9/-9
3,997
MosaicML
CC-BY-NC-SA-4.0
2023/5
203
206
940
+10/-10
2,713
Tsinghua
Apache-2.0
2023/6
203
206
937
+9/-8
4,920
RWKV
Apache 2.0
2023/4
207
201
917
+9/-7
5,864
Stanford
Non-commercial
2023/3
207
207
909
+9/-7
6,368
OpenAssistant
Apache 2.0
2023/4
208
209
895
+8/-10
4,983
Tsinghua
Non-commercial
2023/3
209
209
884
+9/-9
4,288
LMSYS
Apache 2.0
2023/4
211
212
856
+11/-11
3,336
Stability AI
CC-BY-NC-SA-4.0
2023/4
211
209
838
+10/-10
3,480
Databricks
MIT
2023/4
212
210
815
+14/-9
2,446
Meta
Non-commercial
2023/2
排名(UB):基於 Bradley-Terry 模型計算的排名。此排名反映了模型在競技場中的綜合表現,並提供了其 Elo 分數的 上界 估計,幫助理解模型的潛在競爭力。
排名(StyleCtrl):經過對話風格控制後的排名。此排名旨在減少因模型回覆風格(例如冗長、簡潔)帶來的偏好偏差,更純粹地評估模型的核心能力。
模型名:大型語言模型 (LLM) 的名稱。此列已嵌入模型相關連結,點擊可跳轉。
分數:模型在競技場中透過使用者投票獲得的 Elo 評分。Elo 評分是一種相對排名系統,分數越高表示模型表現越好。該分數是動態變化的,反映了模型在當前競爭環境中的相對實力。
置信區間:模型 Elo 評分的95%置信區間(例如:+6/-6
)。這個區間越小,表示模型的評分越穩定和可靠;反之,區間越大可能意味著資料量不足或模型表現波動較大。它提供了對評分準確性的量化評估。
票數:該模型在競技場中收到的總投票數量。投票數越多,通常意味著其評分的統計可靠性越高。
服務商:提供該模型的組織或公司。
許可協議:模型的許可協議類型,例如專有 (Proprietary)、Apache 2.0、MIT 等。
知識截止日期:模型訓練資料的知識截止日期。暫無資料 表示相關資訊未提供或未知。
本排行榜資料由 fboulnois/llm-leaderboard-csv 專案自動生成並提供,該專案從 lmarena.ai 獲取並處理資料。此排行榜由 GitHub Actions 每天自動更新。
本報告僅供參考。排行榜資料是動態變化的,並基於特定時間段內使用者在 Chatbot Arena 上的偏好投票。資料的完整性和準確性取決於上游資料源及 fboulnois/llm-leaderboard-csv
專案的更新和處理。不同模型可能採用不同的許可協議,使用時請務必參考模型提供商的官方說明。