對話介面
此文件由 AI 從中文翻譯而來,尚未經過審閱。
對話界面
助手和話題
助手
助手
是對所選模型做一些個性化的設置來使用模型,如提示詞預設和參數預設等,通過這些設置讓所選模型能更加符合你預期的工作。
系統預設助手
預設了一個比較通用的參數(無提示詞),您可以直接使用或者到 智能體頁面 尋找你需要的預設來使用。
話題
助手
是 話題
的父集,單個助手下方可以建立多個話題(即對話),所有 話題
共用 助手
的參數設置和預設詞(prompt)等模型設置。


對話框內按鈕

新話題
在當前助手內建立一個新話題。
上傳圖片或文件
上傳圖片需要模型支援,上傳文件會自動解析為文字作為上下文提供給模型。
網絡搜索
須在設置中配置網絡搜索相關信息,搜尋結果作為上下文返回給大模型,詳見 連網模式。
知識庫
開啟知識庫,詳見 知識庫教程。
MCP 服務器
開啟 MCP 服務器功能,詳見 MCP 使用教程。
生成圖片
預設不顯示,對於支援生成圖片的模型(如 Gemini),需手動點亮後才能生成圖片。
選擇模型
對於接下來的對話,切換成指定的模型,保留上下文。
快捷短語
需要先在設置中預設常用短語,在此處調用,直接輸入,支援變量。
清空消息
刪除該話題下所有內容。
展開
讓對話框變更大,以便輸入長文。
清除上下文
在不刪除內容的情況下,截斷模型能獲得的上下文,也就是說模型將「忘記」之前的對話內容。
預估 Token 數
展示預估 Token 數,四個數據分別為 當前上下文數
、 最大上下文數
( ∞ 表示無限上下文)、 當前輸入框內訊息字數
、 預估 Token 數
。
翻譯
將當前輸入框內內容翻譯成英文。
對話設置

模型設置
模型設置與助手設置當中的 模型設置
參數同步,詳見 助手設置。
訊息設置
訊息分隔線
:
使用分隔線將訊息正文與操作欄分隔開。

使用襯線字體
:
字體樣式切換,現在你也可以通過 自定義css 來更換字體。
程式碼顯示行號
:
模型輸出程式碼片段時顯示代碼塊行號。

代碼塊可折疊
:
打開後,當程式碼片段中程式碼較長時,將自動折疊代碼塊。
代碼塊可換行
:
打開後,當程式碼片段中單行程式碼較長時(超出窗口),將自動換行。
思考內容自動折疊
:
打開後,支援思考的模型在思考完成後會自動折疊思考過程。
訊息樣式
:
可切換對話界面為氣泡樣式或清單樣式。
程式碼風格
:
可切換程式碼片段的顯示風格。
數學公式引擎
:
KaTeX 渲染速度更快,因為它是專門為效能優化設計的;
MathJax 渲染較慢,但功能更全面,支援更多的數學符號和命令。
訊息字體大小
:
調整對話界面字體的大小。
輸入設置
顯示預估 Token 數
:
在輸入框顯示輸入文本預估消耗的Token數(非實際上下文消耗的Token,僅供參考)。
長文本貼上為文件
:
當從其他地方複製長段文本貼上到輸入框時,會自動顯示為文件的樣式,減少後續輸入內容時的干擾。
Markdown 渲染輸入消息
:
關閉時只渲染模型回覆的訊息,不渲染發送的訊息。

快速敲擊3次空格翻譯
:
在對話界面輸入框輸入訊息後,連敲三次空格可翻譯輸入的內容為英文。
注意:該操作會覆蓋原文。
目標語言
:
設置輸入框翻譯按鈕以及快速敲擊3次空格翻譯的目標語言。
助手設置
在助手界面選擇需要設定的助手名稱→在右鍵選單中選對應設置
編輯助手

提示詞設置
名稱
:
可自訂方便辨識的助手名稱。
提示詞
:
即 prompt ,可以參照智能體頁面的提示詞寫法來編輯內容。
模型設置
預設模型
:
可以為該助手固定一個預設模型,從智能體頁面新增時或複製助手時,初始模型為該模型。不設置該項初始模型則為全局初始模型(即 預設助手模型 )。
自動重置模型
:
打開時 - 當在該話題下使用過程中切換其他模型使用時,再次新建話題會將新話題重置為助手的預設模型。當該項關閉時新建話題的模型會跟隨上一話題所使用的模型。
如助手的預設模型為gpt-3.5-turbo,我在該助手下方建立話題1,在話題1的對話過程中切換了gpt-4o使用,此時:
如果開啟了自動重置:新建話題2時,話題2預設選擇的模型為gpt-3.5-turbo;
如果未開啟自動重置:新建話題2時,話題2預設選擇的模型為gpt-4o。
溫度 (Temperature)
:
溫度參數控制模型生成文本的隨機性和創造性程度(預設值為0.7)。具體表現為:
低溫度值(0-0.3):
輸出更確定、更專注
適合程式碼生成、資料分析等需要準確性的場景
傾向於選擇最可能的詞彙輸出
中等溫度值(0.4-0.7):
平衡了創造性和連貫性
適合日常對話、一般性寫作
推薦用於聊天機器人對話(0.5左右)
高溫度值(0.8-1.0):
產生更具創造性和多樣性的輸出
適合創意寫作、腦力激盪等場景
但可能降低文本的連貫性
Top P (核取樣)
:
預設值為 1,值越小,AI 生成的內容越單調,也越容易理解;值越大,AI 回覆的詞彙範圍越大,越多樣化。
核取樣通過控制詞彙選擇的概率閾值來影響輸出:
較小值(0.1-0.3):
僅考慮最高概率的詞彙
輸出更保守、更可控
適合程式碼註解、技術文件等場景
中等值(0.4-0.6):
平衡詞彙多樣性和準確性
適合一般對話和寫作任務
較大值(0.7-1.0):
考慮更廣泛的詞彙選擇
產生更豐富多樣的內容
適合創意寫作等需要多樣化表達的場景
上下文數量 (Context Window)
要保留在上下文中的訊息數量,數值越大,上下文越長,消耗的 token 越多:
5-10:適合普通對話
>10:需要更長記憶的複雜任務(例如:按照寫作提綱分步生成長文的任務,需要確保生成的上下文邏輯連貫)
注意:訊息數越多,token 消耗越大
開啟訊息長度限制 (MaxToken)
單次回答最大 Token 數,在大語言模型中,max token(最大令牌數)是一個關鍵參數,它直接影響模型生成回答的質量和長度。
如:在CherryStudio當中填寫好key後測試模型是否連通時,只需要知道模型是否有正確返回訊息而不需特定內容,這種情況下設置MaxToken為1即可。
多數模型的MaxToken上限為32k Tokens,當然也有64k,甚至更多的,具體需要到對應介紹頁面查看。
具體設置多少取決於自己的需要,當然也可以參考以下建議。
建議:
普通聊天:500-800
短文生成:800-2000
程式碼生成:2000-3600
長文生成:4000及以上 (需要模型本身支援)
一般情況下模型生成的回答將被限制在 MaxToken 的範圍內,當然也有可能出現被截斷(如寫長程式碼時)或表達不完整等情況出現,特殊情況下也需要根據實際情況來靈活調整。
串流輸出(Stream)
串流輸出是一種數據處理方式,它允許數據以連續的串流形式進行傳輸和處理,而不是一次性發送所有數據。這種方式使得數據可以在生成後立即被處理和輸出,極大地提高了即時性和效率。
在 CherryStudio 客戶端等類似環境下簡單來說就是打字機效果。
關閉後(非串流):模型生成完信息後整段一次性輸出(想像一下微信收到訊息的感覺);
打開時:逐字輸出,可以理解為大模型每生成一個字就立馬發送給你,直到全部發送完。
自定義參數
在請求體(body)中加入額外請求參數,如 presence_penalty
等字段,一般人一般情況下用不到。
上述top-p、maxtokens、stream等參數就是這些參數之一。
填法:參數名稱—參數類型(文本、數字等)—值,參考文件:點擊前往
最后更新于
这有帮助吗?