对话界面

助手和话题

助手

助手 是对所选模型做一些个性化的设置来使用模型,如提示词预设和参数预设等,通过这些设置让所选模型能更加符合你预期的工作。

系统默认助手 预设了一个比较通用的参数(无提示词),您可以直接使用或者到 智能体页面 寻找你需要的预设来使用。

话题

助手话题 的父集,单个助手下可以创建多个话题(即对话),所有 话题 共用 助手 的参数设置和预设词(prompt)等模型设置。

对话框内按钮

新话题 在当前助手内创建一个新话题。

上传图片或文档 上传图片需要模型支持,上传文档会自动解析为文字作为上下文提供给模型。

开启网络搜索 须在设置中配置网络搜索相关信息,搜索结果作为上下文返回给大模型,详见 联网模式

知识库 开启知识库,详见 知识库教程

MCP 服务器 开启 MCP 服务器功能,详见 MCP 使用教程

生成图片 默认不显示,对于支持生成图片的模型(如 Gemini),需手动点亮后才能生成图片。

由于技术原因,您必须手动点亮按钮才能生成图片,该按钮在此功能优化后会移除。

选择模型 对于接下来的对话,切换成指定的模型,保留上下文。

清空消息 删除该话题下所有内容。

展开 让对话框变得更大,以便输入长文。

清除上下文 在不删除内容的情况下,截断模型能获得的上下文,也就是说模型将“忘记”之前的对话内容。

预估 Token 数 展示预估 Token 数,四个数据分别为 当前上下文数最大上下文数 ( ∞ 表示无限上下文)、 当前输入框内消息字数预估 Token 数

此功能仅用于预估 Token 数,实际 Token 数每个模型都是不一样的,请以模型提供商的数据为准。

对话设置

模型设置

模型设置与助手设置当中的 模型设置 参数同步,详见 助手设置

在对话设置当中,仅该模型设置作用于当前助手,其余设置作用于全局。如:设置消息样式为气泡后在任何助手的任何话题下都是气泡样式。

消息设置

消息分割线:

使用分割线将消息正文与操作栏隔开。

使用衬线字体

字体样式切换,现在你也可以通过 自定义css 来更换字体。

代码显示行号

模型输出代码片段时显示代码块行号。

代码块可折叠

打开后,当代码片段中代码较长时,将自动折叠代码块。、

代码块可换行

打开后,当代码片段中但行代码较长时(超出窗口),将自动换行。

思考内容自动折叠

打开后,支持思考的模型在思考完成后会自动折叠思考过程。

消息样式

可切对话界面换为气泡样式或列表样式。

代码风格

可切换代码片段的显示风格。

数学公式引擎

  • KaTeX 渲染速度更快,因为它是专门为性能优化设计的;

  • MathJax 渲染较慢,但功能更全面,支持更多的数学符号和命令。

消息字体大小

调整对话界面字体的大小。

输入设置

显示预估 Token 数

在输入框显示输入文本预估消耗的Token数(非实际上下文消耗的Token,仅供参考)。

长文本粘贴为文件

当从其他地方复制长段文本粘贴到输入框时会自动显示为文件的样式,减少后续输入内容时的干扰。

Markdown 渲染输入消息

关闭时只渲染模型回复的消息,不渲染发送的消息。

快速敲击3次空格翻译

在对话界面输入框输入消息后,连敲三次空格可翻译输入的内容为英文。

目标语言

设置输入框翻译按钮以及快速敲击3次空格翻译的目标语言。

助手设置

在助手界面选择需要设置的助手名称→在右键菜单中选对应设置

编辑助手

助手设置作用于该助手下的所有话题。

提示词设置

名称

可自定义方便辨识的助手名称。

提示词

即 prompt ,可以参照智能体页面的提示词写法来编辑内容。

模型设置

默认模型

可以为该助手固定一个默认模型,从智能体页面添加时或复制助手时初始模型为该模型。不设置该项初始模型则为全局初始模型(即 默认助手模型 )。

助手的默认模型有两种,一为 全局默认对话模型 ,另一为助手默认模型;助手的默认模型优先级高于全局默认对话模型。当不设置助手默认模型时,助手默认模型=全局默认对话模型。

自动重置模型

打开时 - 当在该话题下使用过程中切换其他模型使用时,再次新建话题会将新话题的重置为助手的默认模型。当该项关闭时新建话题的模型会跟随上一话题所使用的模型。

如助手的默认模型为gpt-3.5-turbo,我在该助手下创建话题1,在话题1的对话过程中切换了gpt-4o使用,此时:

如果开启了自动重置:新建话题2时,话题2默认选择的模型为gpt-3.5-turbo;

如果未开启自动重置:新建话题2时,话题2默认选择的模型为gpt-4o。

温度 (Temperature)

温度参数控制模型生成文本的随机性和创造性程度(默认值为0.7)。具体表现为:

  • 低温度值(0-0.3):

    • 输出更确定、更专注

    • 适合代码生成、数据分析等需要准确性的场景

    • 倾向于选择最可能的词汇输出

  • 中等温度值(0.4-0.7):

    • 平衡了创造性和连贯性

    • 适合日常对话、一般性写作

    • 推荐用于聊天机器人对话(0.5左右)

  • 高温度值(0.8-1.0):

    • 产生更具创造性和多样性的输出

    • 适合创意写作、头脑风暴等场景

    • 但可能降低文本的连贯性

Top P (核采样)

默认值为 1,值越小,AI 生成的内容越单调,也越容易理解;值越大,AI 回复的词汇范围越大,越多样化。

核采样通过控制词汇选择的概率阈值来影响输出:

  • 较小值(0.1-0.3):

    • 仅考虑最高概率的词汇

    • 输出更保守、更可控

    • 适合代码注释、技术文档等场景

  • 中等值(0.4-0.6):

    • 平衡词汇多样性和准确性

    • 适合一般对话和写作任务

  • 较大值(0.7-1.0):

    • 考虑更广泛的词汇选择

    • 产生更丰富多样的内容

    • 适合创意写作等需要多样化表达的场景

  • 这两个参数可以独立使用或组合使用

  • 根据具体任务类型选择合适的参数值

  • 建议通过实验找到最适合特定应用场景的参数组合

  • 以上内容仅供参考和了解概念,所给参数范围不一定适合所有模型,具体可参考模型相关文档给出的参数建议。

上下文数量 (Context Window)

要保留在上下文中的消息数量,数值越大,上下文越长,消耗的 token 越多:

  • 5-10:适合普通对话

  • >10:需要更长记忆的复杂任务(例如:按照写作提纲分步生成长文的任务,需要确保生成的上下文逻辑连贯)

  • 注意:消息数越多,token 消耗越大

开启消息长度限制 (MaxToken)

单次回答最大 Token 数,在大语言模型中,max token(最大令牌数)是一个关键参数,它直接影响模型生成回答的质量和长度。

如:在CherryStudio当中填写好key后测试模型是否连通时,只需要知道模型是否有正确返回消息而不需特定内容,这种情况下设置MaxToken为1即可。

多数模型的MaxToken上限为32k Tokens,当然也有64k,甚至更多的,具体需要到对应介绍页面查看。

具体设置多少取决于自己的需要,当然也可以参考以下建议。

流式输出(Stream)

流式输出是一种数据处理方式,它允许数据以连续的流形式进行传输和处理,而不是一次性发送所有数据。这种方式使得数据可以在生成后立即被处理和输出,极大地提高了实时性和效率。

在 CherryStudio 客户端等类似环境下简单来说就是打字机效果。

关闭后(非流):模型生成完信息后整段一次性输出(想象一下微信收到消息的感觉);

打开时:逐字输出,可以理解为大模型每生成一个字就立马发送给你,直到全部发送完。

如果某些特殊模型不支持流式输出需要将该开关关闭,比如刚开始只支持非流的o1-mini等。

自定义参数

在请求体(body)中加入额外请求参数,如 presence_penalty 等字段,一般人一般情况下用不到。

上述top-p、maxtokens、stream等参数就是这些参数之一。

填法:参数名称—参数类型(文本、数字等)—值,参考文档:点击前往

各个模型提供商都或多或少有自己独有的参数,需要到提供商的文档中寻找使用方法

  • 自定义参数优先级高于内置参数。即自定义参数如果与内置参数重复,则自定义参数会覆盖内置参数。

如:自定义参数中设置 modelgpt-4o 后,在对话中无论选择哪个模型都使用的是 gpt-4o 模型。

  • 使用 参数名称:undefined 的设置可排除参数。

最后更新于

这有帮助吗?