会話インターフェース
アシスタントとトピック
アシスタント
アシスタント 選択したモデルに対して、プロンプトのプリセットやパラメータのプリセットなどの個別設定を行い、モデルが期待する動作により適合するようにするものです。
システムデフォルトのアシスタント 比較的一般的なパラメータ(プロンプトなし)がプリセットされています。直接使用するか、 エージェントページ で必要なプリセットを探して使用してください。
トピック
アシスタント は トピック の上位集合で、単一のアシスタントの下に複数のトピック(すなわち会話)を作成できます。すべての トピック は共通の アシスタント パラメータ設定やプリセットプロンプトなどのモデル設定を共有します。


チャットウィンドウ内のボタン

新しいトピック 現在のアシスタント内に新しいトピックを作成します。
画像またはドキュメントをアップロード 画像のアップロードはモデルのサポートが必要で、ドキュメントをアップロードすると自動的にテキストに解析されモデルへのコンテキストとして提供されます。
ウェブ検索 設定でウェブ検索に関する情報を構成する必要があります。検索結果はコンテキストとして大規模モデルに返されます。詳細は ネット接続モード。
ナレッジベース ナレッジベースを有効にします。詳しくは ナレッジベースチュートリアル。
MCP サーバー MCP サーバー機能を有効にします。詳しくは MCP 使用ガイド。
画像生成 選択した 会話モデル が画像生成をサポートしている場合にのみ表示されます。(会話型でない画像生成モデルについては、 描画)へ移動してください。
モデルを選択 以降の会話で指定したモデルに切り替え、コンテキストを保持します。
ショートフレーズ まず設定でよく使うフレーズをプリセットし、ここで呼び出して直接入力できます。変数もサポートしています。
メッセージを空にする そのトピックのすべての内容を削除します。
展開 チャットウィンドウを大きくして、長文の入力をしやすくします。
コンテキストをクリア 内容を削除せずにモデルが取得できるコンテキストを切り詰めます。つまりモデルは以前の会話内容を「忘れる」ことになります。
推定トークン数 推定トークン数を表示します。4つのデータはそれぞれ 現在のコンテキスト数 、 最大コンテキスト数 ( ∞ は無限のコンテキストを示します)、 現在入力欄内のメッセージ文字数 、 推定トークン数 。
翻訳 現在の入力欄の内容を英語に翻訳します。
会話設定

モデル設定
モデル設定はアシスタント設定の モデル設定 パラメータと同期されます。詳しくは アシスタント設定。
メッセージ設定
メッセージ区切り線:
メッセージ区切り線:区切り線を使用してメッセージ本文と操作バーを分離します。


セリフ体フォントを使用:
セリフ体フォントを使用:フォントスタイルの切り替え。現在は カスタムCSS でフォントを変更することもできます。
コード表示に行番号:
コード表示に行番号:モデルがコード断片を出力する際にコードブロックの行番号を表示します。


コードブロックの折りたたみ可能:
コードブロックの折りたたみ可能:有効にすると、コード断片が長い場合に自動的にコードブロックを折りたたみます。
コードブロックの折返し可能:
コードブロックの折返し可能:有効にすると、コード断片の1行が長すぎてウィンドウを超える場合に自動で折り返します。
思考内容の自動折りたたみ:
思考内容の自動折りたたみ:有効にすると、思考をサポートするモデルは思考が完了した後に思考過程を自動的に折りたたみます。
メッセージスタイル:
メッセージスタイル:チャットインターフェースをバブルスタイルまたはリストスタイルに切り替えできます。
コードスタイル:
コードスタイル:コード断片の表示スタイルを切り替えられます。
数式レンダリングエンジン:
数式レンダリングエンジン:KaTeX はレンダリングが速く、パフォーマンス最適化のために設計されています;
MathJax はレンダリングが遅いですが、機能がより充実しており、より多くの数学記号やコマンドをサポートします。
メッセージのフォントサイズ:
メッセージのフォントサイズ:チャットインターフェースのフォントサイズを調整します。
入力設定
推定トークン数を表示:
推定トークン数を表示:入力欄に入力テキストの推定消費トークン数を表示します(実際のコンテキスト消費トークンではなく、参考用です)。
長文貼り付けをファイル化:
長文貼り付けをファイル化:他から長いテキストをコピーして入力欄に貼り付けると、自動的にファイル形式で表示され、後続の入力時の干渉を減らします。
Markdown を入力メッセージでレンダリング:
Markdown を入力メッセージでレンダリング:オフにすると送信メッセージはレンダリングされず、モデルの返信のみがレンダリングされます。


スペースを3回素早く押して翻訳:
スペースを3回素早く押して翻訳:チャットインターフェースの入力欄でメッセージを入力した後にスペースキーを連続で3回押すと、入力内容が英語に翻訳されます。
注意:この操作は原文を上書きします。
ターゲット言語:
ターゲット言語:入力欄の翻訳ボタンおよびスペースを3回素早く押して翻訳する際のターゲット言語を設定します。
アシスタント設定
アシスタント画面で設定したいアシスタント名→で右クリックメニューから対応する設定を選択してください
アシスタントを編集

プロンプト設定
名称:
名称:識別しやすいアシスタント名をカスタマイズできます。
プロンプト:
プロンプト:いわゆる prompt で、エージェントページのプロンプト書式を参考に編集できます。
モデル設定
デフォルトモデル:
デフォルトモデル:そのアシスタントに対してデフォルトモデルを固定できます。エージェントページから追加したりアシスタントをコピーした際の初期モデルはこのモデルになります。設定しない場合はグローバルの初期モデル(つまり デフォルトアシスタントモデル )が使用されます。
自動でモデルをリセット:
自動でモデルをリセット:オンにすると:そのトピックで他のモデルに切り替えて使用した後に新しいトピックを作成すると、新しいトピックはアシスタントのデフォルトモデルにリセットされます。オフの場合、新規トピックのモデルは前のトピックで使用していたモデルに従います。
例えばアシスタントのデフォルトモデルが gpt-3.5-turbo で、私はそのアシスタント下でトピック1を作成し、トピック1の会話中に gpt-4o に切り替えて使用した場合:
自動リセットが有効なら:新しくトピック2を作成したとき、トピック2のデフォルトモデルは gpt-3.5-turbo になります;
自動リセットが無効なら:新しくトピック2を作成したとき、トピック2のデフォルトモデルは gpt-4o になります。
温度 (Temperature) :
温度 (Temperature) :温度パラメータはモデルが生成するテキストのランダム性と創造性の度合いを制御します(デフォルトは 0.7)。具体的には:
低温度値(0-0.3):
より決定的で集中した出力
コード生成やデータ分析など正確性が求められる場面に適しています
最も可能性の高い語を選択する傾向があります
中程度の温度値(0.4-0.7):
創造性と一貫性のバランスが取れています
日常会話や一般的な執筆に適しています
チャットボットの会話には (約0.5) を推奨します
高温度値(0.8-1.0):
より創造的で多様な出力を生みます
創作やブレインストーミングなどに適しています
ただしテキストの一貫性が低下する可能性があります
Top P (核サンプリング):
Top P (核サンプリング):デフォルトは 1 です。値が小さいほど AI の生成内容は単調で理解しやすくなり、値が大きいほど AI の応答の語彙範囲が広く多様になります。
核サンプリングは語彙選択の確率閾値を制御して出力に影響を与えます:
小さい値(0.1-0.3):
最も確率の高い語だけを考慮します
出力はより保守的で制御しやすくなります
コード注釈や技術文書などに適しています
中程度の値(0.4-0.6):
語彙の多様性と正確性のバランスを取ります
一般的な会話や執筆タスクに適しています
大きい値(0.7-1.0):
より広範な語彙選択を考慮します
より豊かで多様なコンテンツを生み出します
創造的な執筆など、多様な表現が必要な場面に適しています
コンテキスト数 (Context Window)
コンテキスト数 (Context Window)コンテキストに保持するメッセージの数です。値が大きいほどコンテキストは長くなり、消費されるトークンも増えます:
5-10:通常の会話に適しています
>10:より長い記憶を必要とする複雑なタスク(例:執筆のアウトラインに沿って段階的に長文を生成するタスクで、生成されたコンテキストの論理的一貫性を保つ必要がある場合)
注意:メッセージ数が多いほどトークン消費は増えます
メッセージ長さ制限 (MaxToken) を有効にする
メッセージ長さ制限 (MaxToken) を有効にする単回の回答の最大 トークン 数。大規模言語モデルにおいて max token(最大トークン数)は重要なパラメータで、モデルが生成する回答の品質と長さに直接影響します。
例:CherryStudioでキーを入力してモデルの接続テストを行う場合、モデルが正しくメッセージを返すかだけを確認したければ、特定の内容は不要なので MaxToken を 1 に設定できます。
多くのモデルの MaxToken の上限は 32k トークンですが、64k やそれ以上をサポートするものもあります。詳細は該当モデルの説明ページを確認してください。
具体的にどれくらいに設定するかは用途次第ですが、以下の推奨も参考にできます。
推奨:
通常のチャット:500-800
短文生成:800-2000
コード生成:2000-3600
長文生成:4000以上(モデル自体が対応している必要があります)
一般にモデルの生成回答は MaxToken の範囲内に制限されますが、長いコード作成時などに切り捨てられたり表現が不完全になることがあります。特殊な場合は実情に合わせて柔軟に調整してください。
ストリーミング出力(Stream)
ストリーミング出力(Stream)ストリーミング出力はデータを一括で送るのではなく連続的なストリームとして送受信・処理する方式です。この方式により生成後すぐにデータを処理・出力でき、リアルタイム性と効率が大幅に向上します。
CherryStudio クライアント等の環境では、簡単に言えばタイプライターのような効果です。
オフ(非ストリーム)の場合:モデルが情報の生成を終えてからまとめて一度に出力します(メッセージを受け取ったときの SNS の感覚を想像してください);
オンの場合:逐語的に出力されます。大規模モデルが1文字生成するごとにそれを即座に送信し、全て送信し終えるまで続きます。
カスタムパラメータ
カスタムパラメータリクエストボディに追加のリクエストパラメータを含めることができます。例えば presence_penalty などのフィールドで、通常は一般ユーザーが使うことは少ないです。
上で述べた top-p、maxtokens、stream などのパラメータもこれらの一部です。
記入方法:パラメータ名—パラメータ型(テキスト、数値など)—値。参考ドキュメント:クリックして移動
最終更新
役に立ちましたか?