仅本页所有页面
由 GitBook 提供支持
1 / 84

日本語

Cherry Studio

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

基本チュートリアル

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

ナレッジベースチュートリアル

Loading...

Loading...

Loading...

Loading...

上級チュートリアル

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

プロジェクト貢献

Loading...

Loading...

質問&フィードバック

Loading...

Loading...

Loading...

Loading...

お問い合わせ

Loading...

Loading...

関連情報

Loading...

その他コンテンツ

Loading...

Loading...

エージェント

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

エージェント

エージェントページはアシスタント広場で、ここではお好みのモデルプリセットを選択または検索できます。カードをクリックすると、会話ページのアシスタントリストに追加されます。

ページ内で独自のアシスタントを編集および作成することもできます。

  • マイ をクリックし、エージェントを作成 をクリックすると、独自のアシスタントの作成を開始できます。

プロンプト入力ボックスの右上ボタンはAIプロンプト最適化ボタンで、クリックすると原文を上書きします。使用されるモデルは グローバルデフォルトアシスタントモデル です。

ファイル管理

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

ファイル

ファイル画面には、すべての会話・絵画・ナレッジベースに関連するファイルが表示されます。このページで集中管理と閲覧が可能です。

機能紹介

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

機能一覧

プロジェクト計画

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

プロジェクト計画

タスクリスト

Windows

Windows 版本安装教程

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

Windows

公式サイトを開く

注意:Windows 7 システムでは Cherry Studio のインストールがサポートされていません。

ダウンロードをクリックし、適切なバージョンを選択してください

ダウンロード完了を待つ

ブラウザがファイルを信頼できないと表示する場合は、「保持する」を選択してください

保持するを選択 → Cherry-Studioを信頼する

ファイルを開く

インストール

AIペインティング

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

絵画機能

絵画機能は現在、DMXAPI、TokenFlux、AiHubMix、およびの描画モデルをサポートしています。にアカウントを登録し、して使用することができます。

パラメータに関する疑問は、対応する領域の?アイコンにマウスオーバーすることで説明を確認できます。

今後、さらなるサービスプロバイダーの追加を予定しています。ご期待ください。

OneAPI および関連プロジェクト

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

OneAPIとそのフォークプロジェクト

ドキュメント貢献

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

ドキュメントへの貢献

編集者権限を取得するには、[email protected] までメールでご連絡ください。

件名:Cherry Studio Docs 編集者権限の申請

本文:申請理由をご記入ください

モデルサービス設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

モデルサービス設定

カスタマイズ設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

カスタマイズ設定

無料オンラインモード

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

無料インターネットモード

MCP 使用ガイド

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

MCP 使用チュートリアル

硅基流动
硅基流动
サービスプロバイダーに追加
公式サイトを開く
Edge ブラウザがダウンロード中
Edge ダウンロードリスト
ソフトウェアインストール画面

表示設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

表示設定

このページでは、ソフトウェアのカラーテーマ、ページレイアウト、またはカスタム CSSを設定して、パーソナライズ設定を行うことができます。

テーマ選択

ここではデフォルトのインターフェースカラーモード(ライトモード、ダークモード、またはシステム設定に従う)を設定できます。

トピック設定

この設定は対話インターフェースのレイアウトに関する設定です。

トピックの位置

トピックへの自動切り替え

この設定を有効にすると、アシスタント名をクリックした際に対応するトピックページに自動的に切り替わります。

トピック時間の表示

有効にするとトピックの下にトピック作成時間が表示されます。

カスタム CSS

この設定によりインターフェースに柔軟なカスタマイズ変更を加えることができます。具体的な方法は上級チュートリアルのカスタム CSSを参照してください。

macOS

macOS 版本安装教程

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

macOS

  1. まず公式サイトのダウンロードページからMacバージョンをダウンロードするか、以下のリンクを直接クリックしてください

ご自身のMacに対応したチップバージョンをダウンロードするよう注意してください

ご自身のMacがどのチップバージョンかわからない場合:

  • Mac画面左上のメニューをクリック

  • 展開されたメニューから「このMacについて」を選択

  • 表示されたウィンドウでプロセッサ情報を確認

Intelチップの場合はIntel版インストーラーをダウンロード

Apple M*チップの場合はAppleチップ版インストーラーをダウンロード

  1. ダウンロード完了後、ダウンロードファイルをクリックしてください

  1. アイコンをドラッグしてアプリケーションフォルダにインストール

LaunchpadからCherry Studioアイコンを探してクリックし、Cherry Studioメイン画面が開けばインストール成功です。

GitHub Copilot

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

GitHub Copilot

GitHub Copilotを使用するには、まずGitHubアカウントを持ち、GitHub Copilotサービスをサブスクリプションする必要があります。free版のサブスクリプションも可能ですが、free版は最新のClaude 3.7モデルをサポートしていません。詳細はGitHub Copilot公式サイトを参照してください。

Device Codeの取得

「GitHubにログイン」をクリックし、Device Codeを取得してコピーします。

Device Codeの取得

ブラウザでDevice Codeを入力して認証

Device Codeを取得したら、リンクをクリックしてブラウザを開きます。GitHubアカウントでログインし、Device Codeを入力して認証します。

GitHub認証

認証が成功したら、Cherry Studioに戻り「GitHubに接続」をクリックします。成功するとGitHubユーザー名とアバターが表示されます。

GitHub接続成功

「管理」をクリックしてモデルリストを取得

下部の「管理」ボタンをクリックすると、現在サポートされているモデルリストが自動的に取得されます。

モデルリストの取得

よくある質問

Device Codeの取得に失敗しました。再試行してください

Device Code取得失敗

現在のリクエストはAxiosで構築されていますが、Axiosはsocksプロキシをサポートしていません。システムプロキシまたはHTTPプロキシを使用するか、CherryStudioでプロキシを設定せずにグローバルプロキシを使用してください。まずネットワーク接続が正常であることを確認し、Device Codeの取得失敗を防いでください。

データ設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

データ設定

このインターフェースでは、クライアントデータのクラウドおよびローカルバックアップ、ローカルデータディレクトリのクエリ、キャッシュクリアなどの操作が可能です。

データバックアップ

現在、データバックアップはWebDAV方式のみをサポートしています。WebDAVに対応したサービスを選択してクラウドバックアップを行えます。

また、A PC WebDAV B PC の方式でマルチデバイスデータ同期を実現可能です。

坚果云の例

  1. 坚果云にログインし、右上のユーザー名をクリックして「アカウント情報」を選択:

  1. 「セキュリティオプション」を選択し、「アプリの追加」をクリック:

  1. アプリ名を入力し、ランダムパスワードを生成:

  1. パスワードをコピーして保存:

  1. サーバーアドレス、アカウント、パスワードを取得:

  1. Cherry Studioの設定→データ設定でWebDAV情報を入力:

  1. データのバックアップまたは復元を選択し、自動バックアップの周期を設定可能:

WebDAVサービスのハードルが比較的低いオンラインストレージサービス:

  • (会員制)

  • (購入必要)

  • (無料容量10GB,単一ファイル制限250MB)

  • (無料2GB,招待で最大16GBまで拡張可能)

  • (無料10GB,招待で+5GB拡張可能)

  • (無料ユーザー向け10GB容量)

自己デプロイが必要なサービス:

モデルサービス設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

プロバイダー設定

このページではインターフェース機能についてのみ紹介しています。設定チュートリアルについては、基本チュートリアルのを参照してください。

  • 組み込みプロバイダーを使用する際は、対応するシークレットキーを入力するだけでよいです。

  • プロバイダーによってシークレットキーの呼び方が異なることがあり、シークレットキー、Key、API Key、トークンなどはすべて同じものを指します。

API シークレットキー

Cherry Studio では、単一のプロバイダーが複数のキーをローテーション方式で使用でき、ローテーションはリストの先頭から末尾へ循環する方法で行われます。

  • 複数のキーを追加する際は、英語のカンマで区切ります。以下の例の形式で入力します:

必ず 英語 のカンマを使用してください。

API アドレス

組み込みプロバイダーを使用する際は、通常APIアドレスを入力する必要はありません。変更が必要な場合は、対応する公式ドキュメントに記載されているアドレスを厳密に従って入力してください。

プロバイダーから提供されたアドレスが https://xxx.xxx.com/v1/chat/completions という形式である場合、ルートアドレス部分(https://xxx.xxx.com)のみ入力すればよいです。

Cherry Studio が自動的に残りのパス(/v1/chat/completions)を追加します。指示通りに入力しないと正常に使用できない可能性があります。

説明: ほとんどのプロバイダーの大規模言語モデルルーティングは統一されています。通常、以下の操作は必要ありません。プロバイダーのAPIパスがv2、v3/chat/completionsなどの別のバージョンである場合は、アドレスバーに手動で対応するバージョンを'/'で終了させて入力できます。プロバイダーの要求ルートが通常の/v1/chat/completionsでない場合は、プロバイダーが提供する完全なアドレスを使用し、#で終了させます。

つまり:

  • APIアドレスが'/'で終わる場合、'chat/completions'のみを追加します。

  • APIアドレスが'#'で終わる場合、追加操作は行わず、入力したアドレスのみを使用します。

モデルの追加

通常、プロバイダー設定ページの左下隅の管理ボタンをクリックすると、そのプロバイダーがサポートするすべての呼び出し可能なモデルが自動的に取得されます。取得したリストから+アイコンをクリックしてモデルリストに追加します。

管理ボタンをクリックしたときにポップアップリストに表示されるモデルはすべて追加されるわけではありません。モデル右側の+をクリックして、プロバイダー設定ページのモデルリストに追加することで、モデル選択リストに表示されます。

接続チェック

APIシークレットキー入力ボックスの後のチェックボタンをクリックすると、設定が成功したかどうかをテストできます。

モデルチェックでは、デフォルトでモデルリストに追加された最後の対話モデルが使用されます。チェック中に失敗した場合は、モデルリストに誤ったモデルやサポートされていないモデルがないか確認してください。

設定が成功したら、必ず右上のスイッチをオンにしてください。そうしないと、このプロバイダーは引き続き無効状態のままであり、モデルリストで対応するモデルを見つけることができません。

字節跳動(豆包)

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

バイトダンス(豆包)

  • にログイン

  • ここを

APIキーの取得

  • サイドバーの下にある をクリック

  • APIキーを作成

  • 作成が成功したら、作成したAPIキーの隣にある目のアイコンをクリックして表示し、コピー

  • コピーしたAPIキーをCherry Studioに入力後、プロバイダーのスイッチをオンにする

モデルの有効化と追加

  • 方舟コンソールのサイドバーの一番下にあるで、必要なモデルを有効化(豆包シリーズやDeepSeekなど)

  • で、必要なモデルの対応するモデルIDを確認

  • Cherry Studioの設定で火山エンジンを選択

  • 「追加」をクリックし、取得したモデルIDをモデルID欄にペースト

  • この手順で各モデルを順次追加

APIエンドポイント

APIエンドポイントの記述方法は2種類あります:

  • クライアントデフォルト:https://ark.cn-beijing.volces.com/api/v3/

  • 別の記述方法:https://ark.cn-beijing.volces.com/api/v3/chat/completions#

両方の記法に違いはありません。デフォルトのまま変更不要。

/と#終端の違いについては、プロバイダー設定のセクションを参照してください。

OpenAI

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

OpenAI

APIキーの取得

  • 公式ので+ Create new secret keyをクリック

  • 生成されたキーをコピーし、CherryStudioのを開く

  • OpenAIサービスプロバイダーを選択し、取得したキーを入力

  • 下部の「管理」または「追加」をクリックし、対応モデルを追加後、右上のサービスプロバイダートグルを有効化して利用開始

  • 中国本土(台湾を除く)ではOpenAIサービスを直接利用できません。プロキシ設定のご自身での解決が必要です

  • アカウント残高が必須となります

Google Gemini

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

Google Gemini

APIキーの取得

  • Gemini の API キーを取得する前に、Google Cloud プロジェクトが必要です(すでに所有している場合、この手順はスキップできます)。

  • にアクセスし、プロジェクトを作成します。プロジェクト名を入力し、「プロジェクトを作成」をクリックしてください。

  • 公式の で、鍵 APIキーを作成 をクリックしてください。

  • 生成されたキーをコピーし、CherryStudio の を開いてください。

  • サービスプロバイダ Gemini を選択し、取得したキーを入力してください。

  • 最下部の「管理」または「追加」をクリックし、サポートされているモデルを追加し、右上のサービスプロバイダスイッチをオンにすると、使用可能になります。

  • 中国では台湾を除く地域で Google Gemini サービスを直接利用できません。プロキシの問題を解決する必要があります。

ナレッジベースデータ

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

保持した要素:

  1. マークダウン構造(#見出し、画像タグ、リンク構文)

  2. 技術用語(Cherry Studio, ベクトルデータベース, 埋め込みモデル, LLM)

  3. URLとファイルパス(https://turso.tech/libsql, ../.gitbook/assets/...)

  4. 画像の代替テキストとキャプション(alt属性は空、キャプションのみ翻訳)

  5. コードブロックではないため全テキストを翻訳

  6. 図の説明文「知識庫処理フローチャート」→「ナレッジベース処理フローチャート」に自然変換

ネット検索ブラックリスト設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

ネット検索ブラックリスト設定

Cherry Studioは、手動設定とフィード購読の2通りの方法でブラックリストを設定できます。設定ルールはを参照してください。

手動設定

検索結果にルールを追加するか、ツールバーアイコンをクリックして特定のサイトをブロックできます。ルールは以下の方法で指定可能です:(例: *://*.example.com/*) または(例: /example\.(net|org)/)。

フィード購読設定

パブリックなルールセットを購読することも可能です。購読可能なリストは以下のサイトで公開されています: https://iorate.github.io/ublacklist/subscriptions

以下におすすめの購読リンクを紹介します:

名前
リンク
種類

ナレッジベースドキュメント前処理

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

ナレッジベース文書の前処理

ナレッジベース文書の前処理には、Cherry Studioをv1.5.0以上にアップグレードする必要があります。

OCRサービスプロバイダの設定

「API KEYを取得」をクリックすると、ブラウザで申請アドレスが開きます。「今すぐ申請」をクリックしてフォームに記入後、API KEYを取得し、それをAPI KEY欄に入力します。

ナレッジベース文書前処理の設定

作成済みのナレッジベースで上記のように設定することで、ナレッジベース文書前処理の設定を完了できます。

文書のアップロード

右上隅の検索でナレッジベースの結果を検出することができます

会話での使用

ナレッジベース利用のヒント: 能力が高いモデルを使用する場合、ナレッジベースの検索モードを意図認識に変更できます。意図認識を使用すると、より正確で広範囲にわたって問題を記述することができます

ナレッジベース意図認識の有効化

Difyナレッジベース設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

Difyナレッジベースの設定

DifyナレッジベースMCPを使用するには、Cherry Studioをv1.2.9以上にアップグレードする必要があります。

DifyナレッジベースMCPサーバーの追加

  1. 搜索MCPを開きます。

  2. dify-knowledgeサーバーを追加します。

Difyナレッジベースの設定

パラメータと環境変数の設定が必要です

  1. Difyナレッジベースキーは以下の方法で取得できます

DifyナレッジベースMCPの使用方法

MCP 環境インストール

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

MCP環境のインストール

MCP(Model Context Protocol) は、大規模言語モデル(LLM)に標準化された方法でコンテキスト情報を提供することを目的としたオープンソースプロトコルです。MCPの詳細についてはを参照してください。

Cherry StudioでのMCPの使用方法

以下はfetch機能を例に、Cherry StudioでMCPを使用する方法をデモンストレーションします。詳細はでご確認ください。

準備作業: uvとbunのインストール

Cherry Studioは現在、組み込みのとのみを使用し、システムに既にインストールされているuvやbunを再利用しません。

設定 - MCPサーバーでインストールボタンをクリックすると、自動的にダウンロードとインストールが行われます。GitHubから直接ダウンロードするため、速度が遅かったり失敗する可能性があります。インストールが成功したかどうかは、後述するフォルダにファイルが存在するかで確認してください。

実行可能ファイルのインストールディレクトリ:

Windows: C:\Users\ユーザー名\.cherrystudio\bin

macOS、Linux: ~/.cherrystudio/bin

正常にインストールできない場合:

システム内の対応するコマンドをシンボリックリンクでこのディレクトリにリンクすることができます。ディレクトリが存在しない場合は手動で作成してください。または手動で実行可能ファイルをダウンロードし、このディレクトリに配置することも可能です:

Bun: UV:

フィードバック&提案

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

フィードバック&提案

Telegram 討論グループ

討論グループのメンバーは自身の使用経験を共有し、問題解決をサポートします。

Telegram 討論グループでヘルプを入手:

QQグループ

QQグループメンバーは相互支援し、ダウンロードリンクを共有します。

Github Issues

開発者の記憶漏れを防ぐ記録に適しています。またはここで議論に参加できます。

Github Issues:

メール

他のフィードバックチャネルが見つからない場合、開発者に連絡して支援を求めることができます。

開発者へのメール連絡:[email protected]

# データストレージ説明

Cherry Studioのナレッジベースに追加されたデータはすべてローカルに保存され、追加プロセスでドキュメントのコピーがCherry Studioデータストレージディレクトリに保管されます。

<figure><img src="../.gitbook/assets/mermaid-diagram-1739241680067.png" alt=""><figcaption><p>ナレッジベース処理フローチャート</p></figcaption></figure>

ベクトルデータベース:[https://turso.tech/libsql](https://turso.tech/libsql)

ドキュメントがCherry Studioナレッジベースに追加されると、ファイルは複数の断片に分割され、これらの断片が埋め込みモデルによって処理されます

大規模言語モデルを使用した質問応答時には、質問に関連するテキスト断片を検索して大規模言語モデルに渡します

データプライバシーに要件がある場合は、ローカルの埋め込みデータベースとローカルの大規模言語モデルを利用することを推奨します
https://t.me/CherryStudioAI
QQグループ(1025067911)
https://github.com/CherryHQ/cherry-studio/issues/new/choose
→バックアップ\xrightarrow{\text{バックアップ}}バックアップ​
→復元\xrightarrow{\text{復元}}復元​
坚果云
123盘
阿里云盘
Box
Dropbox
TeraCloud
Yandex Disk
Alist
Cloudreve
sharelist
火山エンジン
直接クリック
APIキー管理
有効化管理
モデルリストドキュメント
モデルサービス
APIエンドポイント
火山エンジン モデルIDリストの例
公式ドキュメントのcURL例
API Keyページ
Drawing
サービスプロバイダー設定
Google Cloud
API Keyページ
サービスプロバイダ設定

uBlacklist subscription compilation

https://git.io/ublacklist

中国語(中国語)

uBlockOrigin-HUGE-AI-Blocklist

https://raw.githubusercontent.com/laylavish/uBlockOrigin-HUGE-AI-Blocklist/main/list_uBlacklist.txt

AI生成

ublacklist
マッチパターン
正規表現
フィード購読設定
sk-xxxx1,sk-xxxx2,sk-xxxx3,sk-xxxx4
プロバイダー構成
Device Code取得の例
GitHub認証の例
GitHub接続成功の例
モデルリスト取得の例
Device Code取得失敗の例

プライバシーポリシー

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

プライバシーポリシー

Cherry Studio(以下「本ソフトウェア」または「当社」といいます)をご利用いただきありがとうございます。当社はユーザーのプライバシー保護を重視しており、本ポリシーは当社がお客様の個人情報とデータをどのように取り扱い保護するかを説明します。本ソフトウェアをご利用になる前に、本ポリシーをよくお読みください。

一、収集する情報の範囲

ユーザーエクスペリエンスの最適化およびソフトウェア品質向上のため、当社は以下の匿名化された非個人情報のみを収集する可能性があります:

• ソフトウェアバージョン情報; • ソフトウェア機能の利用頻度、活性度; • 匿名化されたクラッシュ・エラーログ情報;

上記情報は完全に匿名化され、個人を特定できるデータを含まず、お客様の個人情報と紐付けることもできません。

二、収集しない情報

ユーザーのプライバシー保護を最大化するため、当社は以下の情報を厳格に取り扱わないことを明示します:

• 本ソフトウェアに入力されたモデルサービスAPIキー情報を収集・保存・送信・処理しません; • 本ソフトウェア利用中に生成されるいかなる対話データ(チャット内容、指示情報、ナレッジベース情報、ベクトルデータ、カスタムコンテンツ等を含む)も収集・保存・送信・処理しません; • 個人を特定できる機微情報を一切収集・保存・送信・処理しません。

三、データ連携に関する説明

本ソフトウェアは、ユーザー自身が申請・設定したサードパーティ製モデルサービスプロバイダーのAPIキーを使用して、関連モデルの呼び出しと対話機能を実現します。利用されるモデルサービス(大規模言語モデル、APIインターフェース等)はユーザーが選択したサードパーティプロバイダーが提供し、その責任を完全に負います。Cherry Studioはあくまでローカルツールとして、サードパーティモデルサービスとの連携機能を提供するものです。

従って:

• 大規模モデルサービスとの対話で生成される全データはCherry Studioに関与せず、当社はデータ保存に参与せず、いかなる形式のデータ転送・中継も行いません; • 対応するサードパーティプロバイダーのプライバシーポリシーについては、各プロバイダー公式サイトでご確認ください。

四、サードパーティモデルサービスプロバイダーのプライバシー規約に関する声明

サードパーティモデルサービス利用に伴うプライバシーリスクはユーザー自身が負担します。具体的なプライバシー対策、データセキュリティ措置および関連責任については、利用プロバイダーの公式規約をご参照ください。当社はこれらについて一切の責任を負いません。

五、ポリシーの更新と改定

本ポリシーはソフトウェアアップデートに伴い適宜改訂される可能性があります。定期的なご確認をお願いします。実質的な変更が発生した場合、当社は適切な方法で通知します。

六、お問い合わせ

本ポリシー内容またはCherry Studioのプライバシー保護措置についてご質問がある場合は、お気軽にお問い合わせください。

Cherry Studioをご選択・ご信頼いただき感謝申し上げます。今後も安全で信頼性の高い製品体験を提供してまいります。

ドキュメント
uv
bun
https://github.com/oven-sh/bun/releases
https://github.com/astral-sh/uv/releases
binディレクトリ

フォント推奨

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

フォントおすすめ

Notion 設定ガイド

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

Notion 設定チュートリアル

Cherry Studio はトピックを Notion データベースにインポートすることをサポートしています。

ステップ1

ウェブサイト Notion Integrations を開き、アプリケーションを作成します

プラス記号をクリックしてアプリケーションを作成

ステップ2

アプリケーションを作成します

アプリケーション情報を記入

名前:Cherry Studio

タイプ:最初のオプションを選択

アイコン:この画像を保存してください

ステップ3

秘密鍵をコピーして Cherry Studio の設定に記入します

「秘密鍵をコピー」をクリック
秘密鍵をデータ設定に記入

ステップ4

Notion ウェブサイトを開き、新しいページを作成し、下の方でデータベースタイプを選択します。名前には Cherry Studio と記入し、図のように操作して接続します

新しいページを作成しデータベースタイプを選択
ページ名を入力し、APPに接続を選択

ステップ5

データベース ID をコピー

Notion データベースの URL が以下のようになっている場合:

https://www.notion.so/<long_hash_1>?v=<long_hash_2>

Notion データベース ID は <long_hash_1> の部分です

データベース ID を記入し「チェック」をクリック

ステップ6

ページタイトルフィールド名 を記入してください:

ウェブページが英語の場合は Name と記入 ウェブページが中国語の場合は 名称 と記入

ページタイトルフィールド名を記入

ステップ7

おめでとうございます、Notion の設定が完了しました ✅ これで Cherry Studio のコンテンツをあなたの Notion データベースにエクスポートできるようになります

Notion にエクスポート
エクスポート結果を表示

NewAPI

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

NewAPI

  • ログインしてトークンページを開く

  • トークンの追加をクリック

  • トークン名を入力し送信をクリック(必要な場合は他の設定も可能)

  • CherryStudioのプロバイダー設定を開き、プロバイダーリスト最下部の追加をクリック

  • 備考名を入力し、プロバイダーでOpenAIを選択して確定をクリック

  • コピーしたkeyを入力

  • API Key取得ページに戻り、ブラウザアドレスバーからルートアドレスをコピー(例):

https://xxx.xxx.com のみコピーし「/」以降の内容は不要
  • IP+ポート形式の場合はhttp://IP:ポートと入力(例:http://127.0.0.1:3000)

  • httpとhttpsを厳密に区別し、SSLが有効でない場合はhttpsを使用しない

  • モデルを追加(管理をクリックして自動取得、または手動入力)し右上のスイッチをオンにすると使用可能。

硅基流動

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

SiliconFlow

1. SiliconCloudのモデルサービス設定

​1.2 左下の設定をクリックし、モデルサービスで【SiliconFlow】を選択

​1.2 リンクをクリックしてSiliconCloud APIキーを取得

  1. SiliconCloudにログイン(未登録の場合は初回ログイン時に自動でアカウントが登録されます)

  2. APIキーにアクセスし、新規キーを作成または既存キーをコピー

​1.3 管理をクリックしてモデルを追加

​2. モデルサービスの使用方法

  1. 左側メニューバーの「対話」ボタンをクリック

  2. 入力ボックスにテキストを入力してチャットを開始

  3. 上部メニューのモデル名を選択してモデルを切り替え

ナレッジベースチュートリアル

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

ナレッジベースチュートリアル

バージョン0.9.1で、CherryStudioは待望のナレッジベース機能を提供しました。

以下では、ステップごとにCherryStudioの詳細な使用説明を紹介します。

埋め込みモデルの追加

  1. モデル管理サービスで「埋め込みモデル」をクリックして迅速にフィルタリングし、必要なモデルを検索します;

  2. 必要なモデルを見つけたら、「マイモデル」に追加します。

ナレッジベースの作成

  1. ナレッジベースのエントリー:CherryStudioの左側ツールバーでナレッジベースアイコンをクリックし、管理ページに進みます;

  2. ナレッジベースの追加:「追加」をクリックしてナレッジベースの作成を開始します;

  3. 命名:ナレッジベースの名前を入力し、bge-m3などの埋め込みモデルを追加すると作成が完了します。

ファイルの追加とベクトル化

  1. ファイルの追加:ファイル追加ボタンをクリックしてファイル選択画面を開きます;

  2. ファイルの選択:pdf、docx、pptx、xlsx、txt、md、mdxなどのサポート形式を選択し、開きます;

  3. ベクトル化:システムが自動的にベクトル化処理を行い、完了マーク(緑の✓)が表示されたらベクトル化が終了しています。

多様なソースからのデータ追加

CherryStudioは複数のデータ追加方法をサポートしています:

  1. フォルダーディレクトリ:サポート形式のファイルを含むフォルダー全体を追加でき、自動的にベクトル化されます;

  2. URLリンク:https://docs.siliconflow.cn/introduction などのウェブURLをサポート;

  3. サイトマップ:https://docs.siliconflow.cn/sitemap.xml などのXML形式サイトマップをサポート;

  4. プレーンテキストノート:カスタムコンテンツのプレーンテキスト入力をサポート。

ヒント:

  1. ナレッジベースにインポートするドキュメント内のイラストはベクトル変換を一時的にサポートしておらず、手動でテキストに変換する必要があります;

  2. ウェブサイトをナレッジソースとして使用する場合、必ずしも成功するとは限りません。一部のサイトには厳しいクローリング防止対策(ログインや認証が必要な場合など)があるため、正確なコンテンツが取得できない可能性があります。作成後にまず検索テストを行うことをお勧めします;

  3. 一般的なウェブサイトはサイトマップを提供しており、CherryStudioののように、通常はルートアドレス(URL)に /sitemap.xml を追加することで情報を取得できます(例: aaa.com/sitemap.xml);

  4. サイトマップが提供されていない場合やURLが複雑な場合は、サイトマップXMLファイルを手動で作成できます。ファイルは公的にアクセス可能な直リンクで入力する必要があり、ローカルファイルリンクは認識されません。

  1. AIにサイトマップファイルを生成させるか、サイトマップHTML生成ツールを作成させる;

  2. 直リンクはOSS直リンクやオンラインストレージ直リンクなどを使用して生成できます。既存のツールがない場合は、公式サイトにログインし、トップバーの無料ファイルアップロードツールを使用して直リンクを生成できます。

ナレッジベースの検索

ファイルのベクトル化が完了すると、クエリを実行できます:

  1. ページ下部の「ナレッジベースを検索」ボタンをクリック;

  2. 検索内容を入力;

  3. 検索結果を表示;

  4. 各結果のマッチングスコアを表示。

会話でのナレッジベース参照による回答生成

  1. 新規トピックを作成し、会話ツールバーで「ナレッジベース」をクリック。作成済みナレッジベースリストが展開されるので、参照したいナレッジベースを選択;

  2. 質問を入力して送信すると、モデルが検索結果に基づいた回答を返信;

  3. 同時に、参照元データが回答の下に表示され、ソースファイルをすぐに確認できます。

効果的な質問方法

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

効率的な質問方法

Cherry Studioは無料のオープンソースプロジェクトであり、プロジェクトが成長するにつれて開発チームの作業負荷も増加しています。コミュニケーションコストを削減し、皆様の問題を迅速かつ効率的に解決するため、質問する前に以下の手順に従って問題に対処いただき、チームがプロジェクトのメンテナンスと開発に集中できる時間を確保していただきますようお願いします。ご協力に感謝いたします。

一、ドキュメントの確認と検索

ほとんどの基本的な問題は、ドキュメントを注意深く確認することで解決できます。

  • ソフトウェアの機能や使用方法に関する問題はドキュメントをご確認ください。

  • よくある質問はページにまとめていますので、まず解決策があるかどうか確認してください。

  • 複雑な問題は、検索または検索ボックスで質問することで直接解決できます。

  • 各ドキュメントのヒントボックスを必ず注意深くお読みください。これにより多くの問題を回避できます。

  • GitHubのページで類似の問題や解決策があるかどうか確認または検索してください。

二、Web検索・AIへの質問

モデルの使用などクライアント機能に関係ない問題(モデルエラー、期待通りの回答が得られない、パラメータ設定など)については、まずWebで関連する解決策を検索するか、エラー内容と問題をAIに説明して解決策を探すことをお勧めします。

三、公式コミュニティでの質問またはGitHubでのIssue作成

上記の手順1・2で答えが見つからなかった場合や問題が解決しない場合は、公式、、()で問題を詳細に説明し、助けを求めてください。

  1. モデルエラーの場合:画面全体のスクリーンショットとコンソールのエラー情報を提供してください。機密情報はマスク処理できますが、モデル名、パラメータ設定、エラー内容はスクリーンショットに残しておいてください。コンソールエラー情報の確認方法はをご覧ください。

  2. ソフトウェアのバグの場合:具体的なエラーの説明と詳細な再現手順を提供し、開発者がデバッグや修正を行いやすくしてください。偶発的な問題で再現できない場合は、問題発生時の関連シナリオ、背景、設定パラメータなどを可能な限り詳細に説明してください。また、プラットフォーム情報(Window、MacまたはLinux)、ソフトウェアバージョン番号なども問題説明に含めてください。

ドキュメントのリクエストや提案

tgチャンネル @Wangmouuu、QQ(1355873789)、またはメール:[email protected] までご連絡ください。

Monaspace

英語フォント 商用可能

GitHub は Monaspace というオープンソースのフォントファミリーを公開しました。5つのスタイルが選択可能です:Neon(モダンスタイル)、Argon(ヒューマニストスタイル)、Xenon(セリフスタイル)、Radon(ハンドライティングスタイル)、Krypton(メカニカルスタイル)。

MiSans Global

多言語 商用可能

MiSans Global は小米が主導し、モナタイプや漢儀字庫と共同で開発した多言語フォントカスタマイズプロジェクトです。

20以上の書字システムをカバーし、600以上の言語をサポートする大規模なフォントファミリーです。

機能紹介
よくある質問
Issue
tgチャンネル
Discordチャンネル
ワンクリック参加
こちら
サイトマップ
ocoolAI

プロジェクト概要

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

私たちのSNSアカウントをフォロー: X(旧Twitter)、小红书、微博、Bilibili、Douyin

コミュニティに参加: QQグループ(575014769)、Telegram、Discord、WeChatグループ(クリックで表示)


Cherry Studioは、マルチモデル対話、ナレッジベース管理、AI絵画、翻訳などの機能を統合したオールインワンのAIアシスタントプラットフォームです。高度なカスタマイズ設計、強力な拡張性、ユーザーフレンドリーな操作性により、プロフェッショナルユーザーやAI愛好家に最適な選択肢となります。プログラミング未経験者から開発者まで、あらゆるユーザーが自身のニーズに合ったAI機能を見つけ、作業効率と創造性を高めることができます。


コア機能と特徴

1. 基本対話機能

  • 一問多答: 同一質問に対して複数モデルが同時に回答生成可能。異なるモデルの性能比較が容易。詳細は対話インターフェース参照。

  • 自動グループ化: 各アシスタントの対話履歴が自動でグループ管理され、検索が容易。

  • 対話エクスポート: 完全な対話または一部をMarkdown、Wordなど複数形式で出力可能。

  • 高度なパラメータカスタマイズ: 基本パラメータ調整に加え、カスタムパラメータ設定で個別ニーズに対応。

  • アシスタントマーケット: 翻訳、プログラミング、執筆など業界特化型アシスタントを1,000以上内蔵。カスタムアシスタント作成も可能。

  • 多様なフォーマットレンダリング: Markdownレンダリング、数式表示、HTMLリアルタイムプレビューなどをサポート。

2. 多様な特殊機能統合

  • AI絵画: 自然言語描写による高品質画像生成パネルを専用提供。

  • AIミニアプリ: WebベースAIツールを複数統合。ブラウザ切り替え不要で直接利用可能。

  • 翻訳機能: 専用翻訳パネル、対話翻訳、プロンプト翻訳など多様な翻訳シナリオに対応。

  • ファイル管理: 対話、絵画、ナレッジベース内ファイルを分類統一管理。

  • グローバル検索: 履歴やナレッジベース内容を素早く検索可能。

3. マルチプロバイダ統一管理機構

  • プロバイダモデル統合: OpenAI、Gemini、Anthropic、Azureなど主要プロバイダモデルを一括管理。

  • モデル自動取得: ワンクリックで全モデルリスト取得。手動設定不要。

  • マルチキーローテーション: 複数APIキーの自動ローテーションでレート制限回避。

  • 正確なアバターマッチング: 各モデル専用アバターを自動設定。

  • カスタムプロバイダサポート: OpenAI、Gemini、Anthropic準拠のサードパーティプロバイダ連携可能。

4. 高度なUIカスタマイズ

  • カスタムCSS: グローバルスタイルカスタマイズで独自UIを構築。

  • 対話レイアウトカスタマイズ: リスト/バブルスタイル切り替え可能。メッセージスタイル(コードスニペット形式など)を自由設定。

  • カスタムアバター: ソフトウェア・アシスタントのアイコンを個別設定。

  • サイドバーメニューカスタマイズ: 機能の非表示/順序変更で使用体験を最適化。

5. ローカルナレッジベースシステム

  • 多様なフォーマットサポート: PDF/DOCX/PPTX/XLSX/TXT/MDなど各種ファイル形式をインポート可能。

  • 複数データソース対応: ローカルファイル、Webサイト、サイトマップ、手動入力内容をソースとして使用可能。

  • ナレッジベースエクスポート: 処理済みナレッジベースを他者と共有可能。

  • 検証機能: インポート後、リアルタイムでセグメンテーション結果を検証可能。

6. 特別フォーカス機能

  • クイックQA: 任意のシーン(WeChat、ブラウザ等)からアシスタントを呼び出し、即時解答取得。

  • クイック翻訳: 他アプリケーション内テキストの即時翻訳。

  • コンテンツ要約: 長文コンテンツを素早く要約。

  • 簡易説明: 複雑なプロンプト不要で不明点をワンクリック解説。

7. データ保護

  • 複数バックアップ方式: ローカルバックアップ、WebDAVバックアップ、定時バックアップをサポート。

  • データセキュリティ: ローカル大規模モデルと連携し、完全ローカル環境でデータ漏洩リスクを軽減。


プロジェクトの優位性

  1. 初心者フレンドリー: 技術的ハードルを低減。未経験者でも直感的な操作で作業・学習・創作に集中可能。

  2. 充実したドキュメント: 詳細な使用マニュアルとFAQを提供。

  3. 継続的アップデート: ユーザーフィードバックを迅速に反映し、機能改善を継続。

  4. オープンソースと拡張性: カスタマイズや拡張が可能なオープンソースコードを提供。


適用シナリオ

  • ナレッジ管理と検索: 研究・教育分野向け専用ナレッジベースの迅速構築。

  • マルチモデル対話と創作: 複数モデル同時対話による情報取得/コンテンツ生成。

  • 翻訳と業務自動化: 多言語コミュニケーションやドキュメント処理が必要なユーザー向け。

  • AI絵画とデザイン: 自然言語描写による創造的デザイン制作。

Star History

Star History

ソーシャルメディアをフォロー

カスタムCSS

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

カスタムCSS

カスタムCSSを使用すると、ソフトウェアの外観を変更して自分の好みに合わせることができます。例えば:

カスタムCSS
:root {
  --color-background: #1a462788;
  --color-background-soft: #1a4627aa;
  --color-background-mute: #1a462766;
  --navbar-background: #1a4627;
  --chat-background: #1a4627;
  --chat-background-user: #28b561;
  --chat-background-assistant: #1a462722;
}

#content-container {
  background-color: #2e5d3a !important;
}

組み込み変数

:root {
  font-family: "汉仪唐美人" !important; /* フォント */
}

/* 深い思考展開時のフォントカラー */
.ant-collapse-content-box .markdown {
  color: red;
}

/* テーマ変数 */
:root {
  --color-black-soft: #2a2b2a; /* ダーク背景色 */
  --color-white-soft: #f8f7f2; /* ライト背景色 */
}

/* ダークテーマ */
body[theme-mode="dark"] {
  /* カラー */
  --color-background: #2b2b2b; /* ダーク背景色 */
  --color-background-soft: #303030; /* ライト背景色 */
  --color-background-mute: #282c34; /* ニュートラル背景色 */
  --navbar-background: var(-–color-black-soft); /* ナビゲーションバー背景色 */
  --chat-background: var(–-color-black-soft); /* チャット背景色 */
  --chat-background-user: #323332; /* ユーザーチャット背景色 */
  --chat-background-assistant: #2d2e2d; /* アシスタントチャット背景色 */
}

/* ダークテーマ固有スタイル */
body[theme-mode="dark"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* コンテンツコンテナ背景色 */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* メッセージ背景色 */
  }

  .inputbar-container {
    background-color: #3d3d3a; /* 入力バー背景色 */
    border: 1px solid #5e5d5940; /* 入力バーボーダーカラー */
    border-radius: 8px; /* 入力バーボーダー角丸 */
  }

  /* コードスタイル */
  code {
    background-color: #e5e5e20d; /* コード背景色 */
    color: #ea928a; /* コード文字色 */
  }

  pre code {
    color: #abb2bf; /* プリフォーマットコード文字色 */
  }
}

/* ライトテーマ */
body[theme-mode="light"] {
  /* カラー */
  --color-white: #ffffff; /* ホワイト */
  --color-background: #ebe8e2; /* ライト背景色 */
  --color-background-soft: #cbc7be; /* ライト背景色 */
  --color-background-mute: #e4e1d7; /* ニュートラル背景色 */
  --navbar-background: var(-–color-white-soft); /* ナビゲーションバー背景色 */
  --chat-background: var(-–color-white-soft); /* チャット背景色 */
  --chat-background-user: #f8f7f2; /* ユーザーチャット背景色 */
  --chat-background-assistant: #f6f4ec; /* アシスタントチャット背景色 */
}

/* ライトテーマ固有スタイル */
body[theme-mode="light"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* コンテンツコンテナ背景色 */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* メッセージ背景色 */
  }

  .inputbar-container {
    background-color: #ffffff; /* 入力バー背景色 */
    border: 1px solid #87867f40; /* 入力バーボーダーカラー */
    border-radius: 8px; /* 入力バーボーダー角丸(お好みのサイズに調整可) */
  }

  /* コードスタイル */
  code {
    background-color: #3d39290d; /* コード背景色 */
    color: #7c1b13; /* コード文字色 */
  }

  pre code {
    color: #000000; /* プリフォーマットコード文字色 */
  }
}

より多くのテーマ変数についてはソースコードを参照してください:https://github.com/CherryHQ/cherry-studio/tree/main/src/renderer/src/assets/styles

関連のおすすめ

Cherry Studio テーマライブラリ: https://github.com/boilcy/cherrycss

中国風Cherry Studioテーマスキンのシェア: https://linux.do/t/topic/325119/129

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

{% hint style="danger" %}
注意:Gemini画像生成は対話インターフェイスで使用する必要があります。Geminiはマルチモーダルでインタラクティブな画像生成を行い、パラメータ調整もサポートしていません。
{% endhint %}

データ設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

データ設定

小红书

Bilibili

微博

Douyin

X(旧Twitter)

Cover
Cover
Cover
Cover
Cover

ナレッジコラム

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

知識解説

Tokensとは何か?

TokensはAIモデルがテキストを処理する基本的な単位であり、モデルが「思考」する最小ユニットと理解できます。これは我々が理解する文字や単語とは完全には一致せず、モデル独自の特殊なテキスト分割方法です。

1. 中国語の分かち書き

  • 1つの漢字は通常1~2トークンにエンコードされる

  • 例:"你好" ≈ 2-4トークン

2. 英語の分かち書き

  • 一般的な単語は通常1トークン

  • 長い単語や珍しい単語は複数トークンに分割される

  • 例:

    • "hello" = 1トークン

    • "indescribable" = 4トークン

3. 特殊文字

  • スペースや句読点もトークンを消費

  • 改行文字は通常1トークン

異なるプロバイダーのTokenizerは全て異なり、同じプロバイダーでもモデルによってTokenizerに違いがあります。この解説はトークンの概念を明確にするためのものです。


Tokenizerとは何か?

Tokenizer(トークナイザー)はAIモデルがテキストをtokensに変換するツールです。入力テキストをモデルが理解できる最小単位にどう分割するかを決定します。

なぜモデルごとにTokenizerが異なるのか?

1. トレーニングデータの違い

  • 異なるコーパスによる最適化方向の違い

  • 多言語サポートレベルの差異

  • 医療・法律など特定分野向けの最適化

2. 分かち書きアルゴリズムの違い

  • BPE (Byte Pair Encoding) - OpenAI GPTシリーズ

  • WordPiece - Google BERT

  • SentencePiece - 多言語シナリオ向け

3. 最適化目標の違い

  • 圧縮効率を重視するもの

  • 意味保持を重視するもの

  • 処理速度を重視するもの

実際の影響

同じテキストでもモデルによってトークン数が異なる可能性:


Embedding Model(埋め込みモデル)とは何か?

基本概念: 埋め込みモデルは、高次元の離散データ(テキスト、画像など)を低次元の連続ベクトルに変換する技術です。この変換により、機械が複雑なデータをより良く理解・処理できるようになります。複雑なパズルを単純な座標点に簡略化するイメージで、パズルの主要な特徴を保持します。大規模モデル生態系では「翻訳者」として機能し、人間が理解可能な情報をAIが計算可能な数値形式に変換します。

動作原理: 自然言語処理を例にすると、埋め込みモデルは単語をベクトル空間内の特定位置にマッピングします。この空間では、意味的に類似した単語が自動的に近くに集まります。例:

  • 「王様」と「女王」のベクトルは近い

  • 「猫」と「犬」などのペット関連語も距離が近い

  • 一方で「車」と「パン」など無関係な語は距離が遠い

主な応用シナリオ:

  • テキスト分析:文書分類、感情分析

  • 推薦システム:パーソナライズドコンテンツ推薦

  • 画像処理:類似画像検索

  • 検索エンジン:意味検索の最適化

コアメリット:

  1. 次元削減効果:複雑データを扱いやすいベクトル形式に簡略化

  2. 意味保存:元データの重要な意味情報を保持

  3. 計算効率:機械学習モデルの学習・推論効率を大幅向上

技術的価値: 埋め込みモデルは現代AIシステムの基盤コンポーネントであり、機械学習タスクに高品質なデータ表現を提供するため、自然言語処理やコンピュータビジョンなどの分野発展を推進する鍵技術です。


知識検索におけるEmbeddingモデルの動作原理

基本的ワークフロー:

  1. 知識ベース前処理段階

  • ドキュメントを適切なサイズのchunk(テキスト塊)に分割

  • embeddingモデルで各chunkをベクトルに変換

  • ベクトルと原文をベクトルデータベースに保存

  1. クエリ処理段階

  • ユーザー質問をベクトルに変換

  • ベクトルデータベースで類似内容を検索

  • 検索された関連内容を文脈としてLLMに提供


MCP(Model Context Protocol)とは何か?

MCPは標準化された方法で大規模言語モデル(LLM)にコンテキスト情報を提供することを目的としたオープンソースプロトコルです。

  • 比喩的理解: MCPはAI分野の「USBメモリ」と想像できます。USBメモリが様々なファイルを保存し、コンピュータに挿入すれば即時使用可能となるように、MCP Serverには様々なコンテキスト提供「プラグイン」を「挿入」できます。LLMは必要に応じてMCP Serverにこれらのプラグインを要求し、豊富なコンテキスト情報を取得して自身の能力を強化できます。

  • Function Toolとの比較: 従来のFunction Tool(関数ツール)もLLMに外部機能を提供しますが、MCPはより高次元の抽象化と見なせます。Function Toolが特定タスク向けのツールであるのに対し、MCPはより汎用的でモジュール化されたコンテキスト取得メカニズムを提供します。

MCPの核心的メリット

  1. 標準化: 統一インターフェースとデータ形式を提供し、異なるLLMとコンテキストプロバイダーのシームレスな連携を可能に

  2. モジュール化: コンテキスト情報を独立モジュール(プラグイン)に分解可能で、管理と再利用が容易

  3. 柔軟性: LLMが自身のニーズに応じて動的に必要なコンテキストプラグインを選択可能で、よりスマートで個別化されたインタラクションを実現

  4. 拡張性: MCPの設計は将来の多様なコンテキストプラグイン追加をサポートし、LLMの能力拡張に無限の可能性を提供

ナレッジコラム

翻訳機能

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

翻訳

Cherry Studioの翻訳機能は、迅速かつ正確なテキスト翻訳サービスを提供し、複数言語間の相互翻訳をサポートします。

インターフェース概要

翻訳インターフェースは主に以下の部分で構成されます:

  1. 原文言語選択エリア:

    • 任意の言語:Cherry Studio が自動的に原文言語を認識して翻訳します。

  2. 目標言語選択エリア:

    • プルダウンメニュー:テキストを翻訳したい言語を選択します。

  3. 設定ボタン:

    • クリックすると に移動します。

  4. スクロール同期:

    • クリックでスクロール同期を切り替え(どちらか一方でスクロールすると、もう一方も連動してスクロール)。

  5. テキスト入力ボックス(左側):

    • 翻訳が必要なテキストを入力または貼り付けます。

  6. 翻訳結果ボックス(右側):

    • 翻訳後のテキストを表示。

    • コピーボタン:クリックで翻訳結果をクリップボードにコピーします。

  7. 翻訳ボタン:

    • クリックで翻訳を開始します。

  8. 翻訳履歴(左上):

    • クリックで翻訳履歴を確認できます。

使用手順

  1. 目標言語を選択:

    • 目標言語選択エリアで翻訳したい言語を選択します。

  2. テキストを入力または貼り付け:

    • 左側のテキスト入力ボックスに翻訳したいテキストを入力または貼り付けます。

  3. 翻訳を開始:

    • 翻訳 ボタンをクリックします。

  4. 結果の確認とコピー:

    • 翻訳結果が右側の翻訳結果ボックスに表示されます。

    • コピーボタンをクリックすると翻訳結果をクリップボードにコピーできます。

よくある質問 (FAQ)

  • Q: 翻訳が正確でない場合は?

    • A: AI翻訳は強力ですが完璧ではありません。専門分野や複雑な文脈のテキストは、手動での校正をお勧めします。別のモデルに切り替えることもお試しください。

  • Q: 対応言語は?

    • A: Cherry Studioの翻訳機能は主要な多言語に対応しています。具体的な対応言語リストは、Cherry Studio公式サイトまたはアプリ内説明をご参照ください。

  • Q: ファイル全体の翻訳は可能ですか?

    • A: 現在のインターフェースはテキスト翻訳が主な用途です。ファイル翻訳については、Cherry Studioの会話ページでファイルを追加して翻訳する必要があります。

  • Q: 翻訳速度が遅い場合は?

    • A: 翻訳速度はネットワーク接続状況、テキストの長さ、サーバー負荷などの影響を受ける可能性があります。ネットワーク接続が安定していることを確認し、お待ちください。

デフォルトモデル設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

デフォルトモデル設定

デフォルトアシスタントモデル

アシスタントがデフォルトのアシスタントモデルを設定していない場合、新しい会話でデフォルトで選択されるモデルはここで設定されたモデルです。 プロンプト最適化やテキスト選択アシスタントでも、この設定が使用されます。

トピック命名モデル

各会話終了後に、会話のトピック名を生成するために呼び出されるモデルです。ここで設定されたモデルが命名時に使用されます。

翻訳モデル

会話やAI絵画などの入力ボックスでの翻訳機能、翻訳インターフェースで使用される翻訳モデルは、すべてここで設定されたモデルが使用されます。

クイックアシスタントモデル

クイックアシスタント機能で使用されるモデルです。詳細は を参照してください。

ナレッジベース

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

入力:"Hello, world!"
GPT-3: 4トークン
BERT: 3トークン
Claude: 3トークン
# ナレッジベース

ナレッジベースの使用方法については、上級チュートリアル内の[ナレッジベースチュートリアル](../../knowledge-base/knowledge-base.md)を参照してください。
クイックアシスタント
デフォルトモデル設定

ミニアプリ

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

マイクロプログラム

マイクロプログラムページでは、クライアント内で主要サービスプロバイダーのAI関連プログラムのウェブ版を使用できますが、現在、カスタム追加と削除はサポートされていません。

ショートカット設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

ショートカット設定

本画面では、一部機能のショートカットキーの有効化(無効化)と設定が可能です。具体的な設定方法は画面の指示に従って操作してください。

設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

設定

---
icon: cherries
---

# 設定

一般設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

基本設定

このページでは、ソフトウェアのインターフェース言語設定やプロキシ設定などを行うことができます。

Cherry Studio - 全能的AI助手Cherry Studio
Cherry Studio - 全能的AI助手Cherry Studio

よくある質問

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

よくある質問

1. mcp-server-time

エラーのスクリーンショット

解決方法

パラメータ欄に記入:

mcp-server-time
--local-timezone
<あなたの標準タイムゾーン、例:Asia/Shanghai>

ビジネス提携

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

ビジネス提携

担当者:王様 📮:[email protected] 📱:18954281942(カスタマーサービス電話ではありません)

利用に関するお問い合わせは、公式サイトフッターのユーザー交流グループに参加いただくか、[email protected] までメールでお願いいたします。

または issues を提出してください:https://github.com/CherryHQ/cherry-studio/issues

より詳しいガイダンスが必要な場合は、当社の知識コミュニティにご参加ください。

商用ライセンス詳細:https://docs.cherry-ai.com/contact-us/questions/cherrystudio-xu-ke-xie-yi

メモリ内MCP設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

組み込みMCP設定

@cherry/mcp-auto-install

MCPサービスの自動インストール(ベータ版)

@cherry/memory

ローカルナレッジグラフベースの持続的メモリ基盤の実装。これにより、モデルは異なる会話間でユーザーの関連情報を記憶できます。

@cherry/sequentialthinking

構造化された思考プロセスを通じて動的かつ反射的な問題解決を可能にするツールを提供するMCPサーバーの実装。

@cherry/brave-search

Brave検索APIを統合したMCPサーバーの実装で、ウェブ検索とローカル検索の両機能を提供します。

@cherry/fetch

URLのウェブコンテンツを取得するためのMCPサーバー。

@cherry/filesystem

ファイルシステム操作を実装するモデルコンテキストプロトコル(MCP)のNode.jsサーバー。

コード貢献

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

コード貢献

Cherry Studioへの貢献を歓迎します!以下の方法で貢献できます:

1. コード貢献:开新機能の開発や既存コードの最適化。

2. バグ修正:提見つけたバグの修正を提出。

3. Issue管理:帮GitHub Issueの管理支援。

4. 製品デザイン:参デザイン議論への参加。

5. ドキュメント作成:改ユーザーマニュアルやガイドの改善。

6. コミュニティ参加:加議論への参加やユーザー支援。

7. プロモーション:宣Cherry Studioの普及活動。

参加方法

メール送信:

メールタイトル:開発者として申請 メール本文:申請理由

MEMORY_FILE_PATH=/path/to/your/file.json
BRAVE_API_KEY=YOUR_API_KEY
[email protected]

モデルランキング

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

我们正在将中文内容翻译成日语,同时严格遵守给定的翻译规则。 规则要求: 1. 只翻译将显示给用户的文本内容。 2. 严格保留所有Markdown格式和结构元素(如标题、列表、代码块、块引用、粗体、斜体、链接、图片、表格等)。Markdown语法本身不翻译。 3. 翻译代码块内的注释(但代码、命令、文件名、URL、版本号等不翻译)。 4. 链接和图片路径保持不变。 5. 保持GitBook风格的提示块结构(翻译内容,但标签不变)。 6. Frontmatter(YAML头)内容不变。 7. 不添加任何额外解释、前言、后记或总结。 8. 对于目录文件(如SUMMARY.md),只翻译标题名称,链接保持不变。 9. 保留所有GitHub特定术语(如pull request, fork, commit, repository)的原始形式。 10. 保留所有URL、文件路径和版本号。 11. 保持原始文档结构和段落分隔。

需要翻译的内容包括:

  • 标题、段落文本

  • 表格中的文本内容(但链接和模型名称中的技术术语不翻译)

  • 提示块内的文本

  • 说明部分的文本

注意:表格中的模型名称(如“Gemini-2.5-Pro”)的显示文本(即方括号内的部分)需要翻译,但链接保持不变。 同样,表格中的其他列如“服务商”、“许可协议”等也需要翻译,但专有名词(如Google、MIT等)保持不变。

步骤:

  1. 翻译标题和段落文本。

  2. 翻译提示块内的文本。

  3. 翻译表格的表头(如“排名(UB)”、“模型名”等)和表格内的文本内容(但注意模型名称的显示文本需要翻译,而链接和版本号等不翻译)。

  4. 翻译说明部分的内容。

  5. 确保所有Markdown标记、链接、图片路径、代码块等原样保留。

特别注意:表格中“模型名”一列,每个单元格都是Markdown链接格式,例如: Gemini-2.5-Pro 我们需要翻译链接的显示文本(即“Gemini-2.5-Pro”),但保留链接URL不变。但是,请注意,模型名称本身是专有名词,通常不翻译,但这里显示文本是模型的名字,我们按照规则应该保留模型名(因为它是技术术语)?然而,规则9要求保留GitHub特定术语的原始形式,但模型名是否属于需要保留的术语?规则3指出代码块内的技术语法不翻译,但表格中的模型名不是代码块。

但是,观察原文,模型名实际上是一个链接文本,而链接文本通常是模型的名字(如“Gemini-2.5-Pro”),这些名字通常不翻译,因为它们是一个标识符。然而,规则1要求翻译“将显示给用户的文本内容”。这里有一个矛盾:模型名是显示给用户的,但它是专有名词。

回顾规则9:保留所有GitHub特定术语(如pull request, fork, commit, repository)的原始形式。模型名不属于GitHub特定术语,但它们是模型产品的名称,通常不翻译。而且,在原文中,模型名是英文的(如“Gemini-2.5-Pro”),所以实际上不需要翻译。但是,有些模型名可能是中文的?在这个文档中,模型名都是英文的,所以直接保留。

再看表格中其他列:分数、置信区间、票数、服务商、许可协议、知识截止日期。其中服务商一列有中文(如“Google”是英文,但“阿里巴巴”是中文),需要翻译成日语。同样,许可协议中的“专有”需要翻译。

因此,对于表格: - “模型名”列:链接的显示文本(即方括号内的部分)如果是中文则翻译,但这里都是英文或数字,所以保持不变(因为原文就是英文)。 - 其他列:文本内容翻译(如“暂无数据”翻译成日语,服务商中的中文名称翻译等)。

但是,在表格中,我们看到“服务商”列有“Google”、“OpenAI”等英文,也有“阿里巴巴”(中文)、“腾讯”(中文)等,这些中文需要翻译成日语。同样,“许可协议”列有“Proprietary”(英文)和“专有”(中文),这里“专有”需要翻译。

另外,注意“知识截止日期”列中,有“暂无数据”和日期格式(如“2023/10”),日期保持不变,“暂无数据”翻译。

所以,我们翻译表格时: - 表头:翻译(如

インストールガイド

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

インストールガイド

チャット画面

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

対話インターフェース

アシスタントとトピック

アシスタント

アシスタント は、選択したモデルをカスタマイズするための設定です。プロンプトのプリセットやパラメーターのプリセットなど、これらの設定により、選択したモデルが期待通りに動作するよう調整されます。

システムデフォルトのアシスタント は、比較的汎用的なパラメーター(プロンプトなし)をプリセットしています。直接使用するか、エージェントページ で必要なプリセットを探して使用できます。

トピック

アシスタント は トピック の親集合です。1つのアシスタントの下に複数のトピック(つまり対話)を作成でき、すべての トピック は アシスタント のパラメーター設定やプリセットされたプロンプトなどのモデル設定を共有します。

対話ボックス内のボタン

新規トピック: 現在のアシスタント内に新しいトピックを作成します。

画像またはドキュメントをアップロード: 画像のアップロードはモデルのサポートが必要です。ドキュメントのアップロードは自動的にテキストに解析され、モデルにコンテキストとして提供されます。

ウェブ検索: 設定でウェブ検索関連情報を構成する必要があります。検索結果はコンテキストとして大規模モデルに返されます。詳細は ネットワーク接続モード をご覧ください。

ナレッジベース: ナレッジベースを有効にします。詳細は ナレッジベースチュートリアル をご覧ください。

MCP サーバー: MCP サーバー機能を有効にします。詳細は MCP 使用チュートリアル をご覧ください。

画像を生成: デフォルトでは表示されません。画像生成をサポートするモデル(例: Gemini)の場合、手動でアイコンをタップして有効にする必要があります。

技術的な理由により、画像を生成するには手動でアイコンをタップする必要があります。このボタンは機能が最適化された後に削除されます。

モデルを選択: 次の対話で、指定したモデルに切り替え、コンテキストを保持します。

クイックフレーズ: 設定で事前に一般的なフレーズをプリセットし、ここで呼び出して直接入力します。変数をサポートします。

メッセージをクリア: このトピックの下のすべての内容を削除します。

拡大: 対話ボックスを大きくして、長文の入力を可能にします。

コンテキストをクリア: 内容を削除せずに、モデルが取得できるコンテキストを切り詰めます。つまり、モデルは以前の対話内容を「忘れ」ます。

推定トークン数: 推定トークン数を表示します。4つのデータはそれぞれ 現在のコンテキスト数、最大コンテキスト数(∞ は無制限のコンテキストを意味)、現在の入力ボックス内のメッセージ数、推定トークン数 です。

この機能は推定トークン数のみに使用され、実際のトークン数は各モデルで異なります。モデルプロバイダーのデータを参照してください。

翻訳: 現在の入力ボックス内の内容を英語に翻訳します。

対話設定

モデル設定

モデル設定はアシスタント設定の モデル設定 パラメーターと同期します。詳細は アシスタント設定 をご覧ください。

対話設定では、モデル設定のみが現在のアシスタントに適用され、その他の設定はグローバルに適用されます。例:メッセージスタイルをバブルに設定すると、どのアシスタントのトピックでもバブルスタイルになります。

メッセージ設定

メッセージ区切り線:

区切り線を使用して、メッセージ本文と操作バーを分離します。

セリフ体フォントを使用:

フォントスタイルを切り替えます。現在は カスタム CSS でフォントを変更することもできます。

コードに行番号を表示:

モデル出力のコードスニペットにコードブロックの行番号を表示します。

コードブロックを折り畳み可能:

オンにすると、コードスニペットが長い場合、自動的にコードブロックが折り畳まれます。

コードブロックを折り返し可能:

オンにすると、コードスニペットの1行が長い場合(ウィンドウを超える)、自動的に折り返されます。

思考内容を自動折り畳み:

オンにすると、思考をサポートするモデルで思考が完了した後、思考プロセスが自動的に折り畳まれます。

メッセージスタイル:

対話インターフェースをバブルスタイルまたはリストスタイルに切り替えられます。

コードスタイル:

コードスニペットの表示スタイルを切り替えます。

数式レンダリングエンジン:

  • KaTeX: レンダリング速度が速く、パフォーマンス最適化用に設計されています。

  • MathJax: レンダリングが遅いですが、より多くの数学記号とコマンドをサポートし、機能が豊富です。

メッセージフォントサイズ:

対話インターフェースのフォントサイズを調整します。

入力設定

推定トークン数を表示:

入力ボックスに入力テキストで推定消費されるトークン数を表示します(実際のコンテキスト消費トークンではなく、参考用です)。

長いテキストをファイルとして貼り付け:

他の場所から長いテキストをコピーして入力ボックスに貼り付けると、自動的にファイルスタイルで表示され、後続の入力の妨げを減らします。

入力メッセージをMarkdownでレンダリング:

オフの場合、モデルの応答メッセージのみをレンダリングし、送信メッセージはレンダリングしません。

スペースを3回素早く連打して翻訳:

対話インターフェースの入力ボックスでメッセージを入力した後、スペースを3回連続で連打すると、入力内容を英語に翻訳します。

注意:この操作は原文を上書きします。

ターゲット言語:

入力ボックスの翻訳ボタンとスペース3回連打翻訳のターゲット言語を設定します。

アシスタント設定

アシスタントインターフェースで設定するアシスタント名を選択→右クリックメニューで対応する設定を選択

アシスタントを編集

アシスタント設定は、そのアシスタントの下のすべてのトピックに適用されます。

プロンプト設定

名称:

便利に識別できるようにアシスタント名をカスタマイズできます。

プロンプト:

プロンプトのことです。エージェントページのプロンプトの書き方を参照して内容を編集できます。

モデル設定

デフォルトモデル:

このアシスタントにデフォルトモデルを固定できます。エージェントページから追加するか、アシスタントをコピーする場合、初期モデルがこのモデルになります。この項目を設定しない場合、初期モデルはグローバル初期モデル(つまり デフォルトアシスタントモデル )になります。

アシスタントのデフォルトモデルには2種類あります:1つは グローバルデフォルト対話モデル、もう1つはアシスタントデフォルトモデルです。アシスタントデフォルトモデルの優先度はグローバルデフォルト対話モデルよりも高くなります。アシスタントデフォルトモデルを設定しない場合、アシスタントデフォルトモデル = グローバルデフォルト対話モデルになります。

モデルを自動リセット:

オン時 – そのトピックの使用中に他のモデルに切り替えた場合、新規トピックを作成すると新規トピックのモデルがアシスタントのデフォルトモデルにリセットされます。オフ時は、新規トピックのモデルは前のトピックで使用したモデルを引き継ぎます。

例:アシスタントのデフォルトモデルが gpt-3.5-turbo の場合、そのアシスタントの下でトピック1を作成し、トピック1の対話中に gpt-4o に切り替えた場合:

自動リセットが有効:新規トピック2を作成すると、トピック2のデフォルト選択モデルは gpt-3.5-turbo;

自動リセットが無効:新規トピック2を作成すると、トピック2のデフォルト選択モデルは gpt-4o。

温度 (Temperature) :

温度パラメーターは、モデルが生成するテキストのランダム性と創造性を制御します(デフォルト値 0.7)。具体的には:

  • 低温度値(0-0.3):

    • 出力がより確定的で集中したものになる

    • コード生成、データ分析など精度が必要なシナリオに適する

    • 最も確率の高い単語を選択する傾向がある

  • 中程度温度値(0.4-0.7):

    • 創造性と一貫性のバランスが取れる

    • 日常会話、一般的な執筆に適する

    • チャットボット対話に推奨 (0.5 前後)

  • 高温度値(0.8-1.0):

    • より創造的で多様性のある出力を生成

    • 創造的執筆、ブレインストーミングなどのシナリオに適する

    • ただし、テキストの一貫性が低下する可能性あり

Top P (核サンプリング):

デフォルト値は 1。値が小さいほど、AI が生成する内容は単調になり、理解しやすくなります。値が大きいほど、AI の応答の語彙範囲が広がり、多様性が増します。

核サンプリングは、単語選択の確率しきい値を制御して出力に影響します:

  • 小さい値(0.1-0.3):

    • 最高確率の単語のみを考慮

    • 出力が保守的で制御可能

    • コードコメント、技術文書などのシナリオに適する

  • 中程度値(0.4-0.6):

    • 単語多様性と精度のバランス

    • 一般的な対話や執筆タスクに適する

  • 大きい値(0.7-1.0):

    • より広範な単語選択を考慮

    • より豊富で多様な内容を生成

    • 表現の多様性が必要な創造的執筆などに適する

  • これらのパラメーターは独立して使用するか、組み合わせて使用できます

  • 特定のタスクタイプに適したパラメーター値を選択

  • 特定のアプリケーションシナリオに最適なパラメーター組み合わせを実験的に見つけることを推奨

  • 上記の内容は参照と概念理解のためのものであり、提示されたパラメーター範囲がすべてのモデルに適するとは限りません。モデル関連ドキュメントで提供される推奨パラメーターを参照してください。

コンテキスト数 (Context Window)

コンテキストに保持するメッセージの数。値が大きいほど、コンテキストが長くなり、消費されるトークンが増えます:

  • 5-10:通常の対話に適する

  • >10:より長いメモリが必要な複雑なタスク(例:執筆アウトラインに沿って段階的に長文を生成するタスクで、生成されたコンテキストの論理的一貫性を確保

CSS設定初期化

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

CSS設定のクリア

誤ったCSSを設定した場合や、CSS設定後に設定画面に入れなくなった場合に、この方法でCSS設定をクリアできます。

  • コンソールを開く:CherryStudioウィンドウをクリックし、Ctrl+Shift+Iキー(MacOS:command+option+I)を押します。

  • 表示されたコンソールウィンドウで、Consoleタブをクリックします

  • 手動でdocument.getElementById('user-defined-custom-css').remove()と入力します(コピー&ペーストでは通常実行されません)。

  • 入力後Enterキーを押すとCSS設定がクリアされます。その後、改めてCherryStudioの表示設定画面で問題のあるCSSコードを削除してください。

思源笔记設定ガイド

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

思源ノート設定チュートリアル

トピックやメッセージを思源ノートにエクスポートすることができます。

ステップ1

思源ノートを開き、新しいノートブックを作成します

新規ノートブックを作成をクリック

ステップ2

ノートブックの設定を開き、ノートブックIDをコピーします

ノートブック設定を開く
ノートブックIDをコピーボタンをクリック

ステップ3

コピーしたノートブックIDを Cherry Studio の設定に貼り付けます

ノートブックIDをデータ設定に記入

ステップ4

思源ノートのアドレスを入力します

  • ローカル環境 通常は http://127.0.0.1:6806

  • 自己ホスティング あなたのドメイン http://note.domain.com

あなたの思源ノートアドレスを入力してください

ステップ5

思源ノートの APIトークン をコピーします

思源ノートのトークンをコピー

Cherry Studio の設定に貼り付けて確認します

データベースIDを記入してチェックをクリック

ステップ6

おめでとうございます。思源ノートの設定が完了しました ✅ これでCherry Studioの内容をあなたの思源ノートにエクスポートすることができます

思源ノートにエクスポート
エクスポート結果を確認

自動インストールMCP

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

MCPの自動インストール

MCPの自動インストールには、Cherry Studioをv1.1.18以上にアップグレードする必要があります。

機能の概要

手動インストールに加えて、Cherry Studioには@mcpmarket/mcp-auto-installツールが組み込まれており、より便利なMCPサーバーのインストール方法を提供します。MCPサービスをサポートする大規模モデルチャットで対応するコマンドを入力するだけで使用できます。

テスト段階に関する注意:

  • @mcpmarket/mcp-auto-installは現在もテスト段階です

  • 効果は大規模モデルの「知能」に依存し、自動的に追加される場合もあれば、MCP設定で特定のパラメータを手動で変更する必要がある場合もあります

  • 現在の検索ソースは@modelcontextprotocolから行っており、自身で設定可能です(下記説明)

使用方法

例えば、以下のように入力できます:

帮我安装一个 filesystem mcp server
MCPサーバーインストールのためのコマンド入力
MCPサーバー設定画面

システムは自動的に要件を認識し、@mcpmarket/mcp-auto-installを通じてインストールを完了します。このツールは以下のような複数タイプのMCPサーバーをサポートしています:

  • filesystem(ファイルシステム)

  • fetch(ネットワークリクエスト)

  • sqlite(データベース)

  • など...

MCP_PACKAGE_SCOPES変数でMCPサービス検索ソースをカスタマイズ可能で、デフォルト値は@modelcontextprotocolです。

@mcpmarket/mcp-auto-installライブラリの紹介

デフォルト設定例:

// `axun-uUpaWEdMEMU8C61K` はサービスIDで、任意の値にカスタマイズしてください
"axun-uUpaWEdMEMU8C61K": {
  "name": "mcp-auto-install",
  "description": "Automatically install MCP services (Beta version)",
  "isActive": false,
  "registryUrl": "https://registry.npmmirror.com",
  "command": "npx",
  "args": [
    "-y",
    "@mcpmarket/mcp-auto-install",
    "connect",
    "--json"
  ],
  "env": {
    "MCP_REGISTRY_PATH": "詳細はhttps://www.npmjs.com/package/@mcpmarket/mcp-auto-installを参照"
  },
  "disabledTools": []
}

@mcpmarket/mcp-auto-installはオープンソースのnpmパッケージで、詳細情報と使用方法はnpm公式リポジトリで確認できます。@mcpmarketはCherry Studio公式のMCPサービスコレクションです。

OneAPI

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

OneAPI

  • ログインし、トークンページに進む

  • 新しいトークンを作成(または既存のdefaultトークン↑を直接使用可)

  • トークンをコピー

  • CherryStudioのプロバイダ設定を開き、プロバイダリスト最下部の追加をクリック

  • 表示名を入力後、プロバイダでOpenAIを選択し[確定]をクリック

  • コピーしたキーを入力

  • API Key取得ページに戻り、ブラウザのアドレスバーからルートアドレスをコピー(例):

https://xxx.xxx.com のみをコピーし、"/"以降の内容は不要
  • IP+ポートのアドレス時は http://IP:ポート 形式(例: http://127.0.0.1:3000)

  • httpとhttpsを厳密に区別(SSL未設定の場合はhttpsを使用不可)

  • モデルを追加([管理]で自動取得/手動入力)し右上トグルを有効化

OneAPIのテーマによってインターフェースが異なる場合がありますが、追加手順は上記と同様です。

ModelScope MCPサーバー追加

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

ModelScope MCPサーバーの追加

ModelScope MCPサーバーを利用するには、Cherry Studio を v1.2.9 以上にアップグレードしてください。

v1.2.9 バージョンでは、Cherry Studio が ModelScope 魔搭 との公式提携を実現し、MCPサーバー追加の操作手順が大幅に簡素化されました。これにより設定ミスの防止が可能となり、ModelScope コミュニティで膨大な MCPサーバーを発見できます。以下では、Cherry Studio で ModelScope の MCPサーバーを同期する手順をご説明します。

操作手順

同期入口:

設定内の MCPサーバー設定をクリックし、サーバーを同期 を選択します。

MCPサービスを発見:

ModelScope を選択し、MCPサービスを閲覧・発見します。

MCPサーバー詳細を確認:

ModelScope に登録・ログイン後、MCPサービスの詳細を確認します。

サーバーに接続:

MCPサービス詳細画面で、サービスに接続 を選択します。

APIトークンを申請・貼り付け:

Cherry Studio で APIを取得 トークンをクリックし、ModelScope 公式サイトにリダイレクトします。APIトークンをコピーし、Cherry Studio に戻って貼り付けます。

同期完了:

Cherry Studio の MCPサーバーリストで、ModelScope 接続済みの MCPサービスが表示され、会話中に呼び出せます。

増分更新:

ModelScope ウェブサイトで後から新たに接続する MCPサーバーは、サーバーを同期 をクリックするだけで増分的に追加できます。

この手順で、Cherry Studio で ModelScope 上の MCPサーバーを簡単に同期する方法を習得しました。設定プロセスが大幅に簡略化され、手動設定の複雑さや潜在エラーを回避し、ModelScope コミュニティの豊富な MCPサーバーリソースをシームレスに活用できるようになります。

これらの強力な MCPサービスを探索して活用し、Cherry Studio の使用体験にさらなる利便性と可能性をもたらしましょう!

MCP設定と使用

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

MCPの設定と使用方法

  1. Cherry Studioの設定を開く

  2. MCPサーバーオプションを探す

  3. サーバーを追加をクリック

  4. MCP Serverの関連パラメータを入力(参考リンク)。入力が必要な内容:

    • 名前:任意の名前(例:fetch-server)

    • タイプ:STDIOを選択

    • コマンド:uvxと入力

    • パラメータ:mcp-server-fetchと入力

    • (他のパラメータが存在する場合もあり、具体的なServerによる)

  5. 保存をクリック

上記設定完了後、Cherry Studioは自動的に必要なMCP Server - fetch serverをダウンロードします。ダウンロード完了後、使用を開始できます。注意:mcp-server-fetchの設定が成功しない場合、PCの再起動をお試しください。

チャットボックスでMCPサービスを有効化

  • MCPサーバー設定でMCPサーバーの追加に成功

使用効果のデモ

上図から分かるように、MCPのfetch機能を組み合わせることで、Cherry Studioはユーザーのクエリ意図をより良く理解し、ウェブから関連情報を取得して、より正確で包括的な回答を提供できます。

阿里云百炼

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

阿里云百炼

  1. 阿里云百炼にログインしてください。アカウントをお持ちでない場合は登録が必要です。

  2. 右上の 创建我的 API-KEY ボタンをクリックしてください。

    阿里云百炼:APIキーの作成
  3. ポップアップウィンドウで、デフォルトの業務スペースを選択します(カスタマイズも可能です)。必要に応じて説明を入力できます。

    阿里云百炼:APIキー作成のポップアップ
  4. 右下の 确定 ボタンをクリックしてください。

    阿里云百炼:APIキーの入力
  5. リストに新規行が追加されるので、右側の 查看 ボタンをクリックしてください。

    阿里云百炼:APIキーの確認
  6. 复制 ボタンをクリックします。

    阿里云百炼:APIキーのコピー
  7. Cherry Studioで 设置 → 模型服务 → 阿里云百炼 を選択し、API 密钥 欄にコピーしたAPIキーを貼り付けます。

    阿里云百炼:APIキーの入力
  8. モデルサービスの説明に従って設定を調整し、使用を開始してください。

モデルリストに阿里云百炼のモデルが表示されない場合は、モデルサービスの説明に従ってモデルを追加し、このプロバイダーを有効化しているか確認してください。

Vertex AI

暂时不支持Claude模型

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

Vertex AI

チュートリアル概要

1. API Keyの取得

  • GeminiのAPI Keyを取得する前に、Google Cloudプロジェクトが必要です(既にお持ちの場合はこの手順をスキップ可)

  • Google Cloudでプロジェクトを作成し、プロジェクト名を入力して「プロジェクトを作成」をクリック

  • Vertex AIコンソールにアクセス

  • 作成したプロジェクトでVertex AI APIを有効化

2. APIアクセス権限の設定

  • サービスアカウント権限ページでサービスアカウントを作成

  • サービスアカウント管理ページで作成したアカウントを選択し、「鍵」をクリックして新規JSON形式鍵を作成

  • 作成成功後、鍵ファイルがJSON形式で自動的にPCに保存されます。必ず安全に保管してください

3. Cherry StudioでVertex AIを設定

  • Vertex AIプロバイダを選択

  • JSONファイルの対応するフィールドに入力

モデルを追加をクリックすると、すぐに使い始められます!

埋め込みモデルリファレンス

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。


icon: cherries

埋め込みモデル参考情報

エラーを防ぐため、本文書では一部のモデルについてmax input値を厳密な上限値ではなく参考値として記載しています。例:公式が「8k」と公表している場合(具体的数値未公表時)、本文書では8191や8000などの参考値を設定しています。(理解不能な場合は無視し、ドキュメント記載の参考値を使用してください)

火山-豆包

モデル名
max input

阿里

モデル名
max input

OpenAI

モデル名
max input

百度

モデル名
max input

智谱

モデル名
max input

混元

モデル名
max input

百川

モデル名
max input

together

モデル名
max input

Jina

モデル名
max input

硅基流动

モデル名
max input

Gemini

モデル名
max input

nomic

モデル名
max input

console

モデル名
max input

cohere

モデル名
max input

クイックアシスタント

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

クイックアシスタント

クイックアシスタントは、Cherry Studio が提供する便利なツールです。あらゆるアプリケーション内からAI機能に素早くアクセスし、即時質問、翻訳、要約、解説などの操作を可能にします。

クイックアシスタントの有効化

  1. 設定を開く: 設定 > ショートカット > クイックアシスタントに移動します。

  2. トグルを有効化: クイックアシスタントの対応するボタンをオンにします。

  1. ショートカットキーの設定(任意):

    • Windows デフォルト: Ctrl + E

    • macOS デフォルト: ⌘ + E

    • 競合の回避や使用習慣に合わせてカスタマイズ可能です。

クイックアシスタントの使用方法

  1. 呼び出し: 任意のアプリケーションで設定済みのショートカットキー(またはデフォルト)を押します。

  2. 操作: クイックアシスタントウィンドウで直接実行可能な操作:

    • クイック質問: AIに任意の質問

    • テキスト翻訳: 翻訳対象テキストの入力

    • コンテンツ要約: 長文テキストの要約

    • 概念説明: 説明が必要な概念や用語の入力

  3. 終了: ESCキーを押すか、ウィンドウ外をクリックします。

使用されるモデルはです。

ヒントとテクニック

  • ショートカットキーの競合: 他アプリケーションと競合する場合は変更推奨

  • 機能の探索: ドキュメント記載機能以外に、コード生成やスタイル変換などが可能な場合があります

  • フィードバック: 問題発生時や改善提案はCherry Studioチームへしてください

無問芯穹

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

Infinite Core

以下の経験はありませんか:WeChatに保存した26本の有益記事はその後開かれることがなく、PCに散らばる「学習資料」フォルダ内の10以上のファイル、半年前に読んだ理論を探したいのに数個のキーワードしか覚えていない。そして日々の情報量が脳の処理限界を超えると、貴重な知識の90%が72時間以内に忘却されます。 今、Infinite Core大規模モデルプラットフォームAPI + Cherry Studioで構築する個人ナレッジベースなら、WeChat記事や断片的な教材を構造化知識に変換し、精密な呼び出しを実現できます。

一、個人ナレッジベース構築

1. Infinite Core APIサービス:「思考中枢」として使いやすく安定

ナレッジベースの「思考中枢」として、Infinite Core大規模モデルプラットフォームはDeepSeek R1フルスペック版などのモデルを提供し、安定したAPIサービスを提供。現在登録後は無条件・無料で利用可能。主流の埋め込みモデルbge・jinaモデルでのナレッジベース構築をサポートし、プラットフォームは最新・最強のオープンソースモデルサービスを継続的に更新。画像・動画・音声などマルチモーダル対応。

2. Cherry Studio:ノーコードで構築可能

Cherry Studioは使いやすいAIツール。RAGナレッジベース開発に1~2ヶ月かかるのに対し、本ツールはノーコード操作を特長。Markdown/PDF/Webページなどをワンクリックでインポート可能(40MBファイルは1分で解析)。PCのローカルフォルダ・WeChat保存記事URL・講義ノートも追加可能です。

二、3ステップで専属ナレッジマネージャーを構築

Step 1:基本準備

  1. Cherry Studio公式サイトからOS対応版をダウンロード(https://cherry-ai.com/)

  2. アカウント登録:Infinite Core大規模モデルプラットフォームにログイン(https://cloud.infini-ai.com/genstudio/model?cherrystudio)

  • APIキー取得:「モデル広場」でdeepseek-r1を選択→作成クリックでAPIKEYを生成→モデル名をコピー

Step 2:CherryStudio設定で「モデルサービス」にInfinite Coreを選択し、APIキーを入力して有効化

上記完了後、使用時に大規模モデルを選択すればCherryStudioからInfinite Core APIを利用可能。 利便性向上のため「デフォルトモデル」設定を推奨

Step 3:ナレッジベース追加

Infinite Coreプラットフォームの埋め込みモデルからbgeシリーズまたはjinaシリーズの任意バージョンを選択

三、実ユーザーシナリオ検証

  • 学習資料インポート後、「『機械学習』第3章の核心公式導出を整理」と入力

▼生成結果例

Doubao-embedding

4095

Doubao-embedding-vision

8191

Doubao-embedding-large

4095

text-embedding-v3

8192

text-embedding-v2

2048

text-embedding-v1

2048

text-embedding-async-v2

2048

text-embedding-async-v1

2048

text-embedding-3-small

8191

text-embedding-3-large

8191

text-embedding-ada-002

8191

Embedding-V1

384

tao-8k

8192

embedding-2

1024

embedding-3

2048

hunyuan-embedding

1024

Baichuan-Text-Embedding

512

M2-BERT-80M-2K-Retrieval

2048

M2-BERT-80M-8K-Retrieval

8192

M2-BERT-80M-32K-Retrieval

32768

UAE-Large-v1

512

BGE-Large-EN-v1.5

512

BGE-Base-EN-v1.5

512

jina-embedding-b-en-v1

512

jina-embeddings-v2-base-en

8191

jina-embeddings-v2-base-zh

8191

jina-embeddings-v2-base-de

8191

jina-embeddings-v2-base-code

8191

jina-embeddings-v2-base-es

8191

jina-colbert-v1-en

8191

jina-reranker-v1-base-en

8191

jina-reranker-v1-turbo-en

8191

jina-reranker-v1-tiny-en

8191

jina-clip-v1

8191

jina-reranker-v2-base-multilingual

8191

reader-lm-1.5b

256000

reader-lm-0.5b

256000

jina-colbert-v2

8191

jina-embeddings-v3

8191

BAAI/bge-m3

8191

netease-youdao/bce-embedding-base_v1

512

BAAI/bge-large-zh-v1.5

512

BAAI/bge-large-en-v1.5

512

Pro/BAAI/bge-m3

8191

text-embedding-004

2048

nomic-embed-text-v1

8192

nomic-embed-text-v1.5

8192

gte-multilingual-base

8192

embedding-query

4000

embedding-passage

4000

embed-english-v3.0

512

embed-english-light-v3.0

512

embed-multilingual-v3.0

512

embed-multilingual-light-v3.0

512

embed-english-v2.0

512

embed-english-light-v2.0

512

embed-multilingual-v2.0

256

公式モデル情報
公式モデル情報
公式モデル情報
公式モデル情報
公式モデル情報
公式モデル情報
公式モデル情報
公式モデル情報
公式モデル情報
公式モデル情報
公式モデル情報
公式モデル情報
公式モデル情報
公式モデル情報
グローバルデフォルトチャットモデル
フィードバック
クイックアシスタント有効化の図
クイックアシスタントインターフェースの図

Tavily 接続ガイド

如何注册tavily?

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

tavilyインターネット接続のログイン・登録チュートリアル

一、tavily公式サイト

https://app.tavily.com/home

アクセスが遅い場合があります。プロキシをお持ちの方は、プロキシの使用をお試しください。

二、tavily登録詳細手順

上記公式サイトにアクセスするか、cherry studioの[設定]→[ネットワーク検索]→[APIキーを取得]をクリックすると、tavilyのログイン/登録ページに直接ジャンプします。

初めてご利用の場合は、まず(Sign up)でアカウントを登録してから、ログイン(Log in)して使用してください。デフォルトではログインページにジャンプします。

  1. [アカウント登録]をクリックし、以下の画面で普段使っているメールアドレスを入力するか、Google/GitHubアカウントで登録し、次のステップでパスワードを設定します(通常の手順です)。

アカウント登録
  1. 🚨🚨🚨【重要ステップ】 登録成功後、動的認証コードのステップが発生します。QRコードをスキャンしてワンタイムコードを生成する必要があります。

このステップでつまずく方が多いです。慌てずに...

解決方法は2つあります:

  1. Microsoft製の認証アプリ「Authenticator」をダウンロード【やや面倒】

  2. WeChatミニプログラム「腾讯身份验证器(Tencent認証ツール)」を使用【簡単・おすすめ】

  1. WeChatミニプログラムで「腾讯身份验证器」を検索

WeChatミニプログラムで検索→クリックして開く
開いた後、tavilyページのQRコードをスキャン
数字列が表示されます
tavilyページにコピー&ペースト
バックアップコードを安全な場所に保存するよう指示があります(忘れずに保存)

三、🎉登録成功🎉

上記手順完了後、以下の画面が表示されれば登録成功です。APIキーをコピーしてcherry studioに貼り付ければ、すぐに使い始められます。

Ollama

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

Ollama

Ollamaは優れたオープンソースツールで、ローカル環境で様々な大規模言語モデル(LLMs)を簡単に実行・管理できます。Cherry StudioはOllamaとの統合をサポートし、使い慣れたインターフェースからローカルにデプロイされたLLMと直接対話可能。クラウドサービスへの依存が不要です!

Ollamaとは?

Ollamaは大規模言語モデル(LLM)のデプロイメントと使用を簡素化するツールです。主な特徴:

  • ローカル実行: モデルは完全にローカルマシン上で動作し、ネットワーク接続不要、プライバシーとデータセキュリティを保護

  • 簡単操作: シンプルなコマンドライン指令で様々なLLMのダウンロード・実行・管理が可能

  • 豊富なモデル: Llama 2、Deepseek、Mistral、Gemmaなど人気オープンソースモデルを多数サポート

  • クロスプラットフォーム: macOS、Windows、Linuxシステムに対応

  • オープンAPI: OpenAI互換インターフェースをサポートし、他のツールとの統合が可能

Cherry StudioでOllamaを使う理由

  • クラウドサービス不要: クラウドAPIの制限や費用から解放され、ローカルLLMの強力な機能を満喫

  • データプライバシー: 全ての対話データがローカルに保存され、プライバシー漏洩の心配なし

  • オフライン利用可能: ネットワーク接続がない環境でもLLMとの対話を継続可能

  • カスタマイズ性: ニーズに応じて最適なLLMを選択・設定可能

Cherry StudioでのOllama設定方法

1. Ollamaのインストールと実行

まずコンピューターにOllamaをインストールし実行する必要があります:

  • Ollamaのダウンロード: Ollama公式サイト(https://ollama.com/)にアクセスし、OSに合わせてインストーラーをダウンロード Linux環境では次のコマンドで直接インストール可能:

    curl -fsSL https://ollama.com/install.sh | sh
  • Ollamaのインストール: インストーラーの指示に従ってインストール完了

  • モデルのダウンロード: ターミナルでollama runコマンドを使用し、必要なモデルをダウンロード 例:Llama 3.2モデルをダウンロードする場合:

    ollama run llama3.2

    Ollamaが自動的にモデルをダウンロード・実行します

  • Ollamaの実行状態維持: Cherry StudioでOllamaモデルを使用する間は、Ollamaが実行状態であることを確認してください

2. Cherry StudioへのOllamaプロバイダー追加

次に、OllamaをカスタムAIプロバイダーとして追加:

  • 設定を開く: Cherry Studioインターフェース左側ナビゲーションバーの「設定」(歯車アイコン)をクリック

  • モデルサービスへ移動: 設定ページで「モデルサービス」タブを選択

  • プロバイダーを追加: リスト中のOllamaをクリック

3. Ollamaプロバイダーの設定

追加したOllamaプロバイダーを詳細設定:

  1. 有効状態:

    • Ollamaプロバイダー右端のスイッチがオン(有効状態)であることを確認

  2. APIキー:

    • OllamaはデフォルトでAPIキーを必要としません。このフィールドは空欄のまま、または任意の内容を入力可

  3. APIアドレス:

    • Ollamaが提供するローカルAPIアドレスを入力。通常は次のアドレス:

      http://localhost:11434/

      ポート番号を変更した場合は適宜修正

  4. キープアライブ時間: セッションの保持時間を分単位で設定。設定時間内に新しい対話がない場合、Cherry Studioは自動的にOllamaとの接続を切断しリソースを解放

  5. モデル管理:

    • 「+ 追加」ボタンをクリックし、Ollamaでダウンロード済みのモデル名を手動入力

    • 例:ollama run llama3.2でllama3.2モデルをダウンロードした場合、ここにllama3.2と入力

    • 「管理」ボタンで追加済みモデルの編集・削除が可能

使い始め

上記設定完了後、Cherry StudioのチャットインターフェースでOllamaプロバイダーとダウンロード済みモデルを選択し、ローカルLLMとの対話を開始できます!

テクニックとヒント

  • モデル初回実行時: 初めて特定のモデルを実行する場合、Ollamaはモデルファイルをダウンロードするため時間がかかります。しばらくお待ちください

  • 利用可能モデルの確認: ターミナルでollama listコマンドを実行すると、ダウンロード済みOllamaモデルを一覧表示可能

  • ハードウェア要件: 大規模言語モデルの実行には相当な計算リソース(CPU、メモリ、GPU)が必要です。お使いのコンピューターがモデル要件を満たしていることを確認ください

  • Ollamaドキュメント: 設定ページのOllamaドキュメントとモデルを表示リンクをクリックすると、Ollama公式ドキュメントに直接アクセス可能

オンラインモード

如何在 Cherry Studio 使用联网模式

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

オンラインモード

ネットワーク接続が必要なシナリオの例:

  • 最新情報:今日/今週/直近の金先物価格など。

  • リアルタイムデータ:天気、為替レートなどの動的な数値。

  • 新興知識:新しいもの、新概念、新技術など...

1. オンラインへの接続方法

Cherry Studioの質問ウィンドウで、地球のアイコンをクリックするとオンライン機能を開始できます。

2. 特别注意:オンライン機能には二つのモードがあります

モード1:モデルプロバイダーの大規模モデルにデフォルトでオンライン機能が組み込まれている

この場合、オンライン機能を開始するだけで、簡単に利用できます。

質問インターフェースの上部、モデル名の後に小さな地球マークが表示されているかどうかで、そのモデルがオンライン機能をサポートしているかをすばやく判断できます。

モデル管理ページでも、この方法で、どのモデルがオンライン機能をサポートしているか一目でわかります。

現在、Cherry Studioでオンライン機能をサポートしているモデルプロバイダーは以下の通りです

  • Google Gemini

  • OpenRouter(すべてのモデルでオンライン機能をサポート)

  • Tencent Hunyuan

  • Zhipu AI

  • Alibaba Cloud Bailianなど

特別注意: モデルに地球マークがない場合でもオンライン機能が利用できるケースがあります。以下の攻略チュートリアルで説明されています。


モード2:モデルにオンライン機能がなく、Tavilyサービスで実現する

オンライン機能を持たない大規模モデルを使用している場合(名前の後に地球マークがない)、リアルタイム情報を取得したいときにTavilyネットワーク検索サービスが必要です。

初めてTavilyサービスを使用する際、ポップアップが表示され設定を案内します。指示に従って操作してください - 非常に簡単です!

APIキーの取得をクリックすると、自動的にTavily公式サイトのログインページにリダイレクトされます。登録し、ログイン後、APIキーを作成し、そのキーをCherry Studioにコピーしてください。

登録方法がわからない場合は、本ドキュメントの同じディレクトリにあるtavily登録チュートリアルを参照してください。

tavily登録参考ドキュメント:

以下のインターフェイスが表示され、登録成功を示しています。

再度試して効果を確認しましょう。結果は、正常にオンライン検索が行われ、デフォルトで5件の検索結果が取得されています。

注意:Tavilyには毎月の無料利用制限があり、超過すると課金が必要です〜

PS:問題を見つけた場合は、お気軽にお問い合わせください。

華為雲

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

---
icon: cherries
---

# ファーウェイクラウド

一、[ファーウェイクラウド](https://auth.huaweicloud.com/authui/login)でアカウントを作成してログインする

二、[このリンク](https://console.huaweicloud.com/modelarts/?region=cn-southwest-2#/model-studio/homepage)をクリックし、ModelArtsコントロールパネルに進む

三、認可

<details>

<summary>認可手順(既に認可済みの場合はスキップ)</summary>

1. (二)のリンクページに進んだ後、案内に従って認可ページへ進む(IAMサブユーザー → 委託新規作成 → 一般ユーザー)

![](<../../.gitbook/assets/image (49).png>)

2. 作成をクリック後、(二)のリンクページに戻る
3. アクセス権限が不十分な旨が表示されるため、メッセージ内の「ここをクリック」を押す
4. 既存の認可を追加して確定する

![](<../../.gitbook/assets/image (50).png>)

注意:この方法は初心者向けで、内容を深く理解する必要がなく、案内に従ってクリックするだけで完了します。一度で認可を成功させられる場合はご自身の方法で行ってください。

</details>

四、サイドバーの認証管理をクリックし、API Key(シークレットキー)を作成してコピーする

<figure><img src="../../.gitbook/assets/微信截图_20250214034650.png" alt=""><figcaption></figcaption></figure>

続いてCherryStudioで新しいプロバイダーを作成

<figure><img src="../../.gitbook/assets/image (1) (2).png" alt="" width="300"><figcaption></figcaption></figure>

作成完了後、シークレットキーを入力する

五、サイドバーのモデルデプロイメントをクリックし、全てを取得する

<figure><img src="../../.gitbook/assets/微信截图_20250214034751.png" alt=""><figcaption></figcaption></figure>

六、呼び出しをクリック

<figure><img src="../../.gitbook/assets/image (1) (2) (1).png" alt=""><figcaption></figcaption></figure>

①のアドレスをコピーし、CherryStudioのプロバイダーアドレス欄に貼り付け、末尾に「#」を追加

末尾に「#」を追加

末尾に「#」を追加

末尾に「#」を追加

末尾に「#」を追加

「#」を追加する理由は[こちらを参照](https://docs.cherry-ai.com/cherrystudio/preview/settings/providers#api-di-zhi)

> もちろん、そちらを見なくても直接チュートリアル通り操作可能です;
>
> v1/chat/completionsを削除する方法で入力しても構いません。入力方法が分かればご自身の方法で実施してください。分からない場合は必ずチュートリアル通り操作してください。

<figure><img src="../../.gitbook/assets/image (2) (3).png" alt=""><figcaption></figcaption></figure>

次に②のモデル名をコピーし、CherryStudioで「+追加」ボタンをクリックして新規モデルを作成

<figure><img src="../../.gitbook/assets/image (4) (3).png" alt=""><figcaption></figcaption></figure>

モデル名を入力(余計な変更・引用符追加せず、サンプル通りそのまま入力)

<figure><img src="../../.gitbook/assets/image (3) (3).png" alt=""><figcaption></figcaption></figure>

「モデルを追加」ボタンをクリックして完了

{% hint style="info" %}
ファーウェイクラウドでは各モデルのアドレスが異なるため、各モデルごとに新しいプロバイダーを作成する必要があります。上記手順を繰り返し実施してください。
{% endhint %}

クライアントダウンロード

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

現在の最新安定版:v1.4.7-vertex-claude

直接ダウンロードリンク

Windows版

注意:Windows 7 では Cherry Studio のインストールがサポートされていません。

インストーラー版(Setup)

x64版

メインリンク:

【Cherry Studio 公式サイト】 【GitHub】

代替リンク:

【リンク1】 【リンク2】 【リンク3】

ARM64版

メインリンク:

【Cherry Studio 公式サイト】 【GitHub】

代替リンク:

【リンク1】 【リンク2】 【リンク3】

ポータブル版(Portable)

x64版

メインリンク:

【Cherry Studio 公式サイト】 【GitHub】

代替リンク:

【リンク1】 【リンク2】 【リンク3】

ARM64版

メインリンク:

【Cherry Studio 公式サイト】 【GitHub】

代替リンク:

【リンク1】 【リンク2】 【リンク3】


macOS版

Intelチップ版(x64)

メインリンク:

【Cherry Studio 公式サイト】 【GitHub】

代替リンク:

【リンク1】 【リンク2】 【リンク3】

Apple Silicon版(ARM64,Mシリーズチップ)

メインリンク:

【Cherry Studio 公式サイト】 【GitHub】

代替リンク:

【リンク1】 【リンク2】 【リンク3】


Linux版

x86_64版

メインリンク:

【Cherry Studio 公式サイト】 【GitHub】

代替リンク:

【リンク1】 【リンク2】 【リンク3】

ARM64版

メインリンク:

【Cherry Studio 公式サイト】 【GitHub】

代替リンク:

【リンク1】 【リンク2】 【リンク3】


クラウドストレージからのダウンロード

Quark

地球アイコンをクリック - オンライン接続を開始
表示 - オンライン機能が有効化されました
ポップアップで「設定へ」をクリック
APIキーを取得をクリック
キーをコピー
キーを貼り付け、完了
火山引擎接続設定
Tavily 接続ガイド

Cherry Studio 商用ライセンス契約

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

Cherry Studio ライセンス契約書

本契約書に定義されるCherry Studioの素材(一部または全部)を利用または配布することにより、利用者は本契約の内容を承諾し、本契約は直ちに発効するものと見なされます。

一. 定義

  1. 本Cherry Studioライセンス契約(以下「契約」)は、素材の利用、複製、配布および変更に関する条項を定義します。

  2. 「当社」(または「弊社」)とは、上海千彗科技有限公司を指します。

  3. 「利用者」(または「貴社」)とは、本契約で付与される権利を行使し、および/またはあらゆる目的および利用分野で素材を使用する自然人または法人を指します。

  4. 「第三者」とは、当社または利用者のいずれとも支配関係にない個人または法人を指します。

  5. 「Cherry Studio」とは、本ソフトウェアスイートを指し、[例:コアライブラリ、エディタ、プラグイン、サンプルプロジェクト]を含みますがこれらに限定されず、ソースコード、ドキュメント、サンプルコードおよび当社が配布する上記要素で構成されます。(実際の構成に基づき詳細を記述)

  6. 「素材」とは、上海千彗科技有限公司の専有物であるCherry Studioとドキュメント(その一部を含む)の総称で、本契約に基づき提供されるものを指します。

  7. 「ソース形式」とは、変更を加えるのに最適な形式を指し、ソースコード、ドキュメントソースファイル、設定ファイルなどを含みますがこれらに限定されません。

  8. 「ターゲット形式」とは、ソース形式を機械変換または翻訳して生成される形式を指し、コンパイル済みオブジェクトコード、生成ドキュメント、他メディアタイプへ変換した形式などを含みますがこれらに限定されません。

  9. 「商用利用」とは、直接的または間接的な商業的利益または優位性を目的とする利用を指し、販売、ライセンス、サブスクリプション、広告、マーケティング、トレーニング、コンサルティングサービスなどを含みますがこれらに限定されません。

  10. 「改変」とは、アプリケーション名、ロゴ、コード、機能、インターフェースなどを含みますがこれらに限定されない、素材のソース形式に対する変更、調整、派生物作成または二次開発を指します。

二. 権利の付与

  1. 無償商用利用(未改変コードに限定):当社は、当社が保有する素材に組み込まれた知的財産権その他の権利に基づき、非独占的、全世界規模、譲渡不可、ロイヤリティフリーのライセンスを付与します。これにより利用者は、未改変の素材を商用利用を含め利用、複製、配布、コピーできますが、本契約の条項に従う必要があります。

  2. 商用ライセンス(必要な場合):第3条「商用ライセンス」の条件を満たす場合、利用者は本契約の権利を行使するために当社から明示的な書面による商用ライセンスを取得する必要があります。

三. 商用ライセンス

以下のいずれかに該当する場合、利用者はCherry Studio素材を引き続き使用する前に当社に連絡し明示的な書面による商用ライセンスを取得する必要があります:

  1. 改変と派生物:Cherry Studio素材を改変、または素材に基づいた派生物を開発する場合(アプリケーション名、ロゴ、コード、機能、インターフェースなどの変更を含む)。

  2. 企業向けサービス:利用者の組織内、または企業顧客に対してCherry Studioベースのサービスを提供し、かつ10人以上の累積ユーザーをサポートする場合。

  3. ハードウェア同梱販売:Cherry Studioをハードウェアデバイスまたは製品にプリインストール/統合して同梱販売する場合。

  4. 政府/教育機関の大規模調達:利用シーンが政府または教育機関の大規模調達プロジェクトであり、特にセキュリティ、データプライバシーなどの機密性の高い要件を含む場合。

  5. 公開クラウドサービス:Cherry Studioを基盤に公衆向けクラウドサービスを提供する場合。

四. 再配布

利用者は未改変の素材コピーを配布、または未改変素材を含む製品/サービスの一部として提供できます(ソース形式またはターゲット形式)。ただし以下の条件を満たす必要があります:

  1. 素材の受領者全員に本契約のコピーを提供すること。

  2. 配布する全素材コピーに以下の帰属表示を保持し、「NOTICE」または類似のテキストファイルに記載すること: "Cherry Studio is licensed under the Cherry Studio LICENSE AGREEMENT, Copyright (c) 上海千彗科技有限公司. All Rights Reserved."

五. 利用規則

  1. 素材は輸出規制の対象となる可能性があります。利用者は素材を使用する際に適用される法令を遵守する責任があります。

  2. 素材またはその出力結果を使用して配布/提供されるソフトウェアまたはモデルを作成/訓練/微調整/改善する場合、関連製品ドキュメントに「Built with Cherry Studio」または「Powered by Cherry Studio」を明示することを推奨します。

六. 知的財産権

  1. 当社は素材および当社が作成した派生物に関する全知的財産権の所有権を留保します。本契約の条項に従うことを条件に、利用者が作成した素材の改変物/派生物の知的財産権帰属は商用ライセンス契約で定めます。商用ライセンスを取得せずに作成した改変物/派生物の所有権は利用者に帰属せず、当社が保有します。

  2. 商号、商標、サービスロゴ、製品名の使用は、本契約の通知義務履行または素材の合理的な説明/再配布に必要な範囲を除き、一切認められません。

  3. 素材/その出力の全体または一部が利用者またはライセンサーの知的財産権を侵害すると主張する訴訟/法的手続きを提起した場合、本契約に基づく全ライセンスは当該手続開始時点で終了します。

七. 免責事項および責任制限

  1. 当社はCherry Studio素材のサポート、更新、トレーニング提供、バージョンアップ開発義務を負いません。

  2. 素材は「現状有姿」で提供され、商品性、非侵害性、特定目的適合性の黙示的保証を含む一切の保証を伴いません。素材およびその出力の安全性/安定性について保証せず、一切の責任を負いません。

  3. いかなる場合も、素材(またはその出力)の使用/不能使用に起因する損害(直接的/間接的/特別損害または結果損害を含む)について一切の責任を負いません。

  4. 利用者の素材使用/配布に起因する第三者からの請求から当社を防御し、賠償責任を負います。

八. 存続期間および終了

  1. 本契約は利用者が契約を承諾または素材にアクセスした時点で効力を生じ、本契約の条項に基づき終了するまで有効です。

  2. 契約条項に違反した場合、当社は本契約を終了できます。契約終了後は直ちに素材の使用を停止する必要があります。第7条、第9条および「二. コントリビューター契約」は終了後も効力を有します。

九. 準拠法および管轄

  1. 本契約および本契約に起因する紛争は中華人民共和国法の適用を受けます。

  2. 本契約に起因する紛争については上海市人民法院が専属的管轄権を有します。

保存先変更

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

デフォルトの保存場所

Cherry Studio のデータ保存はシステム仕様に従い、データはユーザーディレクトリ下に自動的に保存されます。具体的なディレクトリの場所は以下の通りです:

macOS: /Users/username/Library/Application Support/CherryStudioDev

Windows: C:\Users\username\AppData\Roaming\CherryStudio

Linux: /home/username/.config/CherryStudio

以下の場所でも確認できます:

保存場所の変更(参考用)

方法1:

シンボリックリンクを作成することで実現できます。ソフトウェアを終了し、データを保存したい場所に移動した後、元の場所に移動先を指すリンクを作成します。

具体的な操作手順はこちらを参照してください:https://github.com/CherryHQ/cherry-studio/issues/621#issuecomment-2588652880

方法2: Electron アプリの特性を利用し、起動パラメータの設定で保存場所を変更します。

--user-data-dir 例: Cherry-Studio-*-x64-portable.exe --user-data-dir="%user_data_dir%"

実行例:

PS D:\CherryStudio> dir


    ディレクトリ: D:\CherryStudio


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:05                user-data-dir
-a----         2025/4/14     23:05       94987175 Cherry-Studio-1.2.4-x64-portable.exe
-a----         2025/4/18     14:05            701 init_cherry_studio.bat

init_cherry_studio.bat (encoding: ANSI)

@title CherryStudio 初期化
@echo off

set current_path_dir=%~dp0
@echo 現在のパス:%current_path_dir%
set user_data_dir=%current_path_dir%user-data-dir
@echo CherryStudio データパス:%user_data_dir%

@echo カレントパスで Cherry-Studio-*-portable.exe を検索中
setlocal enabledelayedexpansion

for /f "delims=" %%F in ('dir /b /a-d "Cherry-Studio-*-portable*.exe" 2^>nul') do ( #このコードは、GitHubおよび公式サイトからダウンロードしたバージョンに適応します。その他の場合はご自身で修正してください
    set "target_file=!cd!\%%F"
    goto :break
)
:break
if defined target_file (
    echo ファイルを検出: %target_file%
) else (
    echo 該当ファイルが見つかりません、スクリプトを終了します
    pause
    exit
)

@echo 続行するには確認してください
pause

@echo CherryStudio を起動します
start %target_file% --user-data-dir="%user_data_dir%"

@echo 操作が完了しました
@echo on
exit

user-data-dir ディレクトリの初期化後構造:

PS D:\CherryStudio> dir .\user-data-dir\


    ディレクトリ: D:\CherryStudio\user-data-dir


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:29                blob_storage
d-----         2025/4/18     14:07                Cache
d-----         2025/4/18     14:07                Code Cache
d-----         2025/4/18     14:07                Data
d-----         2025/4/18     14:07                DawnGraphiteCache
d-----         2025/4/18     14:07                DawnWebGPUCache
d-----         2025/4/18     14:07                Dictionaries
d-----         2025/4/18     14:07                GPUCache
d-----         2025/4/18     14:07                IndexedDB
d-----         2025/4/18     14:07                Local Storage
d-----         2025/4/18     14:07                logs
d-----         2025/4/18     14:30                Network
d-----         2025/4/18     14:07                Partitions
d-----         2025/4/18     14:29                Session Storage
d-----         2025/4/18     14:07                Shared Dictionary
d-----         2025/4/18     14:07                WebStorage
-a----         2025/4/18     14:07             36 .updaterId
-a----         2025/4/18     14:29             20 config.json
-a----         2025/4/18     14:07            434 Local State
-a----         2025/4/18     14:29             57 Preferences
-a----         2025/4/18     14:09           4096 SharedStorage
-a----         2025/4/18     14:30            140 window-state.json

PPIO 派欧雲

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

PPIO パイオー・クラウド

Cherry Studio × PPIO LLM API 接続ガイド

​チュートリアル概要

Cherry Studio はマルチモデル対応のデスクトップクライアントで、Windows、Linux、MacOS 各プラットフォーム向けに提供されています。主要LLMモデルを統合し、多彩なシナリオをサポートするAIアシスタントです。インテリジェントなチャット管理、オープンソースカスタマイズ、マルチテーマUIで生産性を向上させます。

Cherry Studio は現在 PPIO 高性能APIチャネルと正式連携——エンタープライズ級のコンピューティングリソースにより DeepSeek-R1/V3の高速応答と99.9%のサービス可用性を実現し、スムーズなユーザー体験を提供します。

以下のチュートリアルではAPIキーの設定を含む完全な統合手順を解説します。「Cherry Studioインテリジェント制御+PPIO高性能API」の進化版を3分で構築可能です。

​1. Cherry Studioで「PPIO」をプロバイダーとして追加

公式サイトからCherry Studioをダウンロード:https://cherry-ai.com/download(アクセスできない場合はQuarkクラウドリンクを利用:https://pan.quark.cn/s/c8533a1ec63e#/list/share)

(1)左下の設定アイコンをクリックし、プロバイダー名をPPIOと入力 →「確定」

(2)パイオー算力雲 APIキー管理にアクセス →【ユーザーアイコン】→【APIキー管理】でコンソール画面へ

【+作成】をクリックし、APIキー名を入力します。生成されたキーはその場でのみ表示されるため、必ずコピーして保存してください

(3)Cherry Studioでキーを登録:設定画面で【PPIO パイオー・クラウド】を選択し、生成したAPIキーを入力 →【チェック】

(4)モデル選択:例として「deepseek/deepseek-r1/community」を選択(他モデルへ切り替える場合は直接変更可能)

DeepSeek R1/V3 community版は全パラメーター対応の無料体験版です(性能・安定性は有料版と同じ)。継続利用の場合は課金後に非community版へ切り替えが必要です。

​2. モデル利用設定

(1)【チェック】で接続成功を確認後、正常使用可能に

(2)最後に【@】をクリック → PPIOプロバイダー配下のDeepSeek R1モデルを選択 → チャット開始!

【参考素材:陳恩】

​3. PPIO × Cherry Studio 動画チュートリアル

ビジュアル学習をご希望の場合はBilibili動画をご利用ください。「PPIO API+Cherry Studio」の設定手法を手順解説:→ 《【DeepSeekがクルクル回ってイライラする?】PPIO+DeepSeek フルスペック版 = 渋滞解消,爆速起動》

【動画素材提供:sola】

SearXNG セルフホスティング設定

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

SearXNG のデプロイと設定

CherryStudio は SearXNG を介したウェブ検索をサポートしています。SearXNG はローカル環境またはサーバーにデプロイ可能なオープンソースプロジェクトであるため、APIプロバイダーを必要とする他の設定方法とは異なります。

SearXNG プロジェクトリンク:

SearXNG の利点

  • オープンソースで無料、API不要

  • 比較的高いプライバシー性

  • 高度なカスタマイズが可能

ローカルデプロイ

一、Docker を使用した直接デプロイ

SearXNG は複雑な環境設定を必要としないため、docker compose を使用せずに空いているポートを提供するだけでデプロイできます。最も迅速な方法は Docker を使用して直接イメージをプルしデプロイすることです。

1. のダウンロードとインストール

インストール後にイメージ保存パスを選択:

2. SearXNG イメージの検索とプル

検索バーに searxng と入力:

イメージをプル:

3. イメージの実行

プル後、images ページに移動:

プルしたイメージを選択して実行:

設定を開いて構成:

8085 ポートを例に:

実行成功後にリンクをクリックすると SearXNG のフロントエンドインターフェースが開きます:

このページが表示されればデプロイ成功:

サーバーデプロイ

Windows に Docker をインストールするのは面倒なため、ユーザーは SearXNG をサーバーにデプロイし、他の人と共有することも可能です。ただし、残念ながら SearXNG 自体は現在認証をサポートしていないため、技術的手段であなたがデプロイしたインスタンスをスキャンして悪用される可能性があります。

このため、Cherry Studio は現在 の設定をサポートしています。デプロイした SearXNG を公網環境に公開する場合は、必ず Nginx などのリバースプロキシソフトウェアで HTTP基本認証を設定してください。基本的な Linux 運用知識が必要ですが、以下に簡単なチュートリアルを提供します。

SearXNG のデプロイ

同様に、Docker を使用してデプロイします。サーバーに最新の Docker CE をに従ってインストール済みと仮定し、Debian システムでの新規インストール向けのワンステップコマンドを提供します:

ローカルリスニングポートの変更や既存の nginx の再利用が必要な場合は、docker-compose.yaml ファイルを編集してください。参考例:

docker compose up -d を実行して起動します。docker compose logs -f searxng でログを確認できます。

Nginx リバースプロキシと HTTP基本認証のデプロイ

宝塔パネルや1Panelなどのサーバーパネルを使用している場合は、ドキュメントを参照してサイトを追加し、nginxリバースプロキシを設定した後、nginx設定ファイルを修正してください。 以下の例を参考に修正します:

Nginx設定ファイルが/etc/nginx/conf.dに保存されていると仮定し、パスワードファイルを同じディレクトリに保存します。

コマンドを実行(example_name、example_passwordを設定するユーザー名とパスワードに置き換え):

Nginxを再起動(設定のリロードでも可)。

ウェブページを開くと、ユーザー名とパスワードの入力が求められます。設定したユーザー名とパスワードを入力して、SearXNG検索ページに正常にアクセスできるか確認してください。

Cherry Studio の関連設定

SearXNGをローカルまたはサーバーにデプロイしたら、CherryStudioの関連設定を行います。

ネットワーク検索設定ページでSearxngを選択:

ローカルデプロイのリンクを入力すると検証が失敗しますが、問題ありません:

直接デプロイ後、デフォルトではjson戻り型が設定されていないため、データを取得できません。設定ファイルを修正する必要があります。

Dockerに戻り、Filesタブでタグ付きフォルダを探します:

展開後、別のタグ付きフォルダを探します:

さらに展開し、settings.yml設定ファイルを見つけます:

ファイルエディターを開く:

78行目を見ると、タイプがhtmlのみです:

jsonタイプを追加して保存し、イメージを再実行:

Cherry Studioに戻って検証すると成功します:

アドレスはローカル: :ポート番号 またはDockerアドレス: :ポート番号 が使用可能です。

前述の例に従ってサーバーにデプロイし、リバースプロキシを正しく設定し、json戻り型を有効にしている場合、アドレスを入力して検証すると、HTTP基本認証が設定されているため401エラーコードが返されます:

クライアント側でHTTP基本認証を設定し、設定したユーザー名とパスワードを入力します:

検証を実行すると成功します。

その他の設定

これでSearXNGはデフォルトのネットワーク検索能力を備えています。検索エンジンのカスタマイズが必要な場合は各自設定してください。

ここでのプリファレンス設定は、大規模モデル呼び出し時の設定には影響しないことに注意してください。

大規模モデル呼び出し用の検索エンジンを設定するには、設定ファイルで設定する必要があります:

設定言語のリファレンス:

内容が長すぎて直接編集が不便な場合は、ローカルのIDEにコピーし、修正後に設定ファイルに貼り付けることができます。

検証失敗の一般的な原因

json形式が追加されていない

設定ファイルで戻り形式にjsonを追加します:

検索エンジンの設定が正しくない

Cherry Studio はデフォルトで categories に web general を含むエンジンを選択し、デフォルトでは google などのエンジンを選択します。大陸では google などのサイトに直接アクセスできないため失敗します。以下の設定を追加することで searxng が強制的に baidu エンジンを使用するようになり、問題が解決します:

アクセス速度が速すぎる

searxng の limiter 設定が API アクセスを妨げるため、設定で false に設定してください:

カスタムプロバイダー

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

カスタムプロバイダー

Cherry Studio は主要なAIモデルサービスを統合しているだけでなく、強力なカスタマイズ機能も提供します。カスタムAIプロバイダー機能を使用することで、必要なあらゆるAIモデルを簡単に接続できます。

なぜカスタムAIプロバイダーが必要なのか?

  • 柔軟性: 事前設定されたプロバイダーリストに制限されず、ニーズに最適なAIモデルを自由に選択可能

  • 多様性: 様々なプラットフォームのAIモデルを試し、それぞれの特徴を活用できる

  • 制御性: APIキーやアクセスアドレスを直接管理し、セキュリティとプライバシーを確保

  • カスタマイズ性: プライベートデプロイメントのモデルを接続し、特定の業務要件に対応

カスタムAIプロバイダーの追加方法

Cherry StudioにカスタムAIプロバイダーを追加するのは簡単な数ステップで完了します:

  1. 設定を開く: Cherry Studioの左サイドバーで「設定」(歯車アイコン)をクリック

  2. モデルサービスに移動: 設定ページで「モデルサービス」タブを選択

  3. プロバイダーを追加: 「モデルサービス」ページで既存プロバイダーリストを確認し、下部の「+追加」ボタンクリック

  4. 情報を入力: ポップアップで以下の情報を入力:

    • プロバイダー名: 識別しやすい名前(例:MyCustomOpenAI)

    • プロバイダータイプ: ドロップダウンから選択(現在対応:OpenAI, Gemini, Anthropic, Azure OpenAI)

  5. 設定を保存: 「追加」ボタンをクリックして設定を保存

カスタムAIプロバイダーの設定

追加後、リストからプロバイダーを選択して詳細設定を実施:

  1. 有効化状態: リスト右端のトグルスイッチでサービスの有効/無効を切り替え

  2. APIキー:

    • AIプロバイダーから提供されたAPIキーを入力

    • 右側の「チェック」ボタンでキーの有効性を確認

  3. APIアドレス:

    • AIサービスのベースURLを入力

    • 公式ドキュメントを参照し正確なアドレスを入力

  4. モデル管理:

    • 「+追加」ボタンで使用したいモデルIDを入力(例:gpt-3.5-turbo, gemini-pro)

    • モデル名が不明な場合は公式ドキュメントを参照

    • 「管理」ボタンで既存モデルの編集・削除を実施

利用開始

上記設定完了後、チャットインターフェースでカスタムAIプロバイダーとモデルを選択し、AIとの対話を開始できます!

vLLMをカスタムAIプロバイダーとして使用

vLLMはOllamaのような高速で使いやすいLLM推論ライブラリです。Cherry Studioとの統合手順:

  1. vLLMをインストール: 公式ドキュメント()に従いインストール

  2. vLLMサービスを起動: OpenAI互換インターフェースで起動(2種類の方法):

    • vllm.entrypoints.openai.api_serverでの起動

    • uvicornでの起動

    デフォルトポート8000で起動を確認(--portパラメータでポート変更可)

  3. Cherry StudioにvLLMプロバイダーを追加:

    • 前述の手順で新規プロバイダーを追加

    • プロバイダー名: vLLM

    • プロバイダータイプ: OpenAIを選択

  4. vLLMプロバイダーを設定:

    • APIキー: vLLMはキー不要なので空欄または任意の値を入力

    • APIアドレス: vLLMサービスのアドレス(例:http://localhost:8000/)

    • モデル管理: vLLMでロードしたモデル名を入力(例:gpt2)

  5. 対話開始: vLLMプロバイダーとモデルを選択し、LLMとの対話を開始

ヒントとテクニック

  • ドキュメントを精読: プロバイダー追加前に公式ドキュメントでAPIキー・アドレス・モデル名を確認

  • APIキーチェック: 「チェック」ボタンでキーの有効性を検証

  • APIアドレス注意: プロバイダーやモデルによりアドレスが異なるので正確に入力

  • モデル選択: 実際に使用するモデルのみ追加し、無用な追加を避ける

pip install vllm # pipを使用する場合
uv pip install vllm # uvを使用する場合
python -m vllm.entrypoints.openai.api_server --model gpt2
vllm --model gpt2 --served-model-name gpt2
https://docs.vllm.ai/en/latest/getting_started/quickstart.html
sudo apt update
sudo apt install git -y

# 公式リポジトリをクローン
cd /opt
git clone https://github.com/searxng/searxng-docker.git
cd /opt/searxng-docker

# サーバーの帯域幅が小さい場合は false に設定可能
export IMAGE_PROXY=true

# 設定ファイルを編集
cat <<EOF > /opt/searxng-docker/searxng/settings.yml
# see https://docs.searxng.org/admin/settings/settings.html#settings-use-default-settings
use_default_settings: true
server:
  # base_url is defined in the SEARXNG_BASE_URL environment variable, see .env and docker-compose.yml
  secret_key: $(openssl rand -hex 32)
  limiter: false  # can be disabled for a private instance
  image_proxy: $IMAGE_PROXY
ui:
  static_use_hash: true
redis:
  url: redis://redis:6379/0
search:
  formats:
    - html
    - json
EOF
version: "3.7"

services:
# Caddy が必要なく、既存の Nginx を再利用する場合は以下を削除
  caddy:
    container_name: caddy
    image: docker.io/library/caddy:2-alpine
    network_mode: host
    restart: unless-stopped
    volumes:
      - ./Caddyfile:/etc/caddy/Caddyfile:ro
      - caddy-data:/data:rw
      - caddy-config:/config:rw
    environment:
      - SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}
      - SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}
    cap_drop:
      - ALL
    cap_add:
      - NET_BIND_SERVICE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"
# Caddy が必要なく、既存の Nginx を再利用する場合は以上を削除
  redis:
    container_name: redis
    image: docker.io/valkey/valkey:8-alpine
    command: valkey-server --save 30 1 --loglevel warning
    restart: unless-stopped
    networks:
      - searxng
    volumes:
      - valkey-data2:/data
    cap_drop:
      - ALL
    cap_add:
      - SETGID
      - SETUID
      - DAC_OVERRIDE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

  searxng:
    container_name: searxng
    image: docker.io/searxng/searxng:latest
    restart: unless-stopped
    networks:
      - searxng
    # ホストの8080ポートにマッピング。8000ポートをリスンしたい場合は "127.0.0.1:8000:8080" に変更
    ports:
      - "127.0.0.1:8080:8080"
    volumes:
      - ./searxng:/etc/searxng:rw
    environment:
      - SEARXNG_BASE_URL=https://${SEARXNG_HOSTNAME:-localhost}/
      - UWSGI_WORKERS=${SEARXNG_UWSGI_WORKERS:-4}
      - UWSGI_THREADS=${SEARXNG_UWSGI_THREADS:-4}
    cap_drop:
      - ALL
    cap_add:
      - CHOWN
      - SETGID
      - SETUID
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

networks:
  searxng:

volumes:
# Caddy が必要なく、既存の Nginx を再利用する場合は以下を削除
  caddy-data:
  caddy-config:
# Caddy が必要なく、既存の Nginx を再利用する場合は以上を削除
  valkey-data2:
server
{
    listen 443 ssl;

    # ホスト名
    server_name search.example.com;

    # index index.html;
    # root /data/www/default;

    # SSL設定がある場合
    ssl_certificate    /path/to/your/cert/fullchain.pem;
    ssl_certificate_key    /path/to/your/cert/privkey.pem;

    # HSTS
    # add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload";

    # パネルでリバースプロキシを設定すると、デフォルトでlocationブロックは以下のようになる
    location / {
        # locationブロックに以下の2行を追加し、他はそのままに
        # 設定ファイルが/etc/nginx/conf.d/に保存されていると仮定
        # 宝塔パネルの場合は/wwwなどのディレクトリに保存されるため注意
        auth_basic "ユーザー名とパスワードを入力してください";
        auth_basic_user_file /etc/nginx/conf.d/search.htpasswd;

        proxy_http_version 1.1;
        proxy_set_header Connection "";
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Forwarded-For $proxy_protocol_addr;
        proxy_pass http://127.0.0.1:8000;
        client_max_body_size 0;
    }

    # access_log  ...;
    # error_log  ...;
}
echo "example_name:$(openssl passwd -5 'example_password')" > /etc/nginx/conf.d/search.htpasswd
use_default_settings:
  engines:
    keep_only:
      - baidu
engines:
  - name: baidu
    engine: baidu 
    categories: 
      - web
      - general
    disabled: false
SearXNG
docker
HTTP基本認証(RFC7617)
公式チュートリアル
http://localhost
http://host.docker.internal

Obsidian 設定ガイド

数据设置→Obsidian配置

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

Obsidian 設定チュートリアル

Cherry StudioはObsidianとの連携をサポートしており、完全な会話または単一の会話をObsidianライブラリにエクスポートできます。

このプロセスでは追加のObsidianプラグインをインストールする必要はありません。ただし、Cherry StudioからObsidianへのインポートはObsidian Web Clipperと同様の原理を使用しているため、会話が長すぎるとインポートに失敗する可能性を避けるために、Obsidianを最新バージョンにアップグレードすることをお勧めします(現在のObsidianバージョンは少なくとも1.7.2より大きい必要があります)。

最新チュートリアル

旧バージョンのObsidianへのエクスポートと比較して、新バージョンのObsidianへのエクスポート機能ではライブラリパスを自動的に選択できるようになり、ライブラリ名やフォルダ名を手動で入力する必要がなくなりました。

ステップ1: Cherry Studioの設定

Cherry Studioの_設定_ → データ設定 → _Obsidian設定_メニューを開きます。ドロップダウンボックスには、ローカルで開いたことがあるObsidianライブラリ名が自動的に表示されます。目標とするObsidianライブラリを選択してください:

ステップ2: 会話のエクスポート

完全な会話をエクスポート

Cherry Studioの会話インターフェースに戻り、会話を右クリックして_エクスポート_を選択し、_Obsidianにエクスポート_をクリックします:

ポップアップウィンドウが表示され、Obsidianにエクスポートするこの会話ノートの Properties(属性)、Obsidian内のフォルダ位置、およびエクスポート時の処理方法を調整できます:

  • Vault(保管庫): ドロップダウンメニューをクリックして他のObsidianライブラリを選択できます

  • Path(パス): ドロップダウンメニューをクリックしてエクスポートされた会話ノートを保存するフォルダを選択できます

  • Obsidianノートのプロパティ(Properties)として:

    • タグ(tags)

    • 作成時間(created)

    • 出典(source)

  • Obsidianへのエクスポートにおける処理方法には、以下の3つのオプションがあります:

    • 新規作成(存在する場合は上書き): Pathで指定したフォルダに新しい会話ノートを作成し、同じ名前のノートが存在する場合は古いノートを上書きします

    • 先頭に追加: 同じ名前のノートが既に存在する場合、選択した会話内容をエクスポートしてそのノートの先頭に追加します

    • 末尾に追加: 同じ名前のノートが既に存在する場合、選択した会話内容をエクスポートしてそのノートの末尾に追加します

プロパティ(属性)が付帯するのは最初の方法のみで、後の2つの方法ではプロパティ(属性)が付帯しません。

ノートプロパティの設定
パスの選択
処理方法の選択

すべてのオプションを選択したら、「確定」をクリックすると、完全な会話が対応するObsidianライブラリの対応フォルダにエクスポートされます。

単一会話をエクスポート

単一会話をエクスポートするには、会話の下にある_三本線メニュー_をクリックし、_エクスポート_を選択して、_Obsidianにエクスポート_をクリックします:

単一会話をエクスポート

その後、完全な会話をエクスポートする場合と同じウィンドウがポップアップし、ノートプロパティとノートの処理方法を設定するよう求められます。同じく上記のチュートリアルに従って完了してください。

エクスポート成功

🎉 これで、Cherry StudioとObsidianの連携設定がすべて完了し、エクスポート手順を最初から最後まで実行しました。お楽しみください!

Obsidianにエクスポート
エクスポート結果を表示

旧チュートリアル(Cherry Studio<v1.1.13 用)

ステップ1: Obsidianの準備

Obsidianライブラリを開き、エクスポートされた会話を保存するためのフォルダを作成します(図ではCherry Studioフォルダを例としています):

左下角に枠で囲まれたテキストに注意してください。これがあなたの保管庫名です。

ステップ2: Cherry Studioの設定

Cherry Studioの_設定_ → データ設定 → _Obsidian設定_メニューで、ステップ1で取得した保管庫名とフォルダ名を入力します:

グローバルタグはオプションで、すべての会話をエクスポートした後、Obsidian内でのタグを設定できます。必要に応じて記入してください。

ステップ3: 会話のエクスポート

完全な会話をエクスポート

Cherry Studioの会話インターフェースに戻り、会話を右クリックして_エクスポート_を選択し、_Obsidianにエクスポート_をクリックします。

完全な会話をエクスポート

ポップアップウィンドウが表示され、Obsidianにエクスポートするこの会話ノートの Properties(属性)とエクスポート時の処理方法を調整できます。Obsidianへのエクスポートにおける処理方法には、以下の3つのオプションがあります:

  • 新規作成(存在する場合は上書き): ステップ2で指定したフォルダに新しい会話ノートを作成し、同じ名前のノートが存在する場合は古いノートを上書きします

  • 先頭に追加: 同じ名前のノートが既に存在する場合、選択した会話内容をエクスポートしてそのノートの先頭に追加します

  • 末尾に追加: 同じ名前のノートが既に存在する場合、選択した会話内容をエクスポートしてそのノートの末尾に追加します

ノートプロパティの設定

プロパティ(属性)が付帯するのは最初の方法のみで、後の2つの方法ではプロパティ(属性)が付帯しません。

単一会話をエクスポート

単一会話をエクスポートするには、会話の下にある_三本線メニュー_をクリックし、_エクスポート_を選択して、_Obsidianにエクスポート_をクリックします。

単一会話をエクスポート

その後、完全な会話をエクスポートする場合と同じウィンドウがポップアップし、ノートプロパティとノートの処理方法を設定するよう求められます。同じく上記のチュートリアルに従って完了してください。

エクスポート成功

🎉 これで、Cherry StudioとObsidianの連携設定がすべて完了し、エクスポート手順を最初から最後まで実行しました。お楽しみください!

Obsidianにエクスポート
エクスポート結果を表示

よくある質問

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

よくある質問

よくあるエラーコード

  • 4xx(クライアントエラーステータスコード):一般的にリクエスト構文エラー、認証失敗、認証エラーなどでリクエストを完了できません。

  • 5xx(サーバーエラーステータスコード):一般的にサーバー側のエラーで、サーバーダウン、リクエスト処理のタイムアウトなどが発生します。

エラーコード
想定される状況
解決策

コンソールエラーの確認方法

  • Cherry Studioクライアントウィンドウをアクティブにした状態でショートカットCtrl+Shift+I(Mac:Command+Option+I)

  • コンソール起動にはCherry Studioクライアントウィンドウがアクティブである必要があります;

  • リクエスト情報取得には、テスト/対話開始前にコンソールを起動しておく必要があります。

  • 起動したコンソールでNetwork → 赤×表示の最後のcompletions(対話/翻訳/モデルチェック時のエラー) またはgenerations(画像生成エラー) を選択 → Responseタブで完全なレスポンスを確認(図④のエリア)。

エラー原因が不明な場合は、該当画面のスクリーンショットを へ送信し支援を依頼してください。

この方法は対話時だけでなく、モデルテスト・ナレッジベース追加・画像生成などでも有効です。いずれの場合もデバッグウィンドウ起動後にリクエスト操作を行う必要があります。

シナリオによりName欄(図②)の名称が異なります:

対話/翻訳/モデルチェック:completions

画像生成:generations

ナレッジベース作成:embeddings


数式がレンダリングされない/レンダリングエラー

  • 数式コードが直接表示される場合、デリミタの有無を確認

デリミタ利用ガイド

インライン数式

  • 単一ドル記号:$数式$

  • または \( と \):例 \(数式\)

独立数式ブロック

  • 二重ドル記号:$$数式$$

  • または \[数式\]

  • 例:$$\sum_{i=1}^n x_i$$

  • 数式レンダリングエラー/文字化けは中国語を含む場合に頻発。数式エンジンをKateXに切り替えてください。


ナレッジベース作成不可/埋め込み次元取得失敗

  1. モデル利用不可

プロバイダーがモデルをサポートしているか、およびサービスの正常性を確認してください。

  1. 非埋め込みモデルの使用


モデルが画像認識不可/画像選択・アップロード不可

最初にモデルが画像認識に対応しているか確認します。人気モデルはCherry Studioが自動分類し、モデル名横の👁️アイコンが画像認識対応を示します。

画像認識モデルは画像アップロードをサポートします。モデル分類が誤っている場合は、該当プロバイダーのモデルリストで対象モデル名横の設定ボタンから「画像」オプションを有効化してください。

モデル詳細は各プロバイダーの情報ページで確認できます。埋め込みモデルと同様、画像非対応モデルで画像オプションを有効化しても効果はありません。

400

リクエストボディの形式エラーなど

対話が返したエラー内容を確認、またはコンソールでエラー内容を確認し、指示に従って操作してください。

【よくある状況1】:Geminiモデルの場合、カード登録が必要な可能性があります; 【よくある状況2】:データ容量超過(画像モデルで頻発)。画像サイズがプロバイダーの単一リクエスト上限を超えた場合に発生; 【よくある状況3】:非対応パラメータ追加またはパラメータ入力ミス。新しいアシスタントで再テストを推奨; 【よくある状況4】:コンテキスト制限超過。コンテキスト消去、新規対話作成、コンテキスト件数削減で対応。

401

認証失敗:非対応モデルまたはサーバーアカウント停止など

該当プロバイダーのアカウント状態を確認

403

操作権限なし

対話が返したエラー情報またはコンソールエラーに従って対応

404

リクエストリソースが見つからない

リクエストパスなどを確認

422

リクエスト形式は正しいが意味的にエラー

サーバーが解釈可能だが処理不能なケース(例:空値必須箇所でのnull、文字列必須箇所での数値/ブール値入力など)

429

リクエストレート制限到達

TPM/RPM上限到達。一時休止後に再試行

500

サーバー内部エラーでリクエスト完了不能

継続発生時はプロバイダーに連絡

501

サーバーがリクエスト機能をサポートせず

502

ゲートウェイ/プロキシサーバーが無効なアップストリーム応答を受信

503

過負荷/メンテナンス中のため一時的に処理不可。再試行タイミングはRetry-Afterヘッダー参照

504

ゲートウェイ/プロキシサーバーがアップストリームから応答を時間内に受信できず

∑i=1nxi\sum_{i=1}^n x_i∑i=1n​xi​
公式交流グループ

主要モデルリファレンス

このドキュメントはAIによって中国語から翻訳されており、まだレビューされていません。

共通モデル参照情報

  • 以下の情報は参考用です。誤りがある場合は修正依頼可能ですが、一部モデルはサービスプロバイダによりコンテキストサイズや仕様が異なる場合があります

  • クライアント入力時には「k」を実際の値に変換する必要があります(理論上 1k=1024 tokens; 1m=1024k tokens)。例:8k は 8×1024=8192 tokens。実際の使用時にはエラー防止のため×1000とすることを推奨します(例:8k→8×1000=8000, 1m→1×1000000=1000000)

  • 最大出力が「-」のモデルは公式から明確な最大出力情報が確認できなかったものです

モデル名
最大入力
最大出力
関数呼び出し
モデル能力
サービス提供元
概要

360gpt-pro

8k

-

非対応

対話

360AI_360gpt

360智脳シリーズで最高性能の主力千億パラメータ大規模モデル。各分野の複雑タスクに広く適用

360gpt-turbo

7k

-

非対応

対話

360AI_360gpt

性能と効果を両立した百億パラメータモデル。性能/コスト要件が高い場面に適する

360gpt-turbo-responsibility-8k

8k

-

非対応

対話

360AI_360gpt

性能と効果を両立した百億パラメータモデル。性能/コスト要件が高い場面に適する

360gpt2-pro

8k

-

非対応

対話

360AI_360gpt

360智脳シリーズで最高性能の主力千億パラメータ大規模モデル。各分野の複雑タスクに広く適用

claude-3-5-sonnet-20240620

200k

16k

非対応

対話,画像認識

Anthropic_claude

2024年6月20日リリースのスナップショット版。Claude 3.5 Sonnetは性能と速度のバランスを実現し、高速性を保ちつつトップクラスの性能を提供。マルチモーダル入力対応

claude-3-5-haiku-20241022

200k

16k

非対応

対話

Anthropic_claude

2024年10月22日リリースのスナップショット版。Claude 3.5 Haikuはコーディング、ツール使用、推論など全技能を向上。Anthropicシリーズ最速モデルとして高速応答を実現し、ユーザー向けチャットボットやリアルタイムコード補完など高インタラクティブ性・低遅延が求められるアプリケーションに最適。データ抽出やリアルタイムコンテンツ審査でも優れた性能を示す汎用ツール。画像入力非対応

claude-3-5-sonnet-20241022

200k

8K

非対応

対話,画像認識

Anthropic_claude

2024年10月22日リリースのスナップショット版。Claude 3.5 SonnetはOpusを超える能力を提供しながらSonnetより高速で同じ価格帯を維持。特にプログラミング、データサイエンス、ビジュアル処理、エージェントタスクに優れる

claude-3-5-sonnet-latest

200K

8k

非対応

対話,画像認識

Anthropic_claude

最新版Claude 3.5 Sonnetを動的に指すモデル。プログラミング、データサイエンス、ビジュアル処理、エージェントタスクに特に優れ、常に最新バージョンを指す

claude-3-haiku-20240307

200k

4k

非対応

対話,画像認識

Anthropic_claude

Anthropic最速・最コンパクトモデル。即時応答を実現。高速かつ正確な指向性性能を持つ

claude-3-opus-20240229

200k

4k

非対応

対話,画像認識

Anthropic_claude

Anthropicの高度複雑タスク処理用最強モデル。性能、知能、流暢さ、理解力で卓越

claude-3-sonnet-20240229

200k

8k

非対応

対話,画像認識

Anthropic_claude

2024年2月29日スナップショット版。Sonnetは特に以下に優れる: - コーディング:自律的なコード記述・編集・実行、推論とトラブルシューティング能力 - データサイエンス:人間の専門知識強化。多様なツールによる洞察取得時に非構造化データを処理可能 - ビジュアル処理:チャート・グラフ・画像の解釈に優れ、洞察を得るための正確なテキスト転記が可能 - エージェントタスク:優れたツール使用能力(他システムとの連携が必要な複数ステップの問題解決タスク)

google/gemma-2-27b-it

8k

-

非対応

対話

Google_gamma

Google開発の軽量最先端オープンモデルファミリー。Geminiモデルと同じ研究技術を採用。英語対応デコーダー型大規模言語モデル。プレトレーニング・指示チューニング変種をオープンウェイト提供。質問応答、要約、推論など多様なテキスト生成タスクに適用

google/gemma-2-9b-it

8k

-

非対応

対話

Google_gamma

Google開発の軽量最先端オープンモデルシリーズ。英語対応デコーダー型大規模言語モデル。オープンウェイト、プレトレーン変種と指示チューニング変種を提供。質問応答、要約、推論など多様なテキスト生成タスクに適用。8兆tokensで学習

gemini-1.5-pro

2m

8k

非対応

対話

Google_gemini

Gemini 1.5 Pro 最新安定版。強力なマルチモーダルモデル。6万行コードまたは2,000ページテキストを処理可能。複雑な推論タスクに特に適する

gemini-1.0-pro-001

33k

8k

非対応

対話

Google_gemini

Gemini 1.0 Pro 安定版。NLPモデルとして多輪テキスト/コードチャット・コード生成タスクを専門処理。2025年2月15日廃止予定(1.5シリーズ移行推奨)

gemini-1.0-pro-002

32k

8k

非対応

対話

Google_gemini

Gemini 1.0 Pro 安定版。NLPモデルとして多輪テキスト/コードチャット・コード生成タスクを専門処理。2025年2月15日廃止予定(1.5シリーズ移行推奨)

gemini-1.0-pro-latest

33k

8k

非対応

対話,廃止予定

Google_gemini

Gemini 1.0 Pro 最新版。NLPモデルとして多輪テキスト/コードチャット・コード生成タスクを専門処理。2025年2月15日廃止予定(1.5シリーズ移行推奨)

gemini-1.0-pro-vision-001

16k

2k

非対応

対話

Google_gemini

Gemini 1.0 Pro 画像版。2025年2月15日廃止予定(1.5シリーズ移行推奨)

gemini-1.0-pro-vision-latest

16k

2k

非対応

画像認識

Google_gemini

Gemini 1.0 Pro 画像最新版。2025年2月15日廃止予定(1.5シリーズ移行推奨)

gemini-1.5-flash

1m

8k

非対応

対話,画像認識

Google_gemini

Gemini 1.5 Flash 最新安定版。バランス型マルチモーダルモデル。音声、画像、動画、テキスト入力を処理可能

gemini-1.5-flash-001

1m

8k

非対応

対話,画像認識

Google_gemini

Gemini 1.5 Flash 安定版。gemini-1.5-flashと同等の基本機能を提供するがバージョン固定で本番環境に適す

gemini-1.5-flash-002

1m

8k

非対応

対話,画像認識

Google_gemini

Gemini 1.5 Flash 安定版。gemini-1.5-flashと同等の基本機能を提供するがバージョン固定で本番環境に適す

gemini-1.5-flash-8b

1m

8k

非対応

対話,画像認識

Google_gemini

Gemini 1.5 Flash-8BはGoogle最新のマルチモーダルAIモデル。大規模タスク効率的処理向け設計。80億パラメータでテキスト、画像、音声、動画入力対応。チャット、文字起こし、翻訳など多様なシナリオ適用可能。他のGeminiモデル比で速度とコスト効率を最適化しコスト重視ユーザーに最適。レート制限2倍化により大規模タスク効率処理実現。「知識蒸留(ナレッジディスティレーション)」技術でより大規模モデルから核心知識を抽出し、中核能力維持・軽量化・効率化を両立

gemini-1.5-flash-exp-0827

1m

8k

非対応

対話,画像認識

Google_gemini

Gemini 1.5 Flash 試験版。最新改良を定期的に反映。探索的テスト・プロトタイプ開発向け(本番環境非推奨)

gemini-1.5-flash-latest

1m

8k

非対応

対話,画像認識

Google_gemini

Gemini 1.5 Flash 最先端版。最新改良を定期的に反映。探索的テスト・プロトタイプ開発向け(本番環境非推奨)

gemini-1.5-pro-001

2m

8k

非対応

対話,画像認識

Google_gemini

Gemini 1.5 Pro 安定版。固定モデル動作・性能特性を提供。安定性が必要な本番環境に適す

gemini-1.5-pro-002

2m

8k

非対応

対話,画像認識

Google_gemini

Gemini 1.5 Pro 安定版。固定モデル動作・性能特性を提供。安定性が必要な本番環境に適す

gemini-1.5-pro-exp-0801

2m

8k

非対応

対話,画像認識

Google_gemini

Gemini 1.5 Pro 試験版。強力なマルチモーダルモデル。6万行コードまたは2,000ページテキストを処理可能。複雑な推論タスクに特に適する

gemini-1.5-pro-exp-0827

2m

8k

非対応

対話,画像認識

Google_gemini

Gemini 1.5 Pro 試験版。強力なマルチモーダルモデル。6万行コードまたは2,000ページテキストを処理可能。複雑な推論タスクに特に適する

gemini-1.5-pro-latest

2m

8k

非対応

対話,画像認識

Google_gemini

Gemini 1.5 Pro 最新版。最新スナップショットを動的に指す

gemini-2.0-flash

1m

8k

非対応

対話,画像認識

Google_gemini

Gemini 2.0 FlashはGoogle最新モデル。1.5版に比べ初回応答時間(TTFT)短縮し、Gemini Pro 1.5相当品質を維持。マルチモーダル理解、コード能力、複雑指令実行、関数呼び出しを向上させ、より滑潤で強力な知能体験を提供

gemini-2.0-flash-exp

100k

8k

対応

対話,画像認識

Google_gemini

Gemini 2.0 Flash はマルチモーダルリアルタイムAPI導入、速度・性能向上、品質向上、エージェント能力強化、画像生成と音声変換機能追加

gemini-2.0-flash-l

Logo
Logo