Ollama
Ollama は優れたオープンソースツールで、ローカルでさまざまな大規模言語モデル(LLM)を簡単に実行・管理できます。Cherry Studio は現在 Ollama 統合をサポートしており、親しみのあるインターフェースでクラウドサービスに依存せずにローカルにデプロイされた LLM と直接やり取りできます!
Ollama とは?
Ollama は大規模言語モデル(LLM)のデプロイと利用を簡素化するツールです。以下の特徴があります:
ローカル実行: モデルは完全にローカルのコンピュータ上で動作し、ネット接続を必要とせず、プライバシーとデータの安全を保護します。
シンプルで使いやすい: 簡単なコマンドライン操作で、さまざまな LLM をダウンロード・実行・管理できます。
豊富なモデル: Llama 2、Deepseek、Mistral、Gemma などの人気のあるオープンソースモデルをサポートします。
クロスプラットフォーム: macOS、Windows、Linux の各システムに対応しています。
オープンAPI:OpenAI 互換のインターフェースをサポートし、他のツールと統合できます。
なぜ Cherry Studio で Ollama を使うのか?
クラウド不要: クラウド API の使用制限や料金に縛られずに、ローカル LLM の強力な機能を存分に活用できます。
データプライバシー: すべての会話データはローカルに保持され、プライバシー漏えいの心配がありません。
オフライン利用: ネットワーク接続がない場合でも LLM とやり取りを続けることができます。
カスタマイズ可能: ニーズに応じて、最適な LLM を選択・設定できます。
Cherry Studio での Ollama の設定
1. Ollama のインストールと実行
まず、お使いのコンピュータに Ollama をインストールして実行する必要があります。以下の手順に従ってください:
Ollama をダウンロード: Ollama の公式サイト(https://ollama.com/)にアクセスし、使用している OS に合ったインストーラをダウンロードしてください。 Linux の場合は、次のコマンドで直接 Ollama をインストールできます:
curl -fsSL https://ollama.com/install.sh | shOllama をインストール: インストーラの指示に従ってインストールを完了してください。
モデルをダウンロード: ターミナル(またはコマンドプロンプト)を開き、次の
ollama runコマンドで使用したいモデルをダウンロードします。例えば Llama 2 モデルをダウンロードするには、以下を実行します:ollama run llama3.2Ollama が自動的にそのモデルをダウンロードして実行します。
Ollama を実行し続ける: Cherry Studio で Ollama モデルとやり取りする間は、Ollama が動作を続けていることを確認してください。
2. Cherry Studio に Ollama プロバイダーを追加
次に、Cherry Studio に Ollama をカスタム AI プロバイダーとして追加します:
設定を開く: Cherry Studio の画面左側のナビゲーションバーで「設定」(歯車アイコン)をクリックします。
モデルサービスに進む: 設定ページで「モデルサービス」タブを選択します。
プロバイダーを追加: リストから Ollama をクリックします。

3. Ollama プロバイダーを設定
プロバイダー一覧で先ほど追加した Ollama を見つけ、詳細を設定します:
有効状態:
Ollama プロバイダーの一番右のスイッチがオンになっていることを確認し、有効化されていることを示します。
API キー:
Ollama はデフォルトで不要 な API キーです。このフィールドは空のままにするか、任意の値を入力できます。
API アドレス:
Ollama が提供するローカル API アドレスを入力してください。通常のアドレスは:
http://localhost:11434/ポートを変更している場合は、適宜修正してください。
アイドル保持時間: このオプションはセッションの維持時間(分)を設定します。設定時間内に新しい会話がなければ、Cherry Studio は自動的に Ollama との接続を切断してリソースを解放します。
モデル管理:
「+ 追加」ボタンをクリックして、Ollama ですでにダウンロードしたモデル名を手動で追加します。
例えば、すでに
ollama run llama3.2でダウンロードしたllama3.2モデルがある場合、ここに入力できます。llama3.2「管理」ボタンをクリックすると、追加済みのモデルを編集または削除できます。
使用開始
上記の設定が完了したら、Cherry Studio のチャット画面で Ollama プロバイダーとダウンロード済みのモデルを選択し、ローカル LLM と対話を開始できます!
ヒントと注意点
初回モデル実行時: モデルを初めて実行する際、Ollama はモデルファイルをダウンロードするため時間がかかる場合があります。しばらくお待ちください。
利用可能なモデルを確認: ターミナルで次の
ollama listコマンドを実行すると、ダウンロード済みの Ollama モデル一覧を確認できます。ハードウェア要件: 大規模言語モデルの実行には一定の計算リソース(CPU、メモリ、GPU)が必要です。お使いのコンピュータがモデルの要件を満たしていることを確認してください。
Ollama ドキュメント:設定ページ内の
Ollama のドキュメントとモデルを見るリンクをクリックすると、Ollama 公式ドキュメントへ素早く移動できます。
最終更新
役に立ちましたか?