Ollama

Ollama は優れたオープンソースツールで、ローカルでさまざまな大規模言語モデル(LLM)を簡単に実行・管理できます。Cherry Studio は現在 Ollama 統合をサポートしており、親しみのあるインターフェースでクラウドサービスに依存せずにローカルにデプロイされた LLM と直接やり取りできます!

Ollama とは?

Ollama は大規模言語モデル(LLM)のデプロイと利用を簡素化するツールです。以下の特徴があります:

  • ローカル実行: モデルは完全にローカルのコンピュータ上で動作し、ネット接続を必要とせず、プライバシーとデータの安全を保護します。

  • シンプルで使いやすい: 簡単なコマンドライン操作で、さまざまな LLM をダウンロード・実行・管理できます。

  • 豊富なモデル: Llama 2、Deepseek、Mistral、Gemma などの人気のあるオープンソースモデルをサポートします。

  • クロスプラットフォーム: macOS、Windows、Linux の各システムに対応しています。

  • オープンAPI:OpenAI 互換のインターフェースをサポートし、他のツールと統合できます。

なぜ Cherry Studio で Ollama を使うのか?

  • クラウド不要: クラウド API の使用制限や料金に縛られずに、ローカル LLM の強力な機能を存分に活用できます。

  • データプライバシー: すべての会話データはローカルに保持され、プライバシー漏えいの心配がありません。

  • オフライン利用: ネットワーク接続がない場合でも LLM とやり取りを続けることができます。

  • カスタマイズ可能: ニーズに応じて、最適な LLM を選択・設定できます。

Cherry Studio での Ollama の設定

1. Ollama のインストールと実行

まず、お使いのコンピュータに Ollama をインストールして実行する必要があります。以下の手順に従ってください:

  • Ollama をダウンロード: Ollama の公式サイト(https://ollama.com/)にアクセスし、使用している OS に合ったインストーラをダウンロードしてください。 Linux の場合は、次のコマンドで直接 Ollama をインストールできます:

    curl -fsSL https://ollama.com/install.sh | sh
  • Ollama をインストール: インストーラの指示に従ってインストールを完了してください。

  • モデルをダウンロード: ターミナル(またはコマンドプロンプト)を開き、次の ollama run コマンドで使用したいモデルをダウンロードします。例えば Llama 2 モデルをダウンロードするには、以下を実行します:

    ollama run llama3.2

    Ollama が自動的にそのモデルをダウンロードして実行します。

  • Ollama を実行し続ける: Cherry Studio で Ollama モデルとやり取りする間は、Ollama が動作を続けていることを確認してください。

2. Cherry Studio に Ollama プロバイダーを追加

次に、Cherry Studio に Ollama をカスタム AI プロバイダーとして追加します:

  • 設定を開く: Cherry Studio の画面左側のナビゲーションバーで「設定」(歯車アイコン)をクリックします。

  • モデルサービスに進む: 設定ページで「モデルサービス」タブを選択します。

  • プロバイダーを追加: リストから Ollama をクリックします。

3. Ollama プロバイダーを設定

プロバイダー一覧で先ほど追加した Ollama を見つけ、詳細を設定します:

  1. 有効状態:

    • Ollama プロバイダーの一番右のスイッチがオンになっていることを確認し、有効化されていることを示します。

  2. API キー:

    • Ollama はデフォルトで不要 な API キーです。このフィールドは空のままにするか、任意の値を入力できます。

  3. API アドレス:

    • Ollama が提供するローカル API アドレスを入力してください。通常のアドレスは:

      http://localhost:11434/

      ポートを変更している場合は、適宜修正してください。

  4. アイドル保持時間: このオプションはセッションの維持時間(分)を設定します。設定時間内に新しい会話がなければ、Cherry Studio は自動的に Ollama との接続を切断してリソースを解放します。

  5. モデル管理:

    • 「+ 追加」ボタンをクリックして、Ollama ですでにダウンロードしたモデル名を手動で追加します。

    • 例えば、すでにollama run llama3.2でダウンロードしたllama3.2モデルがある場合、ここに入力できます。llama3.2

    • 「管理」ボタンをクリックすると、追加済みのモデルを編集または削除できます。

使用開始

上記の設定が完了したら、Cherry Studio のチャット画面で Ollama プロバイダーとダウンロード済みのモデルを選択し、ローカル LLM と対話を開始できます!

ヒントと注意点

  • 初回モデル実行時: モデルを初めて実行する際、Ollama はモデルファイルをダウンロードするため時間がかかる場合があります。しばらくお待ちください。

  • 利用可能なモデルを確認: ターミナルで次の ollama list コマンドを実行すると、ダウンロード済みの Ollama モデル一覧を確認できます。

  • ハードウェア要件: 大規模言語モデルの実行には一定の計算リソース(CPU、メモリ、GPU)が必要です。お使いのコンピュータがモデルの要件を満たしていることを確認してください。

  • Ollama ドキュメント:設定ページ内のOllama のドキュメントとモデルを見るリンクをクリックすると、Ollama 公式ドキュメントへ素早く移動できます。

最終更新

役に立ちましたか?