# モデルデータ

{% hint style="info" %}

* 以下の情報は参考用です。誤りがあればご連絡ください。いくつかのモデルではサービス提供元が異なるため、コンテキストサイズやモデル情報も異なる場合があります。
* クライアントでデータを入力する際は、「k」を実際の数値に変換する必要があります（理論上 1k=1024 tokens、1m=1024k tokens）。たとえば 8k は 8×1024=8192 tokens です。実際の使用時はエラー防止のため ×1000 とするのがおすすめです。たとえば 8k は 8×1000=8000、1m は 1×1000000=1000000 です。
* 最大出力が「-」のものは、公式からそのモデルの明確な最大出力情報が確認できなかったことを示します。
  {% endhint %}

<table><thead><tr><th width="313">モデル名</th><th width="158">最大入力</th><th width="72">最大出力</th><th width="95">関数呼び出し</th><th width="142">モデル能力</th><th width="540">提供元</th><th width="257">概要</th></tr></thead><tbody><tr><td>360gpt-pro</td><td>8k</td><td>-</td><td>非対応</td><td>対話</td><td>360AI_360gpt</td><td>360智脳シリーズで最も性能の高い主力の千億級大規模モデルで、各分野の複雑なタスクシナリオに幅広く適しています。</td></tr><tr><td>360gpt-turbo</td><td>7k</td><td>-</td><td>非対応</td><td>対話</td><td>360AI_360gpt</td><td>性能と効果を両立した百億級大規模モデルで、性能/コスト要件が高いシナリオに適しています。</td></tr><tr><td>360gpt-turbo-responsibility-8k</td><td>8k</td><td>-</td><td>非対応</td><td>対話</td><td>360AI_360gpt</td><td>性能と効果を両立した百億級大規模モデルで、性能/コスト要件が高いシナリオに適しています。</td></tr><tr><td>360gpt2-pro</td><td>8k</td><td>-</td><td>非対応</td><td>対話</td><td>360AI_360gpt</td><td>360智脳シリーズで最も性能の高い主力の千億級大規模モデルで、各分野の複雑なタスクシナリオに幅広く適しています。</td></tr><tr><td>claude-3-5-sonnet-20240620</td><td>200k</td><td>16k</td><td>非対応</td><td>対話,画像認識</td><td>Anthropic_claude</td><td>2024年6月20日にリリースされたスナップショット版。Claude 3.5 Sonnetは性能と速度のバランスに優れたモデルで、高速性を維持しながらトップレベルの性能を提供し、マルチモーダル入力をサポートします。</td></tr><tr><td>claude-3-5-haiku-20241022</td><td>200k</td><td>16k</td><td>非対応</td><td>対話</td><td>Anthropic_claude</td><td>2024年10月22日にリリースされたスナップショット版。Claude 3.5 Haiku は、コーディング、ツール使用、推論などあらゆる技能で向上しています。Anthropic シリーズで最速のモデルとして、迅速な応答時間を提供し、ユーザー向けチャットボットや即時コード補完など、高い対話性と低遅延が求められるアプリケーションに適しています。データ抽出やリアルタイム内容審査などの専門タスクでも優れており、幅広い業界で使える多用途なツールです。画像入力はサポートしていません。</td></tr><tr><td>claude-3-5-sonnet-20241022</td><td>200k</td><td>8K</td><td>非対応</td><td>対話,画像認識</td><td>Anthropic_claude</td><td>2024年10月22日にリリースされたスナップショット版。Claude 3.5 Sonnet は Opus を超える能力と Sonnet より速い速度を提供しつつ、Sonnet と同じ価格を維持します。Sonnet は特にプログラミング、データサイエンス、視覚処理、エージェントタスクに優れています。</td></tr><tr><td>claude-3-5-sonnet-latest</td><td>200K</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Anthropic_claude</td><td>最新の Claude 3.5 Sonnet 版を動的に指します。Claude 3.5 Sonnet は Opus を超える能力と Sonnet より速い速度を提供しつつ、Sonnet と同じ価格を維持します。Sonnet は特にプログラミング、データサイエンス、視覚処理、エージェントタスクに優れており、このモデルは最新バージョンを指します。</td></tr><tr><td>claude-3-haiku-20240307</td><td>200k</td><td>4k</td><td>非対応</td><td>対話,画像認識</td><td>Anthropic_claude</td><td>Claude 3 Haiku は Anthropic の最速かつ最もコンパクトなモデルで、ほぼ即時の応答を目的として設計されています。高速で正確な指向性能を備えています。</td></tr><tr><td>claude-3-opus-20240229</td><td>200k</td><td>4k</td><td>非対応</td><td>対話,画像認識</td><td>Anthropic_claude</td><td>Claude 3 Opus は、Anthropic が高度に複雑なタスク向けに提供する最も強力なモデルです。性能、知能、流暢さ、理解力において卓越しています。</td></tr><tr><td>claude-3-sonnet-20240229</td><td>200k</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Anthropic_claude</td><td>2024年2月29日にリリースされたスナップショット版。Sonnet は特に以下に優れています。<br><br>- コーディング：自律的にコードを作成、編集、実行でき、推論とトラブルシューティング能力も備える<br>- データサイエンス：人間のデータサイエンスの専門知識を強化し、複数のツールで洞察を得る際に非構造化データを処理できる<br>- 視覚処理：図表、グラフ、画像の解釈に優れ、テキストそのものを超えた洞察を得るためにテキストを正確に転写できる<br>- エージェントタスク：ツール使用が優れており、他のシステムとの連携を必要とする複雑な多段階問題解決タスクに最適</td></tr><tr><td>google/gemma-2-27b-it</td><td>8k</td><td>-</td><td>非対応</td><td>対話</td><td>Google_gamma</td><td>Gemma は Google が開発した軽量で最先端のオープンモデル群で、Gemini モデルと同じ研究・技術で構築されています。これらのモデルはデコーダー専用の大規模言語モデルで、英語をサポートし、事前学習版と指示チューニング版の両方のオープンウェイトを提供します。Gemma モデルは、QA、要約、推論など、さまざまなテキスト生成タスクに適しています。</td></tr><tr><td>google/gemma-2-9b-it</td><td>8k</td><td>-</td><td>非対応</td><td>対話</td><td>Google_gamma</td><td>Gemma は Google が開発した軽量で最先端のオープンモデル群の一つです。これはデコーダー専用の大規模言語モデルで、英語をサポートし、オープンウェイト、事前学習版、指示チューニング版を提供します。Gemma モデルは、QA、要約、推論など、さまざまなテキスト生成タスクに適しています。この 9B モデルは 8 兆 tokens で学習されています。</td></tr><tr><td>gemini-1.5-pro</td><td>2m</td><td>8k</td><td>非対応</td><td>対話</td><td>Google_gemini</td><td>Gemini 1.5 Pro の最新安定版です。強力なマルチモーダルモデルとして、最大 6 万行のコードまたは 2,000 ページのテキストを処理できます。特に複雑な推論を要するタスクに適しています。</td></tr><tr><td>gemini-1.0-pro-001</td><td>33k</td><td>8k</td><td>非対応</td><td>対話</td><td>Google_gemini</td><td>これは Gemini 1.0 Pro の安定版です。NLP モデルとして、複数ターンのテキスト/コード対話やコード生成などのタスクに特化しています。このモデルは 2025 年 2 月 15 日に終了予定で、1.5 系列への移行が推奨されます。</td></tr><tr><td>gemini-1.0-pro-002</td><td>32k</td><td>8k</td><td>非対応</td><td>対話</td><td>Google_gemini</td><td>これは Gemini 1.0 Pro の安定版です。NLP モデルとして、複数ターンのテキスト/コード対話やコード生成などのタスクに特化しています。このモデルは 2025 年 2 月 15 日に終了予定で、1.5 系列への移行が推奨されます。</td></tr><tr><td>gemini-1.0-pro-latest</td><td>33k</td><td>8k</td><td>非対応</td><td>対話,廃止済みまたは廃止予定</td><td>Google_gemini</td><td>これは Gemini 1.0 Pro の最新版です。NLP モデルとして、複数ターンのテキスト/コード対話やコード生成などのタスクに特化しています。このモデルは 2025 年 2 月 15 日に終了予定で、1.5 系列への移行が推奨されます。</td></tr><tr><td>gemini-1.0-pro-vision-001</td><td>16k</td><td>2k</td><td>非対応</td><td>対話</td><td>Google_gemini</td><td>これは Gemini 1.0 Pro のビジョン版です。このモデルは 2025 年 2 月 15 日に終了予定で、1.5 系列への移行が推奨されます。</td></tr><tr><td>gemini-1.0-pro-vision-latest</td><td>16k</td><td>2k</td><td>非対応</td><td>画像認識</td><td>Google_gemini</td><td>これは Gemini 1.0 Pro のビジョン最新版です。このモデルは 2025 年 2 月 15 日に終了予定で、1.5 系列への移行が推奨されます。</td></tr><tr><td>gemini-1.5-flash</td><td>1m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>これは Gemini 1.5 Flash の最新安定版です。バランスの取れたマルチモーダルモデルとして、音声、画像、動画、テキスト入力を処理できます。</td></tr><tr><td>gemini-1.5-flash-001</td><td>1m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>これは Gemini 1.5 Flash の安定版です。gemini-1.5-flash と同じ基本機能を提供しますが、バージョン固定で、本番環境での利用に適しています。</td></tr><tr><td>gemini-1.5-flash-002</td><td>1m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>これは Gemini 1.5 Flash の安定版です。gemini-1.5-flash と同じ基本機能を提供しますが、バージョン固定で、本番環境での利用に適しています。</td></tr><tr><td>gemini-1.5-flash-8b</td><td>1m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>Gemini 1.5 Flash-8B は Google が新たにリリースしたマルチモーダル AI モデルで、大規模タスクを効率的に処理するために設計されています。80億パラメータを持ち、テキスト、画像、音声、動画入力をサポートし、チャット、文字起こし、翻訳など多様な用途に適しています。他の Gemini モデルと比べて、Flash-8B は速度とコスト効率を最適化しており、特にコスト重視のユーザーに適しています。レート制限は 2 倍に引き上げられており、開発者は大規模タスクをより効率的に処理できます。さらに、Flash-8B は「知識蒸留」技術を採用し、より大きなモデルから重要な知識を抽出して、核となる能力を維持しつつ軽量かつ高効率を実現しています。</td></tr><tr><td>gemini-1.5-flash-exp-0827</td><td>1m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>これは Gemini 1.5 Flash の実験版で、最新の改善を取り込むため定期的に更新されます。探索的テストやプロトタイプ開発に適していますが、本番環境には推奨されません。</td></tr><tr><td>gemini-1.5-flash-latest</td><td>1m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>これは Gemini 1.5 Flash の最先端版で、最新の改善を取り込むため定期的に更新されます。探索的テストやプロトタイプ開発に適していますが、本番環境には推奨されません。</td></tr><tr><td>gemini-1.5-pro-001</td><td>2m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>これは Gemini 1.5 Pro の安定版で、固定されたモデル挙動と性能特性を提供します。安定性が必要な本番環境での利用に適しています。</td></tr><tr><td>gemini-1.5-pro-002</td><td>2m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>これは Gemini 1.5 Pro の安定版で、固定されたモデル挙動と性能特性を提供します。安定性が必要な本番環境での利用に適しています。</td></tr><tr><td>gemini-1.5-pro-exp-0801</td><td>2m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>Gemini 1.5 Pro の試験版です。強力なマルチモーダルモデルとして、最大 6 万行のコードまたは 2,000 ページのテキストを処理できます。特に複雑な推論を要するタスクに適しています。</td></tr><tr><td>gemini-1.5-pro-exp-0827</td><td>2m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>Gemini 1.5 Pro の試験版です。強力なマルチモーダルモデルとして、最大 6 万行のコードまたは 2,000 ページのテキストを処理できます。特に複雑な推論を要するタスクに適しています。</td></tr><tr><td>gemini-1.5-pro-latest</td><td>2m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>これは Gemini 1.5 Pro の最新版で、最新のスナップショット版を動的に指します。</td></tr><tr><td>gemini-2.0-flash</td><td>1m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>Gemini 2.0 Flash は Google の最新モデルで、1.5 版より初回生成速度（TTFT）が速く、Gemini Pro 1.5 と同等の品質を維持します。マルチモーダル理解、コード能力、複雑な指示の実行、関数呼び出しなどで大幅に向上しており、より滑らかで強力な知的体験を提供できます。</td></tr><tr><td>gemini-2.0-flash-exp</td><td>100k</td><td>8k</td><td>対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>Gemini 2.0 Flash はマルチモーダルのリアルタイム API、速度と性能の改善、品質向上、エージェント能力の強化に加え、画像生成と音声変換機能を追加しています。</td></tr><tr><td>gemini-2.0-flash-lite-preview-02-05</td><td>1M</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>Gemini 2.0 Flash-Lite は Google の最新の高コスパ AI モデルで、1.5 Flash と同じ速度を維持しつつ品質が向上しています。100万 tokens のコンテキストウィンドウをサポートし、画像、音声、コードなどのマルチモーダルタスクを処理できます。現在 Google で最もコスト効率の高いモデルとして、簡略化された単一料金体系を採用しており、コスト管理が重要な大規模アプリケーションに特に適しています。</td></tr><tr><td>gemini-2.0-flash-thinking-exp</td><td>40k</td><td>8k</td><td>非対応</td><td>対話,推論</td><td>Google_gemini</td><td>gemini-2.0-flash-thinking-exp は、応答時に経験する「思考過程」を生成できる実験モデルです。そのため、基本の Gemini 2.0 Flash モデルと比べて、「思考モード」の応答はより強い推論能力を持ちます。</td></tr><tr><td>gemini-2.0-flash-thinking-exp-01-21</td><td>1m</td><td>64k</td><td>非対応</td><td>対話,推論</td><td>Google_gemini</td><td>Gemini 2.0 Flash Thinking EXP-01-21 は Google の最新 AI モデルで、推論能力とユーザー対話体験の向上に重点を置いています。特に数学とプログラミングで優れた強い推論能力を持ち、最大 100 万 token のコンテキストウィンドウをサポートしており、複雑なタスクや深い分析シナリオに適しています。独自の特徴は思考過程を生成できることで AI の思考を理解しやすくし、ネイティブのコード実行もサポートして対話の柔軟性と実用性を高めています。アルゴリズムの最適化により論理矛盾を減らし、回答の正確性と一貫性をさらに向上させています。</td></tr><tr><td>gemini-2.0-flash-thinking-exp-1219</td><td>40k</td><td>8k</td><td>非対応</td><td>対話,推論,画像認識</td><td>Google_gemini</td><td>gemini-2.0-flash-thinking-exp-1219 は、応答時に経験する「思考過程」を生成できる実験モデルです。そのため、基本の Gemini 2.0 Flash モデルと比べて、「思考モード」の応答はより強い推論能力を持ちます。</td></tr><tr><td>gemini-2.0-pro-exp-01-28</td><td>2m</td><td>64k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>事前配置モデル、未公開</td></tr><tr><td>gemini-2.0-pro-exp-02-05</td><td>2m</td><td>8k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>Gemini 2.0 Pro Exp 02-05 は Google が 2024 年 2 月にリリースした最新の実験モデルで、世界知識、コード生成、長文理解で優れた性能を示します。200万 tokens の超長コンテキストウィンドウをサポートし、2 時間の動画、22 時間の音声、6 万行超のコード、140 万語超のコンテンツを処理できます。Gemini 2.0 系列の一部として、新しい Flash Thinking 訓練戦略を採用し、性能が大幅に向上しており、複数の LLM ランキングで上位に位置し、強力な総合能力を示しています。</td></tr><tr><td>gemini-exp-1114</td><td>8k</td><td>4k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>これは実験的モデルで、2024 年 11 月 14 日にリリースされ、主に品質改善に重点を置いています。</td></tr><tr><td>gemini-exp-1121</td><td>8k</td><td>4k</td><td>非対応</td><td>対話,画像認識,コード</td><td>Google_gemini</td><td>これは実験的モデルで、2024 年 11 月 21 日にリリースされ、コーディング、推論、視覚能力が改善されています。</td></tr><tr><td>gemini-exp-1206</td><td>8k</td><td>4k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>これは実験的モデルで、2024 年 12 月 6 日にリリースされ、コーディング、推論、視覚能力が改善されています。</td></tr><tr><td>gemini-exp-latest</td><td>8k</td><td>4k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>これは実験的モデルで、最新バージョンを動的に指します。</td></tr><tr><td>gemini-pro</td><td>33k</td><td>8k</td><td>非対応</td><td>対話</td><td>Google_gemini</td><td>gemini-1.0-pro と同じ。gemini-1.0-pro の別名です。</td></tr><tr><td>gemini-pro-vision</td><td>16k</td><td>2k</td><td>非対応</td><td>対話,画像認識</td><td>Google_gemini</td><td>これは Gemini 1.0 Pro のビジョン版です。このモデルは 2025 年 2 月 15 日に終了予定で、1.5 系列への移行が推奨されます。</td></tr><tr><td>grok-2</td><td>128k</td><td>-</td><td>非対応</td><td>対話</td><td>Grok_grok</td><td>X.ai が 2024.12.12 にリリースした新バージョンの grok モデル。</td></tr><tr><td>grok-2-1212</td><td>128k</td><td>-</td><td>非対応</td><td>対話</td><td>Grok_grok</td><td>X.ai が 2024.12.12 にリリースした新バージョンの grok モデル。</td></tr><tr><td>grok-2-latest</td><td>128k</td><td>-</td><td>非対応</td><td>対話</td><td>Grok_grok</td><td>X.ai が 2024.12.12 にリリースした新バージョンの grok モデル。</td></tr><tr><td>grok-2-vision-1212</td><td>32k</td><td>-</td><td>非対応</td><td>対話,画像認識</td><td>Grok_grok</td><td>X.ai が 2024.12.12 にリリースした grok のビジョン版モデル。</td></tr><tr><td>grok-beta</td><td>100k</td><td>-</td><td>非対応</td><td>対話</td><td>Grok_grok</td><td>性能は Grok 2 と同等ですが、効率、速度、機能が向上しています。</td></tr><tr><td>grok-vision-beta</td><td>8k</td><td>-</td><td>非対応</td><td>対話,画像認識</td><td>Grok_grok</td><td>最新の画像理解モデルで、文書、図表、スクリーンショット、写真などさまざまな視覚情報を処理できます。</td></tr><tr><td>internlm/internlm2_5-20b-chat</td><td>32k</td><td>-</td><td>対応</td><td>対話</td><td>internlm</td><td>InternLM2.5-20B-Chat は、InternLM2 アーキテクチャに基づいて開発されたオープンソースの大規模対話モデルです。200億パラメータを持ち、数学的推論に優れ、同規模の Llama3 や Gemma2-27B モデルを上回ります。InternLM2.5-20B-Chat はツール呼び出し能力が大幅に向上しており、数百のWebページから情報を収集して分析・推論することをサポートし、より強い指示理解、ツール選択、結果の省察能力を備えています。</td></tr><tr><td>meta-llama/Llama-3.2-11B-Vision-Instruct</td><td>8k</td><td>-</td><td>非対応</td><td>対話,画像認識</td><td>Meta_llama</td><td>現在の Llama 系モデルはテキストデータだけでなく画像データも処理できます。Llama 3.2 の一部モデルには視覚理解機能が追加されており、このモデルはテキストと画像データを同時に入力でき、画像を理解してテキスト情報を出力します。</td></tr><tr><td>meta-llama/Llama-3.2-3B-Instruct</td><td>32k</td><td>-</td><td>非対応</td><td>対話</td><td>Meta_llama</td><td>Meta Llama 3.2 の多言語大規模言語モデル（LLM）で、1B、3B はエッジやモバイルデバイスで動作可能な軽量モデルです。本モデルは 3B 版です。</td></tr><tr><td>meta-llama/Llama-3.2-90B-Vision-Instruct</td><td>8k</td><td>-</td><td>非対応</td><td>対話,画像認識</td><td>Meta_llama</td><td>現在の Llama 系モデルはテキストデータだけでなく画像データも処理できます。Llama 3.2 の一部モデルには視覚理解機能が追加されており、このモデルはテキストと画像データを同時に入力でき、画像を理解してテキスト情報を出力します。</td></tr><tr><td>meta-llama/Llama-3.3-70B-Instruct</td><td>131k</td><td>-</td><td>非対応</td><td>対話</td><td>Meta_llama</td><td>Meta の最新の 70B LLM で、性能は llama 3.1 405B と同等です。</td></tr><tr><td>meta-llama/Meta-Llama-3.1-405B-Instruct</td><td>32k</td><td>-</td><td>非対応</td><td>対話</td><td>Meta_llama</td><td>Meta Llama 3.1 の多言語大規模言語モデル（LLM）コレクションは、8B、70B、405B のサイズを持つ事前学習済みおよび指示チューニング済み生成モデルの集合です。本モデルは 405B 版です。Llama 3.1 の指示チューニング済みテキストモデル（8B、70B、405B）は多言語対話向けに最適化されており、一般的な業界ベンチマークで多くの利用可能なオープン/クローズドチャットモデルを上回ります。</td></tr><tr><td>meta-llama/Meta-Llama-3.1-70B-Instruct</td><td>32k</td><td>-</td><td>非対応</td><td>対話</td><td>Meta_llama</td><td>Meta Llama 3.1 は Meta が開発した多言語大規模言語モデル群で、8B、70B、405B の 3 種類のパラメータ規模を持つ事前学習版と指示チューニング版があります。この 70B 指示チューニングモデルは多言語対話シナリオ向けに最適化され、複数の業界ベンチマークで優れた性能を示します。モデルの訓練には 15 兆トークンを超える公開データが使用され、監督微調整や人間のフィードバックによる強化学習などの技術で有用性と安全性が向上されています。</td></tr><tr><td>meta-llama/Meta-Llama-3.1-8B-Instruct</td><td>32k</td><td>-</td><td>非対応</td><td>対話</td><td>Meta_llama</td><td>Meta Llama 3.1 の多言語大規模言語モデル（LLM）コレクションは、8B、70B、405B のサイズを持つ事前学習済みおよび指示チューニング済み生成モデルの集合です。本モデルは 8B 版です。Llama 3.1 の指示チューニング済みテキストモデル（8B、70B、405B）は多言語対話向けに最適化されており、一般的な業界ベンチマークで多くの利用可能なオープン/クローズドチャットモデルを上回ります。</td></tr><tr><td>abab5.5-chat</td><td>16k</td><td>-</td><td>対応</td><td>対話</td><td>Minimax_abab</td><td>中国語のキャラクター設定対話シナリオ</td></tr><tr><td>abab5.5s-chat</td><td>8k</td><td>-</td><td>対応</td><td>対話</td><td>Minimax_abab</td><td>中国語のキャラクター設定対話シナリオ</td></tr><tr><td>abab6.5g-chat</td><td>8k</td><td>-</td><td>対応</td><td>対話</td><td>Minimax_abab</td><td>英語など多言語のキャラクター設定対話シナリオ</td></tr><tr><td>abab6.5s-chat</td><td>245k</td><td>-</td><td>対応</td><td>対話</td><td>Minimax_abab</td><td>汎用シナリオ</td></tr><tr><td>abab6.5t-chat</td><td>8k</td><td>-</td><td>対応</td><td>対話</td><td>Minimax_abab</td><td>中国語のキャラクター設定対話シナリオ</td></tr><tr><td>chatgpt-4o-latest</td><td>128k</td><td>16k</td><td>非対応</td><td>対話,画像認識</td><td>OpenAI</td><td>chatgpt-4o-latest モデル版は、ChatGPT で使用される GPT-4o 版を継続的に指し、重大な変更がある場合は最速で更新されます。</td></tr><tr><td>gpt-4o-2024-11-20</td><td>128k</td><td>16k</td><td>対応</td><td>対話</td><td>OpenAI</td><td>2024 年 11 月 20 日時点の最新 gpt-4o スナップショット版。</td></tr><tr><td>gpt-4o-audio-preview</td><td>128k</td><td>16k</td><td>非対応</td><td>対話</td><td>OpenAI</td><td>OpenAI のリアルタイム音声対話モデル</td></tr><tr><td>gpt-4o-audio-preview-2024-10-01</td><td>128k</td><td>16k</td><td>対応</td><td>対話</td><td>OpenAI</td><td>OpenAI のリアルタイム音声対話モデル</td></tr><tr><td>o1</td><td>128k</td><td>32k</td><td>非対応</td><td>対話,推論,画像認識</td><td>OpenAI</td><td>OpenAI の複雑なタスク向け新しい推論モデルで、幅広い常識を要します。このモデルは 200k コンテキストを持ち、現在世界最強クラスのモデルで、画像認識をサポートします。</td></tr><tr><td>o1-mini-2024-09-12</td><td>128k</td><td>64k</td><td>非対応</td><td>対話,推論</td><td>OpenAI</td><td>o1-mini の固定スナップショット版。o1-preview より小さく、速く、コストは 80% 低く、コード生成や小さなコンテキスト操作で良好な性能を示します。</td></tr><tr><td>o1-preview-2024-09-12</td><td>128k</td><td>32k</td><td>非対応</td><td>対話,推論</td><td>OpenAI</td><td>o1-preview の固定スナップショット版</td></tr><tr><td>gpt-3.5-turbo</td><td>16k</td><td>4k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-3</td><td>GPT-3.5 ベース： GPT-3.5 Turbo は OpenAI により開発された GPT-3.5 モデルの改良版です。<br>性能目標： モデル構造とアルゴリズムを最適化することで、推論速度、処理効率、リソース利用率の向上を目的としています。<br>推論速度の向上： GPT-3.5 と比べ、GPT-3.5 Turbo は同じハードウェア条件下で通常より速い推論速度を提供でき、大規模テキスト処理を必要とするアプリに特に有益です。<br>スループットの向上： 大量のリクエストやデータを処理する際、GPT-3.5 Turbo はより高い並列処理能力を実現し、システム全体のスループットを向上させます。<br>リソース消費の最適化： 性能を維持しつつ、メモリや計算資源などのハードウェア要件を低減できる可能性があり、運用コスト削減と拡張性向上に役立ちます。<br>幅広い自然言語処理タスク： GPT-3.5 Turbo は、テキスト生成、意味理解、対話システム、機械翻訳などを含む多様な NLP タスクに適しています。<br>開発者ツールと API サポート： 開発者が統合・利用しやすい API を提供し、アプリケーションの迅速な開発と展開をサポートします。</td></tr><tr><td>gpt-3.5-turbo-0125</td><td>16k</td><td>4k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-3</td><td>更新された GPT 3.5 Turbo で、リクエスト形式の精度が向上し、英語以外の言語での関数呼び出しテキストのエンコード問題を引き起こしていたバグが修正されています。最大 4,096 出力トークンを返します。</td></tr><tr><td>gpt-3.5-turbo-0613</td><td>16k</td><td>4k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-3</td><td>更新された GPT 3.5 Turbo の固定スナップショット版。現在は非推奨です</td></tr><tr><td>gpt-3.5-turbo-1106</td><td>16k</td><td>4k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-3</td><td>指示追従、JSON モード、再現可能出力、並列関数呼び出しなどが改善されています。最大 4,096 出力トークンを返します。</td></tr><tr><td>gpt-3.5-turbo-16k</td><td>16k</td><td>4k</td><td>対応</td><td>対話,廃止済みまたは廃止予定</td><td>OpenAI_gpt-3</td><td>（非推奨）</td></tr><tr><td>gpt-3.5-turbo-16k-0613</td><td>16k</td><td>4k</td><td>対応</td><td>対話,廃止済みまたは廃止予定</td><td>OpenAI_gpt-3</td><td>2023年6月13日時点の gpt-3.5-turbo のスナップショット。（非推奨）</td></tr><tr><td>gpt-3.5-turbo-instruct</td><td>4k</td><td>4k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-3</td><td>GPT-3 時代のモデルに似た能力です。レガシーな Completions エンドポイントと互換性があり、Chat Completions には適していません。</td></tr><tr><td>gpt-3.5o</td><td>16k</td><td>4k</td><td>非対応</td><td>対話</td><td>OpenAI_gpt-3</td><td>gpt-4o-lite と同じ</td></tr><tr><td>gpt-4</td><td>8k</td><td>8k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-4</td><td>現在は gpt-4-0613 を指します。</td></tr><tr><td>gpt-4-0125-preview</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-4</td><td>最新の GPT-4 モデルで、モデルがタスクを完了しない「怠慢」状況を減らすことを目的としています。最大 4,096 出力トークンを返します。</td></tr><tr><td>gpt-4-0314</td><td>8k</td><td>8k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-4</td><td>gpt-4 の 2023年3月14日時点のスナップショット</td></tr><tr><td>gpt-4-0613</td><td>8k</td><td>8k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-4</td><td>gpt-4 の 2023年6月13日時点のスナップショットで、関数呼び出しサポートが強化されています。</td></tr><tr><td>gpt-4-1106-preview</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-4</td><td>指示追従、JSON モード、再現可能出力、関数呼び出しなどが改善された GPT-4 Turbo モデルです。最大 4,096 出力トークンを返します。これはプレビュー模型です。</td></tr><tr><td>gpt-4-32k</td><td>32k</td><td>4k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-4</td><td>gpt-4-32k は 2025-06-06 に非推奨になります。</td></tr><tr><td>gpt-4-32k-0613</td><td>32k</td><td>4k</td><td>対応</td><td>対話,廃止済みまたは廃止予定</td><td>OpenAI_gpt-4</td><td>2025-06-06 に非推奨になります。</td></tr><tr><td>gpt-4-turbo</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-4</td><td>最新版の GPT-4 Turbo モデルは視覚機能を追加し、JSON モードと関数呼び出しを通じて視覚リクエストを処理できます。現在のバージョンは gpt-4-turbo-2024-04-09 です。</td></tr><tr><td>gpt-4-turbo-2024-04-09</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>OpenAI_gpt-4</td><td>視覚機能付き GPT-4 Turbo モデルです。現在、視覚リクエストは JSON モードと関数呼び出しで実現できます。gpt-4-turbo の現在バージョンはこの版です。</td></tr><tr><td>gpt-4-turbo-preview</td><td>128k</td><td>4k</td><td>対応</td><td>対話,画像認識</td><td>OpenAI_gpt-4</td><td>現在は gpt-4-0125-preview を指します。</td></tr><tr><td>gpt-4o</td><td>128k</td><td>16k</td><td>対応</td><td>対話,画像認識</td><td>OpenAI_gpt-4</td><td>OpenAI の高知能フラッグシップモデルで、複雑な多段階タスクに適しています。GPT-4o は GPT-4 Turbo より安価で高速です。</td></tr><tr><td>gpt-4o-2024-05-13</td><td>128k</td><td>4k</td><td>対応</td><td>対話,画像認識</td><td>OpenAI_gpt-4</td><td>2024 年 5 月 13 日の元の gpt-4o スナップショット。</td></tr><tr><td>gpt-4o-2024-08-06</td><td>128k</td><td>16k</td><td>対応</td><td>対話,画像認識</td><td>OpenAI_gpt-4</td><td>構造化出力をサポートする最初のスナップショット。gpt-4o は現在この版を指します。</td></tr><tr><td>gpt-4o-mini</td><td>128k</td><td>16k</td><td>対応</td><td>対話,画像認識</td><td>OpenAI_gpt-4</td><td>OpenAI の手頃な価格の gpt-4o 版で、高速かつ軽量なタスクに適しています。GPT-4o mini は GPT-3.5 Turbo より安価で、より強力です。現在は gpt-4o-mini-2024-07-18 を指しています。</td></tr><tr><td>gpt-4o-mini-2024-07-18</td><td>128k</td><td>16k</td><td>対応</td><td>対話,画像認識</td><td>OpenAI_gpt-4</td><td>gpt-4o-mini の固定スナップショット版。</td></tr><tr><td>gpt-4o-realtime-preview</td><td>128k</td><td>4k</td><td>対応</td><td>対話,リアルタイム音声</td><td>OpenAI_gpt-4</td><td>OpenAI のリアルタイム音声対話モデル</td></tr><tr><td>gpt-4o-realtime-preview-2024-10-01</td><td>128k</td><td>4k</td><td>対応</td><td>対話,リアルタイム音声,画像認識</td><td>OpenAI_gpt-4</td><td>gpt-4o-realtime-preview は現在このスナップショット版を指します</td></tr><tr><td>o1-mini</td><td>128k</td><td>64k</td><td>非対応</td><td>対話,推論</td><td>OpenAI_o1</td><td>o1-preview より小さく、速く、コストは 80% 低く、コード生成や小さなコンテキスト操作で良好な性能を示します。</td></tr><tr><td>o1-preview</td><td>128k</td><td>32k</td><td>非対応</td><td>対話,推論</td><td>OpenAI_o1</td><td>o1-preview は、幅広い常識を要する複雑なタスク向けの新しい推論モデルです。このモデルは 128K コンテキストと 2023 年 10 月時点の知識カットオフを持ちます。数学や科学タスクを含む高度な推論と複雑な問題解決に重点を置いています。深いコンテキスト理解と自律的なワークフローを必要とするアプリに最適です。</td></tr><tr><td>o3-mini</td><td>200k</td><td>100k</td><td>対応</td><td>対話,推論</td><td>OpenAI_o1</td><td>o3-mini は OpenAI の最新の小型推論モデルで、o1-mini と同じコストと遅延を維持しつつ高い知能を提供します。科学、数学、コーディングタスクに重点を置き、構造化出力、関数呼び出し、バッチ API などの開発者向け機能をサポートし、知識ベースは 2023 年 10 月で止まっています。推論能力と経済性の優れたバランスを示しています。</td></tr><tr><td>o3-mini-2025-01-31</td><td>200k</td><td>100k</td><td>対応</td><td>対話,推論</td><td>OpenAI_o1</td><td>o3-mini は現在この版を指します。o3-mini-2025-01-31 は OpenAI の最新の小型推論モデルで、o1-mini と同じコストと遅延を維持しつつ高い知能を提供します。科学、数学、コーディングタスクに重点を置き、構造化出力、関数呼び出し、バッチ API などの開発者向け機能をサポートし、知識ベースは 2023 年 10 月で止まっています。推論能力と経済性の優れたバランスを示しています。</td></tr><tr><td>Baichuan2-Turbo</td><td>32k</td><td>-</td><td>非対応</td><td>対話</td><td>百川_baichuan</td><td>業界同等サイズのモデルと比べて、業界先行レベルの効果を維持しながら、価格を大幅に引き下げています。</td></tr><tr><td>Baichuan3-Turbo</td><td>32k</td><td>-</td><td>非対応</td><td>対話</td><td>百川_baichuan</td><td>業界同等サイズのモデルと比べて、業界先行レベルの効果を維持しながら、価格を大幅に引き下げています。</td></tr><tr><td>Baichuan3-Turbo-128k</td><td>128k</td><td>-</td><td>非対応</td><td>対話</td><td>百川_baichuan</td><td>百川モデルは 128k の超長コンテキストウィンドウで複雑なテキストを処理し、金融などの業界向けに特化最適化されています。高性能を維持しながらコストを大幅に削減し、企業に高コスパのソリューションを提供します。</td></tr><tr><td>Baichuan4</td><td>32k</td><td>-</td><td>非対応</td><td>対話</td><td>百川_baichuan</td><td>百川の MoE モデルは、専用最適化、コスト削減、性能向上により、企業アプリケーション向けに高効率で高コスパなソリューションを提供します。</td></tr><tr><td>Baichuan4-Air</td><td>32k</td><td>-</td><td>非対応</td><td>対話</td><td>百川_baichuan</td><td>百川の MoE モデルは、専用最適化、コスト削減、性能向上により、企業アプリケーション向けに高効率で高コスパなソリューションを提供します。</td></tr><tr><td>Baichuan4-Turbo</td><td>32k</td><td>-</td><td>非対応</td><td>対話</td><td>百川_baichuan</td><td>大量の高品質なシナリオデータで学習され、企業の高頻度シナリオでの利用可能性は Baichuan4 に比べて 10%以上向上し、情報要約は 50%、多言語は 31%、コンテンツ生成は 13% 向上しました。<br>推論性能を重点最適化し、初回トークン応答速度は Baichuan4 比で 51% 向上、token スループットは 73% 向上しました。</td></tr><tr><td>ERNIE-3.5-128K</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>百度_ernie</td><td>百度が独自開発したフラッグシップ級の大規模言語モデルで、膨大な中英語コーパスをカバーし、強力な汎用能力を持ち、ほとんどの対話QA、創作生成、プラグイン利用シナリオの要件を満たします。百度検索プラグインとの自動連携をサポートし、回答情報の鮮度を保証します。</td></tr><tr><td>ERNIE-3.5-8K</td><td>8k</td><td>1k</td><td>対応</td><td>対話</td><td>百度_ernie</td><td>百度が独自開発したフラッグシップ級の大規模言語モデルで、膨大な中英語コーパスをカバーし、強力な汎用能力を持ち、ほとんどの対話QA、創作生成、プラグイン利用シナリオの要件を満たします。百度検索プラグインとの自動連携をサポートし、回答情報の鮮度を保証します。</td></tr><tr><td>ERNIE-3.5-8K-Preview</td><td>8k</td><td>1k</td><td>対応</td><td>対話</td><td>百度_ernie</td><td>百度が独自開発したフラッグシップ級の大規模言語モデルで、膨大な中英語コーパスをカバーし、強力な汎用能力を持ち、ほとんどの対話QA、創作生成、プラグイン利用シナリオの要件を満たします。百度検索プラグインとの自動連携をサポートし、回答情報の鮮度を保証します。</td></tr><tr><td>ERNIE-4.0-8K</td><td>8k</td><td>1k</td><td>対応</td><td>対話</td><td>百度_ernie</td><td>百度が独自開発したフラッグシップ級の超大規模言語モデルで、ERNIE 3.5 に比べてモデル能力が全面的に向上しており、各分野の複雑なタスクシナリオに幅広く適しています。百度検索プラグインとの自動連携をサポートし、回答情報の鮮度を保証します。</td></tr><tr><td>ERNIE-4.0-8K-Latest</td><td>8k</td><td>2k</td><td>対応</td><td>対話</td><td>百度_ernie</td><td>ERNIE-4.0-8K-Latest は ERNIE-4.0-8K に比べて全体的な能力が向上しており、特にロールプレイ能力と指示追従能力が大きく改善されています。ERNIE 3.5 に比べてモデル能力が全面的に向上しており、各分野の複雑なタスクシナリオに幅広く適しています。百度検索プラグインとの自動連携をサポートし、回答情報の鮮度を保証し、5K tokens 入力 + 2K tokens 出力をサポートします。この記事では ERNIE-4.0-8K-Latest のインターフェース呼び出し方法を紹介します。</td></tr><tr><td>ERNIE-4.0-8K-Preview</td><td>8k</td><td>1k</td><td>対応</td><td>対話</td><td>百度_ernie</td><td>百度が独自開発したフラッグシップ級の超大規模言語モデルで、ERNIE 3.5 に比べてモデル能力が全面的に向上しており、各分野の複雑なタスクシナリオに幅広く適しています。百度検索プラグインとの自動連携をサポートし、回答情報の鮮度を保証します。</td></tr><tr><td>ERNIE-4.0-Turbo-128K</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>百度_ernie</td><td>ERNIE 4.0 Turbo は百度が独自開発したフラッグシップ級の超大規模言語モデルで、総合性能が優れており、各分野の複雑なタスクシナリオに幅広く適しています。百度検索プラグインとの自動連携をサポートし、回答情報の鮮度を保証します。ERNIE 4.0 と比べて性能がさらに優れています。ERNIE-4.0-Turbo-128K はその一つのバージョンで、長文ドキュメント全体の効果は ERNIE-3.5-128K より優れています。この記事では関連 API と利用方法を紹介します。</td></tr><tr><td>ERNIE-4.0-Turbo-8K</td><td>8k</td><td>2k</td><td>対応</td><td>対話</td><td>百度_ernie</td><td>ERNIE 4.0 Turbo は百度が独自開発したフラッグシップ級の超大規模言語モデルで、総合性能が優れており、各分野の複雑なタスクシナリオに幅広く適しています。百度検索プラグインとの自動連携をサポートし、回答情報の鮮度を保証します。ERNIE 4.0 と比べて性能がさらに優れています。ERNIE-4.0-Turbo-8K はその一つのバージョンです。この記事では関連 API と利用方法を紹介します。</td></tr><tr><td>ERNIE-4.0-Turbo-8K-Latest</td><td>8k</td><td>2k</td><td>対応</td><td>対話</td><td>百度_ernie</td><td>ERNIE 4.0 Turbo は百度が独自開発したフラッグシップ級の超大規模言語モデルで、総合性能が優れており、各分野の複雑なタスクシナリオに幅広く適しています。百度検索プラグインとの自動連携をサポートし、回答情報の鮮度を保証します。ERNIE 4.0 と比べて性能がさらに優れています。ERNIE-4.0-Turbo-8K はその一つのバージョンです。</td></tr><tr><td>ERNIE-4.0-Turbo-8K-Preview</td><td>8k</td><td>2k</td><td>対応</td><td>対話</td><td>百度_ernie</td><td>ERNIE 4.0 Turbo は百度が独自開発したフラッグシップ級の超大規模言語モデルで、総合性能が優れており、各分野の複雑なタスクシナリオに幅広く適しています。百度検索プラグインとの自動連携をサポートし、回答情報の鮮度を保証します。ERNIE-4.0-Turbo-8K-Preview はその一つのバージョンです。</td></tr><tr><td>ERNIE-Character-8K</td><td>8k</td><td>1k</td><td>非対応</td><td>対話</td><td>百度_ernie</td><td>百度が独自開発した垂直シナリオ向け大規模言語モデルで、ゲーム NPC、カスタマーサービス対話、対話ロールプレイなどの用途に適しています。キャラクター設定の雰囲気がより鮮明で一貫しており、指示追従能力が強く、推論性能も優れています。</td></tr><tr><td>ERNIE-Lite-8K</td><td>8k</td><td>4k</td><td>非対応</td><td>対話</td><td>百度_ernie</td><td>百度が独自開発した軽量大規模言語モデルで、優れたモデル効果と推論性能を両立し、低算力 AI アクセラレータカードでの推論利用に適しています。</td></tr><tr><td>ERNIE-Lite-Pro-128K</td><td>128k</td><td>2k</td><td>対応</td><td>対話</td><td>百度_ernie</td><td>百度が独自開発した軽量大規模言語モデルで、ERNIE Lite より効果が優れており、優れたモデル効果と推論性能を両立し、低算力 AI アクセラレータカードでの推論利用に適しています。ERNIE-Lite-Pro-128K は 128K のコンテキスト長をサポートし、ERNIE-Lite-128K より効果が優れています。</td></tr><tr><td>ERNIE-Novel-8K</td><td>8k</td><td>2k</td><td>非対応</td><td>対話</td><td>百度_ernie</td><td>ERNIE-Novel-8K は百度が独自開発した汎用大規模言語モデルで、小説の続編生成能力に明確な強みがあり、短編ドラマや映画などのシナリオにも利用できます。</td></tr><tr><td>ERNIE-Speed-128K</td><td>128k</td><td>4k</td><td>非対応</td><td>対話</td><td>百度_ernie</td><td>百度が 2024 年に新たにリリースした自社開発の高性能大規模言語モデルで、汎用能力に優れ、ベースモデルとして微調整することで特定シナリオの問題をより適切に処理でき、さらに優れた推論性能を備えています。</td></tr><tr><td>ERNIE-Speed-8K</td><td>8k</td><td>1k</td><td>非対応</td><td>対話</td><td>百度_ernie</td><td>百度が 2024 年に新たにリリースした自社開発の高性能大規模言語モデルで、汎用能力に優れ、ベースモデルとして微調整することで特定シナリオの問題をより適切に処理でき、さらに優れた推論性能を備えています。</td></tr><tr><td>ERNIE-Speed-Pro-128K</td><td>128k</td><td>4k</td><td>非対応</td><td>対話</td><td>百度_ernie</td><td>ERNIE Speed Pro は百度が 2024 年に新たにリリースした自社開発の高性能大規模言語モデルで、汎用能力に優れ、ベースモデルとして微調整することで特定シナリオの問題をより適切に処理でき、さらに優れた推論性能を備えています。ERNIE-Speed-Pro-128K は 2024 年 8 月 30 日にリリースされた初期版で、128K のコンテキスト長をサポートし、ERNIE-Speed-128K より効果が優れています。</td></tr><tr><td>ERNIE-Tiny-8K</td><td>8k</td><td>1k</td><td>非対応</td><td>対話</td><td>百度_ernie</td><td>百度が独自開発した超高性能大規模言語モデルで、デプロイおよび微調整コストは文心シリーズの中で最も低いです。</td></tr><tr><td>Doubao-1.5-lite-32k</td><td>32k</td><td>12k</td><td>対応</td><td>対話</td><td>豆包_doubao</td><td>Doubao1.5-lite は軽量版言語モデルの中でも世界トップレベルで、総合（MMLU_pro）、推論（BBH）、数学（MATH）、専門知識（GPQA）の権威ある評価指標で GPT-4omini、Claude 3.5 Haiku と同等またはそれを上回ります。<br></td></tr><tr><td>Doubao-1.5-pro-256k</td><td>256k</td><td>12k</td><td>対応</td><td>対話</td><td>豆包_doubao</td><td>Doubao-1.5-Pro-256k は Doubao-1.5-Pro の全面アップグレード版に基づいています。Doubao-pro-256k/241115 と比べて、総合効果が 10% 大幅に向上しました。出力長も大幅に向上し、最大 12k tokens をサポートします。</td></tr><tr><td>Doubao-1.5-pro-32k</td><td>32k</td><td>12k</td><td>対応</td><td>対話</td><td>豆包_doubao</td><td>Doubao-1.5-pro は新世代の主力モデルで、性能が全面的に向上し、知識、コード、推論などで卓越した性能を発揮します。複数の公開ベンチマークで世界トップレベルに達し、特に知識、コード、推論、中国語の権威あるベンチマークで最高成績を獲得し、総合スコアは GPT4o、Claude 3.5 Sonnet など業界トップモデルを上回ります。</td></tr><tr><td>Doubao-1.5-vision-pro</td><td>32k</td><td>12k</td><td>非対応</td><td>対話,画像認識</td><td>豆包_doubao</td><td>Doubao-1.5-vision-pro は新たにアップグレードされたマルチモーダル大規模モデルで、任意解像度および極端な縦横比の画像認識をサポートし、視覚推論、文書認識、細部情報理解、指示追従能力が強化されています。</td></tr><tr><td>Doubao-embedding</td><td>4k</td><td>-</td><td>対応</td><td>埋め込み</td><td>豆包_doubao</td><td>Doubao-embedding は ByteDance が開発したセマンティックベクトル化モデルで、主にベクトル検索シナリオ向けです。中国語・英語の両方をサポートし、最大 4K のコンテキスト長に対応します。現在、以下のバージョンを提供しています。<br><br>text-240715：最大次元ベクトル 2560、512/1024/2048 への次元削減に対応。中英 Retrieval の効果は text-240515 版より大幅に向上しており、この版の使用を推奨します。<br>text-240515：最大次元ベクトル 2048、512/1024 への次元削減に対応。</td></tr><tr><td>Doubao-embedding-large</td><td>4k</td><td>-</td><td>非対応</td><td>埋め込み</td><td>豆包_doubao</td><td><br>中国語・英語の Retrieval 効果が Doubao-embedding/text-240715 版より大幅に向上</td></tr><tr><td>Doubao-embedding-vision</td><td>8k</td><td>-</td><td>非対応</td><td>埋め込み</td><td>豆包_doubao</td><td>Doubao-embedding-vision は、画像とテキストのマルチモーダルベクトル化モデルの新アップグレード版で、主に画像・テキストのマルチモーダルベクトル検索シナリオ向けです。画像入力と中国語・英語テキスト入力をサポートし、最大 8K のコンテキスト長に対応します。</td></tr><tr><td>Doubao-lite-128k</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>豆包_doubao</td><td>Doubao-lite は極めて高速な応答と高いコストパフォーマンスを備え、さまざまなシナリオに対してより柔軟な選択肢を提供します。128k コンテキストウィンドウでの推論と微調整をサポートします。</td></tr><tr><td>Doubao-lite-32k</td><td>32k</td><td>4k</td><td>対応</td><td>対話</td><td>豆包_doubao</td><td>Doubao-lite は極めて高速な応答と高いコストパフォーマンスを備え、さまざまなシナリオに対してより柔軟な選択肢を提供します。32k コンテキストウィンドウでの推論と微調整をサポートします。</td></tr><tr><td>Doubao-lite-4k</td><td>4k</td><td>4k</td><td>対応</td><td>対話</td><td>豆包_doubao</td><td>Doubao-lite は極めて高速な応答と高いコストパフォーマンスを備え、さまざまなシナリオに対してより柔軟な選択肢を提供します。4k コンテキストウィンドウでの推論と微調整をサポートします。</td></tr><tr><td>Doubao-pro-128k</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>豆包_doubao</td><td>最も効果の高い主力モデルで、複雑なタスクの処理に適しています。参照 QA、要約、創作、テキスト分類、ロールプレイなどのシナリオで優れた効果を発揮します。128k コンテキストウィンドウでの推論と微調整をサポートします。</td></tr><tr><td>Doubao-pro-32k</td><td>32k</td><td>4k</td><td>対応</td><td>対話</td><td>豆包_doubao</td><td>最も効果の高い主力モデルで、複雑なタスクの処理に適しています。参照 QA、要約、創作、テキスト分類、ロールプレイなどのシナリオで優れた効果を発揮します。32k コンテキストウィンドウでの推論と微調整をサポートします。</td></tr><tr><td>Doubao-pro-4k</td><td>4k</td><td>4k</td><td>対応</td><td>対話</td><td>豆包_doubao</td><td>最も効果の高い主力モデルで、複雑なタスクの処理に適しています。参照 QA、要約、創作、テキスト分類、ロールプレイなどのシナリオで優れた効果を発揮します。4k コンテキストウィンドウでの推論と微調整をサポートします。</td></tr><tr><td>step-1-128k</td><td>128k</td><td>-</td><td>対応</td><td>対話</td><td>階躍星辰</td><td>step-1-128k モデルは超大規模言語モデルで、最大 128,000 token の入力を処理できます。この能力により、長文コンテンツ生成や複雑な推論で大きな利点があり、小説や脚本など、豊富なコンテキストを必要とするアプリケーションに適しています。</td></tr><tr><td>step-1-256k</td><td>256k</td><td>-</td><td>対応</td><td>対話</td><td>階躍星辰</td><td>step-1-256k モデルは現在最大級の言語モデルの一つで、256,000 token の入力をサポートします。大規模データ分析や複数ターン対話システムなど、極めて複雑なタスク要件に応えるよう設計されており、さまざまな分野で高品質な出力を提供できます。</td></tr><tr><td>step-1-32k</td><td>32k</td><td>-</td><td>対応</td><td>対話</td><td>階躍星辰</td><td>step-1-32k モデルはコンテキストウィンドウを拡張し、32,000 token の入力をサポートします。これにより、長文記事や複雑な対話の処理で優れた性能を発揮し、法務文書や学術研究など深い理解と分析を要するタスクに適しています。</td></tr><tr><td>step-1-8k</td><td>8k</td><td>-</td><td>対応</td><td>対話</td><td>階躍星辰</td><td>step-1-8k モデルは効率的な言語モデルで、短いテキスト処理向けに設計されています。8,000 token のコンテキスト内で推論でき、チャットボットやリアルタイム翻訳など迅速な応答が必要なアプリケーションに適しています。</td></tr><tr><td>step-1-flash</td><td>8k</td><td>-</td><td>対応</td><td>対話</td><td>階躍星辰</td><td>step-1-flash モデルは迅速な応答と高効率処理に重点を置き、リアルタイムアプリケーションに適しています。限られた計算資源でも高品質な言語理解と生成能力を提供でき、モバイル端末やエッジコンピューティング環境に適しています。</td></tr><tr><td>step-1.5v-mini</td><td>32k</td><td>-</td><td>対応</td><td>対話,画像認識</td><td>階躍星辰</td><td>step-1.5v-mini モデルはリソース制約のある環境での動作を目的とした軽量版です。サイズは小さいものの、良好な言語処理能力を維持しており、組み込みシステムや低消費電力デバイスに適しています。</td></tr><tr><td>step-1v-32k</td><td>32k</td><td>-</td><td>対応</td><td>対話,画像認識</td><td>階躍星辰</td><td>step-1v-32k モデルは 32,000 token の入力をサポートし、より長いコンテキストを必要とするアプリに適しています。複雑な対話や長文処理で優れており、カスタマーサービスやコンテンツ制作などの分野に適しています。</td></tr><tr><td>step-1v-8k</td><td>8k</td><td>-</td><td>対応</td><td>対話,画像認識</td><td>階躍星辰</td><td>step-1v-8k モデルは最適化版で、8,000 token の入力向けに設計され、短文の高速生成と処理に適しています。速度と精度のバランスが良く、リアルタイムアプリに適しています。</td></tr><tr><td>step-2-16k</td><td>16k</td><td>-</td><td>対応</td><td>対話</td><td>階躍星辰</td><td>step-2-16k モデルは中規模言語モデルで、16,000 token の入力をサポートします。多様なタスクで良好な性能を示し、教育、研修、知識管理などのアプリケーションに適しています。<br></td></tr><tr><td>yi-lightning</td><td>16k</td><td>-</td><td>対応</td><td>対話</td><td>零一万物_yi</td><td>最新の高性能モデルで、高品質な出力を保証しつつ、推論速度を大幅に向上しています。<br>リアルタイム対話や高複雑度推論シナリオに適しており、非常に高いコストパフォーマンスで商用製品を強力に支えます。</td></tr><tr><td>yi-vision-v2</td><td>16K</td><td>-</td><td>対応</td><td>対話,画像認識</td><td>零一万物_yi</td><td>画像や図表の分析・説明が必要なシナリオに適しており、画像QA、図表理解、OCR、視覚推論、教育、研究レポート理解、マルチ言語文書読解などに使えます。</td></tr><tr><td>qwen-14b-chat</td><td>8k</td><td>2k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>Alibaba Cloud 公式の通義千問オープン版です。</td></tr><tr><td>qwen-72b-chat</td><td>32k</td><td>2k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>Alibaba Cloud 公式の通義千問オープン版です。</td></tr><tr><td>qwen-7b-chat</td><td>7.5k</td><td>1.5k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>Alibaba Cloud 公式の通義千問オープン版です。</td></tr><tr><td>qwen-coder-plus</td><td>128k</td><td>8k</td><td>対応</td><td>対話,コード</td><td>千問_qwen</td><td>Qwen-Coder-Plus は Qwen シリーズのプログラミング専用モデルで、コード生成と理解能力の向上を目的としています。大規模なプログラミングデータで学習されており、複数のプログラミング言語を扱え、コード補完、エラー検出、コードリファクタリングなどの機能をサポートします。開発者により効率的なコーディング支援を提供し、開発効率を高めることを目指しています。</td></tr><tr><td>qwen-coder-plus-latest</td><td>128k</td><td>8k</td><td>対応</td><td>対話,コード</td><td>千問_qwen</td><td>Qwen-Coder-Plus-Latest は Qwen-Coder-Plus の最新バージョンで、最新のアルゴリズム最適化とデータセット更新が含まれています。性能が大きく向上しており、コンテキストをより正確に理解し、開発者の要件により合ったコードを生成できます。また、より多くのプログラミング言語への対応が追加され、多言語プログラミング能力が強化されています。</td></tr><tr><td>qwen-coder-turbo</td><td>128k</td><td>8k</td><td>対応</td><td>対話,コード</td><td>千問_qwen</td><td>通義千問シリーズのコード・プログラミングモデルは、プログラミングとコード生成専用の言語モデルで、推論速度が速く、コストが低いです。この版は常に最新の安定版スナップショットを指します。</td></tr><tr><td>qwen-coder-turbo-latest</td><td>128k</td><td>8k</td><td>対応</td><td>対話,コード</td><td>千問_qwen</td><td>通義千問シリーズのコード・プログラミングモデルは、プログラミングとコード生成専用の言語モデルで、推論速度が速く、コストが低いです。この版は常に最新版スナップショットを指します。</td></tr><tr><td>qwen-long</td><td>10m</td><td>6k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>Qwen-Long は通義千問の超長文コンテキスト処理向け大規模言語モデルで、中国語、英語などの異なる言語入力をサポートし、最大 1000 万 tokens（約 1500 万字または 1.5 万ページの文書）の超長コンテキスト対話をサポートします。同時公開の文書サービスと組み合わせることで、word、pdf、markdown、epub、mobi など多様な文書形式の解析と対話をサポートできます。説明：HTTP で直接リクエストを送信する場合は 1M tokens まで対応し、それを超える場合はファイル方式で送信することを推奨します。</td></tr><tr><td>qwen-math-plus</td><td>4k</td><td>3k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>Qwen-Math-Plus は数学問題解決に特化したモデルで、高効率な数学推論と計算能力の提供を目的としています。大量の数学問題集で学習され、複雑な数式や問題を処理でき、基礎算術から高等数学まで幅広い計算要件をサポートします。用途は教育、研究、工学などの分野です。</td></tr><tr><td>qwen-math-plus-latest</td><td>4k</td><td>3k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>Qwen-Math-Plus-Latest は Qwen-Math-Plus の最新バージョンで、最新の数学推論技術とアルゴリズム改善を統合しています。複雑な数学問題の処理でより優れ、より正確な解答と推論過程を提供できます。また、数学記号や公式の理解能力が拡張され、より幅広い数学アプリケーションに適しています。</td></tr><tr><td>qwen-math-turbo</td><td>4k</td><td>3k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>Qwen-Math-Turbo は高速計算とリアルタイム推論向けに設計された高性能数学モデルです。計算速度が最適化されており、非常に短時間で大量の数学問題を処理できるため、オンライン教育やリアルタイムデータ分析など、迅速なフィードバックが必要なシナリオに適しています。効率的なアルゴリズムにより、複雑な計算でも即時結果を得られます。</td></tr><tr><td>qwen-math-turbo-latest</td><td>4k</td><td>3k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>Qwen-Math-Turbo-Latest は Qwen-Math-Turbo の最新バージョンで、計算効率と精度がさらに向上しています。アルゴリズム面で多くの最適化が施され、より複雑な数学問題を扱え、リアルタイム推論でも高い効率を維持します。金融分析や科学計算など、迅速な応答が必要な数学アプリに適しています。</td></tr><tr><td>qwen-max</td><td>32k</td><td>8k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>通義千問2.5シリーズの千億級超大規模言語モデルで、中国語、英語などの異なる言語入力をサポートします。モデルのアップグレードに伴い、qwen-max はロールアップ更新されます。</td></tr><tr><td>qwen-max-latest</td><td>32k</td><td>8k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>通義千問シリーズで最も効果の高いモデルです。本モデルは動的更新版で、モデル更新は事前通知されません。複雑で多段階のタスクに適しており、中国語・英語の総合能力が大きく向上し、人間の嗜好への適合も大幅に向上しました。推論能力と複雑な指示の理解能力が大幅に強化され、難しいタスクでの性能がより優れ、数学・コード能力も大幅に向上しています。Table、JSON などの構造化データの理解と生成能力も向上しています。</td></tr><tr><td>qwen-plus</td><td>128k</td><td>8k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>通義千問シリーズのバランスの取れたモデルで、推論効果と速度は通義千問-Max と通義千問-Turbo の中間です。中程度の複雑さのタスクに適しています。中国語・英語の総合能力が大きく向上し、人間の嗜好への適合も大幅に向上しました。推論能力と複雑な指示の理解能力が大幅に強化され、難しいタスクでの性能がより優れ、数学・コード能力も大幅に向上しています。</td></tr><tr><td>qwen-plus-latest</td><td>128k</td><td>8k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>Qwen-Plus は通義千問シリーズの強化版ビジョン言語モデルで、細部認識能力と文字認識能力の向上を目的としています。100万画素超の解像度と任意の縦横比の画像をサポートし、さまざまなビジョン言語タスクで優れた性能を発揮でき、高精度な画像理解が必要なアプリケーションに適しています。</td></tr><tr><td>qwen-turbo</td><td>128k</td><td>8k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>通義千問シリーズで最速かつ低コストのモデルで、簡単なタスクに適しています。中国語・英語の総合能力が大きく向上し、人間の嗜好への適合も大幅に向上しました。推論能力と複雑な指示の理解能力が大幅に強化され、難しいタスクでの性能がより優れ、数学・コード能力も大幅に向上しています。</td></tr><tr><td>qwen-turbo-latest</td><td>1m</td><td>8k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>Qwen-Turbo は簡単なタスク向けに設計された高効率モデルで、速度とコスト効率を重視しています。基本的なビジョン言語タスクで優れた性能を発揮し、リアルタイム画像認識や簡単なQAシステムなど、応答時間に厳しい要件があるアプリに適しています。</td></tr><tr><td>qwen-vl-max</td><td>32k</td><td>2k</td><td>対応</td><td>対話</td><td>千問_qwen</td><td>通義千問VL-Max（qwen-vl-max）は、通義千問の超大規模ビジョン言語モデルです。強化版と比べて、視覚推論能力と指示追従能力がさらに向上し、より高い視覚認知と理解レベルを提供します。より多くの複雑なタスクで最高の性能を発揮します。</td></tr><tr><td>qwen-vl-max-latest</td><td>32k</td><td>2k</td><td>対応</td><td>対話,画像認識</td><td>千問_qwen</td><td>Qwen-VL-Max は Qwen-VL シリーズの最上位版で、複雑なマルチモーダルタスクの解決向けに設計されています。高度な視覚・言語処理技術を組み合わせ、高解像度画像を理解・分析でき、推論能力が非常に高く、深い理解と複雑な推論が必要なアプリに適しています。</td></tr><tr><td>qwen-vl-ocr</td><td>34k</td><td>4k</td><td>対応</td><td>対話,画像認識</td><td>千問_qwen</td><td>OCR のみ対応、対話は非対応。</td></tr><tr><td>qwen-vl-ocr-latest</td><td>34k</td><td>4k</td><td>対応</td><td>対話,画像認識</td><td>千問_qwen</td><td>OCR のみ対応、対話は非対応。</td></tr><tr><td>qwen-vl-plus</td><td>8k</td><td>2k</td><td>対応</td><td>対話,画像認識</td><td>千問_qwen</td><td>通義千問VL-Plus（qwen-vl-plus）は、通義千問の大規模ビジョン言語モデルの強化版です。細部認識能力と文字認識能力を大幅に向上させ、100万画素超の解像度と任意の縦横比の画像をサポートします。幅広い視覚タスクで卓越した性能を提供します。</td></tr><tr><td>qwen-vl-plus-latest</td><td>32k</td><td>2k</td><td>対応</td><td>対話,画像認識</td><td>千問_qwen</td><td>Qwen-VL-Plus-Latest は Qwen-VL-Plus の最新バージョンで、モデルのマルチモーダル理解能力が強化されています。画像とテキストを組み合わせた処理で優れており、スマートカスタマーサービスやコンテンツ生成など、さまざまな入力形式を効率的に処理する必要があるアプリに適しています。</td></tr><tr><td>Qwen/Qwen2-1.5B-Instruct</td><td>32k</td><td>6k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>Qwen2-1.5B-Instruct は Qwen2 シリーズの指示微調整済み大規模言語モデルで、パラメータ規模は 1.5B です。Transformer アーキテクチャを基盤とし、SwiGLU 活性化関数、注意機構の QKV バイアス、Grouped Query Attention などの技術を採用しています。言語理解、生成、多言語能力、コーディング、数学、推論など複数のベンチマークで優れた性能を示し、多くのオープンソースモデルを上回ります。</td></tr><tr><td>Qwen/Qwen2-72B-Instruct</td><td>128k</td><td>6k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>Qwen2-72B-Instruct は Qwen2 シリーズの指示微調整済み大規模言語モデルで、パラメータ規模は 72B です。Transformer アーキテクチャを基盤とし、SwiGLU 活性化関数、注意機構の QKV バイアス、Grouped Query Attention などの技術を採用しています。大規模入力を処理できます。言語理解、生成、多言語能力、コーディング、数学、推論など複数のベンチマークで優れた性能を示し、多くのオープンソースモデルを上回ります。</td></tr><tr><td>Qwen/Qwen2-7B-Instruct</td><td>128k</td><td>6k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>Qwen2-7B-Instruct は Qwen2 シリーズの指示微調整済み大規模言語モデルで、パラメータ規模は 7B です。Transformer アーキテクチャを基盤とし、SwiGLU 活性化関数、注意機構の QKV バイアス、Grouped Query Attention などの技術を採用しています。大規模入力を処理できます。言語理解、生成、多言語能力、コーディング、数学、推論など複数のベンチマークで優れた性能を示し、多くのオープンソースモデルを上回ります。</td></tr><tr><td>Qwen/Qwen2-VL-72B-Instruct</td><td>32k</td><td>2k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>Qwen2-VL は Qwen-VL モデルの最新の反復版で、MathVista、DocVQA、RealWorldQA、MTVQA などを含む視覚理解ベンチマークで最先端の性能を達成しています。Qwen2-VL は 20 分を超える動画を理解でき、高品質な動画ベースの QA、対話、コンテンツ制作に利用できます。また、複雑な推論と意思決定能力を備え、モバイル端末やロボットなどと統合して、視覚環境とテキスト指示に基づく自動操作が可能です。</td></tr><tr><td>Qwen/Qwen2-VL-7B-Instruct</td><td>32k</td><td>-</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>Qwen2-VL-7B-Instruct は Qwen-VL モデルの最新の反復版で、MathVista、DocVQA、RealWorldQA、MTVQA などを含む視覚理解ベンチマークで最先端の性能を達成しています。Qwen2-VL は高品質な動画ベースの QA、対話、コンテンツ制作に利用でき、複雑な推論と意思決定能力を備え、モバイル端末やロボットなどと統合して、視覚環境とテキスト指示に基づく自動操作が可能です。</td></tr><tr><td>Qwen/Qwen2.5-72B-Instruct</td><td>128k</td><td>8k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>Qwen2.5-72B-Instruct は Alibaba Cloud がリリースした最新の大規模言語モデル群の一つです。この 72B モデルはコーディングや数学などの分野で大幅に改善された能力を持ちます。最大 128K tokens の入力をサポートし、8K tokens を超える長文を生成できます。</td></tr><tr><td>Qwen/Qwen2.5-72B-Instruct-128K</td><td>128k</td><td>8k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>Qwen2.5-72B-Instruct は Alibaba Cloud がリリースした最新の大規模言語モデル群の一つです。この 72B モデルはコーディングや数学などの分野で大幅に改善された能力を持ちます。最大 128K tokens の入力をサポートし、8K tokens を超える長文を生成できます。</td></tr><tr><td>Qwen/Qwen2.5-7B-Instruct</td><td>128k</td><td>8k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>Qwen2.5-7B-Instruct は Alibaba Cloud がリリースした最新の大規模言語モデル群の一つです。この 7B モデルはコーディングや数学などの分野で大幅に改善された能力を持ちます。また、中国語、英語など 29 言語以上をカバーする多言語対応も備えています。指示追従、構造化データの理解、構造化出力（特に JSON）の生成で大きく向上しています。</td></tr><tr><td>Qwen/Qwen2.5-Coder-32B-Instruct</td><td>128k</td><td>8k</td><td>非対応</td><td>対話,コード</td><td>千問_qwen</td><td>Qwen2.5-32B-Instruct は Alibaba Cloud がリリースした最新の大規模言語モデル群の一つです。この 32B モデルはコーディングや数学などの分野で大幅に改善された能力を持ちます。また、中国語、英語など 29 言語以上をカバーする多言語対応も備えています。指示追従、構造化データの理解、構造化出力（特に JSON）の生成で大きく向上しています。</td></tr><tr><td>Qwen/Qwen2.5-Coder-7B-Instruct</td><td>128k</td><td>8k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>Qwen2.5-7B-Instruct は Alibaba Cloud がリリースした最新の大規模言語モデル群の一つです。この 7B モデルはコーディングや数学などの分野で大幅に改善された能力を持ちます。また、中国語、英語など 29 言語以上をカバーする多言語対応も備えています。指示追従、構造化データの理解、構造化出力（特に JSON）の生成で大きく向上しています。</td></tr><tr><td>Qwen/QwQ-32B-Preview</td><td>32k</td><td>16k</td><td>非対応</td><td>対話,推論</td><td>千問_qwen</td><td>QwQ-32B-Preview は Qwen チームが開発した実験的研究モデルで、AI の推論能力向上を目的としています。プレビュー版として優れた分析能力を示しますが、いくつかの重要な制限があります。<br>1. 言語混在とコードスイッチ：モデルは言語を混ぜたり、言語間で予期せず切り替わったりして、応答の明瞭さに影響することがあります。<br>2. 再帰的推論ループ：モデルがループ推論モードに入る可能性があり、明確な結論のない冗長な回答になることがあります。<br>3. 安全性と倫理的考慮：信頼性と安全性を確保するため、モデルにはより強力な安全対策が必要で、利用時は注意が必要です。<br>4. 性能とベンチマークの制約：数学やプログラミングでは優れていますが、常識推論や微妙な言語理解など他の分野には改善の余地があります。</td></tr><tr><td>qwen1.5-110b-chat</td><td>32k</td><td>8k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen1.5-14b-chat</td><td>8k</td><td>2k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen1.5-32b-chat</td><td>32k</td><td>2k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen1.5-72b-chat</td><td>32k</td><td>2k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen1.5-7b-chat</td><td>8k</td><td>2k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2-57b-a14b-instruct</td><td>65k</td><td>6k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>Qwen2-72B-Instruct</td><td>-</td><td>-</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2-7b-instruct</td><td>128k</td><td>6k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2-math-72b-instruct</td><td>4k</td><td>3k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2-math-7b-instruct</td><td>4k</td><td>3k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2.5-14b-instruct</td><td>128k</td><td>8k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2.5-32b-instruct</td><td>128k</td><td>8k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2.5-72b-instruct</td><td>128k</td><td>8k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2.5-7b-instruct</td><td>128k</td><td>8k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2.5-coder-14b-instruct</td><td>128k</td><td>8k</td><td>非対応</td><td>対話,コード</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2.5-coder-32b-instruct</td><td>128k</td><td>8k</td><td>非対応</td><td>対話,コード</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2.5-coder-7b-instruct</td><td>128k</td><td>8k</td><td>非対応</td><td>対話,コード</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2.5-math-72b-instruct</td><td>4k</td><td>3k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>qwen2.5-math-7b-instruct</td><td>4k</td><td>3k</td><td>非対応</td><td>対話</td><td>千問_qwen</td><td>-</td></tr><tr><td>deepseek-ai/DeepSeek-R1</td><td>64k</td><td>-</td><td>非対応</td><td>対話,推論</td><td>深度求索_deepseek</td><td>DeepSeek-R1モデルは、純粋な強化学習に基づくオープンソースの推論モデルであり、数学、コード、自然言語推論などのタスクで優れた性能を発揮し、OpenAIのo1モデルに匹敵する性能を持ち、複数のベンチマークテストで優秀な成績を収めています。</td></tr><tr><td>deepseek-ai/DeepSeek-V2-Chat</td><td>128k</td><td>-</td><td>非対応</td><td>対話</td><td>深度求索_deepseek</td><td>DeepSeek-V2 は、高性能で費用対効果の高い Mixture of Experts（MoE）言語モデルです。8.1兆トークンの高品質コーパスで事前学習され、教師あり微調整（SFT）と強化学習（RL）によってさらに能力が向上しました。DeepSeek 67B と比べて、DeepSeek-V2 はより高い性能を持ちながら、学習コストを42.5%削減し、KVキャッシュを93.3%削減し、最大生成スループットを5.76倍に向上させました。</td></tr><tr><td>deepseek-ai/DeepSeek-V2.5</td><td>32k</td><td>-</td><td>対応</td><td>対話</td><td>深度求索_deepseek</td><td>DeepSeek-V2.5 は DeepSeek-V2-Chat と DeepSeek-Coder-V2-Instruct のアップグレード版で、2つの以前のバージョンの汎用能力とコーディング能力を統合しています。このモデルは、文章作成や指示追従能力など複数の面で最適化されており、人間の好みによりよく一致するようになっています。</td></tr><tr><td>deepseek-ai/DeepSeek-V3</td><td>128k</td><td>4k</td><td>非対応</td><td>対話</td><td>深度求索_deepseek</td><td>deepseekのオープンソース版で、公式版よりコンテキストが長く、センシティブワードでの拒否応答などの問題がありません。</td></tr><tr><td>deepseek-chat</td><td>64k</td><td>8k</td><td>対応</td><td>対話</td><td>深度求索_deepseek</td><td>236Bパラメータ、64Kコンテキスト（API）、中国語の総合能力（AlignBench）でオープンソースのトップに位置し、GPT-4-Turbo、文心4.0などのクローズドソースモデルと同等の水準にあります。</td></tr><tr><td>deepseek-coder</td><td>64k</td><td>8k</td><td>対応</td><td>対話,コード</td><td>深度求索_deepseek</td><td>236Bパラメータ、64Kコンテキスト（API）、中国語の総合能力（AlignBench）でオープンソースのトップに位置し、GPT-4-Turbo、文心4.0などのクローズドソースモデルと同等の水準にあります。</td></tr><tr><td>deepseek-reasoner</td><td>64k</td><td>8k</td><td>対応</td><td>対話,推論</td><td>深度求索_deepseek</td><td>DeepSeek-Reasoner（DeepSeek-R1）は、DeepSeekが最新リリースした推論モデルで、強化学習による訓練を通じて推論能力を向上させることを目的としています。このモデルの推論過程には多くの反省と検証が含まれ、複雑な論理推論タスクを処理でき、思考連鎖は数万字に達することがあります。DeepSeek-R1は数学、コード、その他の複雑な問題の解答で優れた性能を示し、すでに多様なシーンで広く利用されており、その強力な推論能力と柔軟性を示しています。他のモデルと比べて、DeepSeek-R1は推論性能において最上位のクローズドソースモデルに近く、推論分野におけるオープンソースモデルの潜在力と競争力を示しています。</td></tr><tr><td>hunyuan-code</td><td>4k</td><td>4k</td><td>非対応</td><td>対話,コード</td><td>腾讯_hunyuan</td><td>Hunyuanの最新コード生成モデルで、200Bの高品質コードデータでベースモデルを追加学習し、半年にわたる高品質SFTデータで訓練されています。コンテキストの長さは8Kに拡張され、5大言語のコード生成自動評価指標で上位に位置しています。5大言語・10項目の総合的なコードタスクに関する人手による高品質評価でも、性能は第一層にあります。</td></tr><tr><td>hunyuan-functioncall</td><td>28k</td><td>4k</td><td>対応</td><td>対話</td><td>腾讯_hunyuan</td><td>Hunyuanの最新MOEアーキテクチャのFunctionCallモデルで、高品質なFunctionCallデータで訓練され、コンテキストウィンドウは32Kに達し、複数の評価指標で先行しています。</td></tr><tr><td>hunyuan-large</td><td>28k</td><td>4k</td><td>非対応</td><td>対話</td><td>腾讯_hunyuan</td><td>Hunyuan-largeモデルの総パラメータ数は約389B、活性化パラメータ数は約52Bで、現在業界最大規模かつ最も効果の高いTransformerアーキテクチャのオープンソースMoEモデルです。</td></tr><tr><td>hunyuan-large-longcontext</td><td>128k</td><td>6k</td><td>非対応</td><td>対話</td><td>腾讯_hunyuan</td><td>文書要約や文書QAなどの長文タスクの処理が得意で、汎用的なテキスト生成タスクにも対応できます。長文の分析と生成で優れた性能を発揮し、複雑で詳細な長文コンテンツ処理のニーズに効果的に対応します。</td></tr><tr><td>hunyuan-lite</td><td>250k</td><td>6k</td><td>非対応</td><td>対話</td><td>腾讯_hunyuan</td><td>MOE構造にアップグレードされ、コンテキストウィンドウは256kで、NLP、コード、数学、業界など多くの評価セットで多数のオープンソースモデルを上回っています。</td></tr><tr><td>hunyuan-pro</td><td>28k</td><td>4k</td><td>対応</td><td>対話</td><td>腾讯_hunyuan</td><td>兆級パラメータ規模のMOE-32K長文モデル。さまざまなベンチマークで絶対的なトップレベルに達し、複雑な指示と推論、複雑な数学能力を備え、FunctionCallをサポートし、多言語翻訳、金融・法務・医療などの分野向けに重点的に最適化されています。</td></tr><tr><td>hunyuan-role</td><td>28k</td><td>4k</td><td>非対応</td><td>対話</td><td>腾讯_hunyuan</td><td>Hunyuanの最新版ロールプレイングモデル。Hunyuan公式の精密チューニングで提供されたロールプレイングモデルで、Hunyuanモデルにロールプレイングシナリオのデータセットを組み合わせて追加学習されており、ロールプレイング場面でより良い基礎性能を発揮します。</td></tr><tr><td>hunyuan-standard</td><td>30k</td><td>2k</td><td>非対応</td><td>対話</td><td>腾讯_hunyuan</td><td>より優れたルーティング戦略を採用し、負荷分散と専門家の収束問題を同時に緩和しています。<br>MOE-32Kはコストパフォーマンスが比較的高く、効果と価格のバランスを取りながら、長文入力の処理を実現できます。</td></tr><tr><td>hunyuan-standard-256K</td><td>250k</td><td>6k</td><td>非対応</td><td>対話</td><td>腾讯_hunyuan</td><td>より優れたルーティング戦略を採用し、負荷分散と専門家の収束問題を同時に緩和しています。長文面では、ニードルインアヘイスタック指標が99.9%に達しました。MOE-256Kは長さと効果の両面でさらに突破し、入力可能な長さを大幅に拡張しました。</td></tr><tr><td>hunyuan-translation-lite</td><td>4k</td><td>4k</td><td>非対応</td><td>対話</td><td>腾讯_hunyuan</td><td>Hunyuan翻訳モデルは自然言語の対話形式による翻訳をサポートし、中国語と英語、日本語、フランス語、ポルトガル語、スペイン語、トルコ語、ロシア語、アラビア語、韓国語、イタリア語、ドイツ語、ベトナム語、マレー語、インドネシア語の15言語間翻訳に対応しています。</td></tr><tr><td>hunyuan-turbo</td><td>28k</td><td>4k</td><td>対応</td><td>対話</td><td>腾讯_hunyuan</td><td>Hunyuan-turboモデルのデフォルト版で、新しいMixture of Experts（MoE）構造を採用し、hunyuan-proに比べて推論効率が速く、性能もより強力です。</td></tr><tr><td>hunyuan-turbo-latest</td><td>28k</td><td>4k</td><td>対応</td><td>対話</td><td>腾讯_hunyuan</td><td>Hunyuan-turboモデルの動的更新版で、Hunyuanモデルシリーズの中で最も高性能なバージョンです。C向け（Tencent Yuanbao）と一致しています。</td></tr><tr><td>hunyuan-turbo-vision</td><td>8k</td><td>2k</td><td>対応</td><td>画像認識、対話</td><td>腾讯_hunyuan</td><td>Hunyuanの新世代ビジョン・言語フラッグシップ大規模モデルで、新しいMixture of Experts（MoE）構造を採用し、画像とテキストの理解に関する基礎認識、コンテンツ作成、知識Q&#x26;A、分析推論などの能力が前世代モデルより全面的に向上しています。最大入力6k、最大出力2k</td></tr><tr><td>hunyuan-vision</td><td>8k</td><td>2k</td><td>対応</td><td>対話,画像認識</td><td>腾讯_hunyuan</td><td>Hunyuanの最新マルチモーダルモデルで、画像+テキスト入力からテキスト内容を生成できます。<br>画像の基礎認識：画像内の主体、要素、シーンなどを認識<br>画像コンテンツ作成：画像の要約、広告文、SNS投稿、詩文などの作成<br>画像マルチターン対話：単一画像に対して複数回の対話型QAを実行<br>画像分析推論：画像内の論理関係、数学問題、コード、図表を統計的に分析<br>画像知識Q&#x26;A：画像に含まれる知識ポイントについてQAを実施。例えば歴史的出来事、映画ポスターなど<br>画像OCR：日常生活シーンや非日常シーンの画像内テキストを認識。</td></tr><tr><td>SparkDesk-Lite</td><td>4k</td><td>-</td><td>非対応</td><td>対話</td><td>星火_SparkDesk</td><td>オンライン検索機能をサポートし、応答が高速で便利です。低計算リソースの推論やモデルの微調整など、カスタマイズ場面に適しています</td></tr><tr><td>SparkDesk-Max</td><td>128k</td><td>-</td><td>対応</td><td>対話</td><td>星火_SparkDesk</td><td>最新版のSpark大規模モデルエンジン4.0 Turboをベースに量子化されており、オンライン検索、天気、日付など複数の内蔵プラグインをサポートします。コア能力が全面的に向上し、各シーンでの効果が全般的に改善されています。Systemロールの人格設定とFunctionCall関数呼び出しをサポートします</td></tr><tr><td>SparkDesk-Max-32k</td><td>32k</td><td>-</td><td>対応</td><td>対話</td><td>星火_SparkDesk</td><td>推論がより強力：より強いコンテキスト理解と論理推論能力。入力がより長い：32Kトークンのテキスト入力をサポートし、長文ドキュメントの読解、プライベート知識Q&#x26;Aなどのシーンに適しています</td></tr><tr><td>SparkDesk-Pro</td><td>128k</td><td>-</td><td>非対応</td><td>対話</td><td>星火_SparkDesk</td><td>数学、コード、医療、教育などのシーン向けに特化最適化されており、オンライン検索、天気、日付など複数の内蔵プラグインをサポートし、多くの知識Q&#x26;A、言語理解、テキスト創作などのシーンをカバーします</td></tr><tr><td>SparkDesk-Pro-128K</td><td>128k</td><td>-</td><td>非対応</td><td>対話</td><td>星火_SparkDesk</td><td>プロ仕様の大規模言語モデルで、百億級パラメータを持ち、医療、教育、コードなどのシーンで特化最適化されています。検索シーンでは遅延がより低く、テキスト処理やスマートQ&#x26;Aなど、性能と応答速度に高い要求がある業務シーンに適しています。</td></tr><tr><td>moonshot-v1-128k</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>月之暗面_moonshot</td><td>8k長のモデルで、短文生成に適しています。</td></tr><tr><td>moonshot-v1-32k</td><td>32k</td><td>4k</td><td>対応</td><td>対話</td><td>月之暗面_moonshot</td><td>32k長のモデルで、長文生成に適しています。</td></tr><tr><td>moonshot-v1-8k</td><td>8k</td><td>4k</td><td>対応</td><td>対話</td><td>月之暗面_moonshot</td><td>128k長のモデルで、超長文生成に適しています。</td></tr><tr><td>codegeex-4</td><td>128k</td><td>4k</td><td>非対応</td><td>対話,コード</td><td>智谱_codegeex</td><td>智譜のコードモデル：コード自動補完タスクに適しています</td></tr><tr><td>charglm-3</td><td>4k</td><td>2k</td><td>非対応</td><td>対話</td><td>智谱_glm</td><td>人間らしいモデル</td></tr><tr><td>emohaa</td><td>8k</td><td>4k</td><td>非対応</td><td>対話</td><td>智谱_glm</td><td>心理モデル：専門的な相談能力を備え、ユーザーが感情を理解し、感情面の問題に対処するのを支援します</td></tr><tr><td>glm-3-turbo</td><td>128k</td><td>4k</td><td>非対応</td><td>対話</td><td>智谱_glm</td><td>まもなく廃止予定（2025年6月30日）</td></tr><tr><td>glm-4</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>智谱_glm</td><td>旧フラッグシップ：2024年1月16日にリリースされ、現在はGLM-4-0520に置き換えられています</td></tr><tr><td>glm-4-0520</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>智谱_glm</td><td>高知能モデル：高度に複雑で多様なタスクの処理に適しています</td></tr><tr><td>glm-4-air</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>智谱_glm</td><td>高コスパ：推論能力と価格のバランスが最も取れたモデル</td></tr><tr><td>glm-4-airx</td><td>8k</td><td>4k</td><td>対応</td><td>対話</td><td>智谱_glm</td><td>超高速推論：超高速の推論速度と強力な推論効果を備えています</td></tr><tr><td>glm-4-flash</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>智谱_glm</td><td>高速・低価格：超高速の推論速度</td></tr><tr><td>glm-4-flashx</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>智谱_glm</td><td>高速・低価格：Flash強化版、超高速の推論速度</td></tr><tr><td>glm-4-long</td><td>1m</td><td>4k</td><td>対応</td><td>対話</td><td>智谱_glm</td><td>超長文入力：超長文テキストとメモリ型タスクの処理向けに設計されています</td></tr><tr><td>glm-4-plus</td><td>128k</td><td>4k</td><td>対応</td><td>対話</td><td>智谱_glm</td><td>高知能フラッグシップ：性能が全面的に向上し、長文および複雑なタスク能力が大幅に強化されています</td></tr><tr><td>glm-4v</td><td>2k</td><td>-</td><td>非対応</td><td>対話,画像認識</td><td>智谱_glm</td><td>画像理解：画像理解能力と推論能力を備えています</td></tr><tr><td>glm-4v-flash</td><td>2k</td><td>1k</td><td>非対応</td><td>対話,画像認識</td><td>智谱_glm</td><td>無料モデル：強力な画像理解能力を備えています</td></tr></tbody></table>
