モデルデータ
360gpt-pro
8k
-
未対応
対話
360AI_360gpt
360智脳シリーズで最も性能の高い主要な数百億〜兆級モデルであり、各分野の複雑なタスクシナリオに広く適用できます。
360gpt-turbo
7k
-
未対応
対話
360AI_360gpt
性能と効果のバランスが取れた百億級の大規模モデルで、性能やコスト要件が高いシーンに適しています。
360gpt-turbo-responsibility-8k
8k
-
未対応
対話
360AI_360gpt
性能と効果のバランスが取れた百億級の大規模モデルで、性能やコスト要件が高いシーンに適しています。
360gpt2-pro
8k
-
未対応
対話
360AI_360gpt
360智脳シリーズで最も性能の高い主要な数百億〜兆級モデルであり、各分野の複雑なタスクシナリオに広く適用できます。
claude-3-5-sonnet-20240620
200k
16k
未対応
対話、画像理解
Anthropic_claude
2024年6月20日にリリースされたスナップショット版です。Claude 3.5 Sonnetは性能と速度のバランスが取れたモデルで、高速性を保ちながらトップクラスの性能を提供し、マルチモーダル入力をサポートします。
claude-3-5-haiku-20241022
200k
16k
未対応
対話
Anthropic_claude
2024年10月22日にリリースされたスナップショット版です。Claude 3.5 Haikuはコーディング、ツール使用、推論などすべてのスキルが向上しています。Anthropicシリーズの中で最も高速なモデルとして、応答時間が短く、高いインタラクティビティと低遅延を要するアプリ(ユーザ向けチャットボットやリアルタイムのコード補完など)に適しています。データ抽出やリアルタイムのコンテンツ審査など専門的なタスクにも優れており、業界で広く使える多機能ツールとなっています。画像入力はサポートしていません。
claude-3-5-sonnet-20241022
200k
8K
未対応
対話、画像理解
Anthropic_claude
2024年10月22日にリリースされたスナップショット版です。Claude 3.5 SonnetはOpusを上回る能力とSonnetよりも高速な速度を提供し、価格はSonnetと同等を維持します。Sonnetは特にプログラミング、データサイエンス、視覚処理、エージェントタスクに優れています。
claude-3-5-sonnet-latest
200K
8k
未対応
対話、画像理解
Anthropic_claude
最新のClaude 3.5 Sonnetバージョンを動的に指すものです。Claude 3.5 SonnetはOpusを上回る能力とSonnetよりも高速な速度を提供し、価格はSonnetと同等を維持します。Sonnetは特にプログラミング、データサイエンス、視覚処理、エージェントタスクに優れており、このエントリは最新バージョンを指します。
claude-3-haiku-20240307
200k
4k
未対応
対話、画像理解
Anthropic_claude
Claude 3 HaikuはAnthropicの中で最速かつ最もコンパクトなモデルで、ほぼ即時の応答を実現することを目的としています。高速かつ正確な指向性能を持ちます。
claude-3-opus-20240229
200k
4k
未対応
対話、画像理解
Anthropic_claude
Claude 3 OpusはAnthropicが高度に複雑なタスク処理のために提供する最も強力なモデルです。性能、知能、流暢性、理解力において卓越した成果を示します。
claude-3-sonnet-20240229
200k
8k
未対応
対話、画像理解
Anthropic_claude
2024年2月29日にリリースされたスナップショット版です。Sonnetは特に以下に優れています: - コーディング:自律的にコードを書き、編集・実行でき、推論やデバッグ能力を備える - データサイエンス:人間のデータサイエンス専門知識を補強し、複数のツールを用いて非構造化データから洞察を得る - 視覚処理:チャート、グラフ、画像の解釈に優れ、テキストを超えた洞察を正確に転写する - エージェントタスク:ツールの使用に長けており、他のシステムと連携する複雑な多段階問題解決(エージェントタスク)に非常に適している
google/gemma-2-27b-it
8k
-
未対応
対話
Google_gamma
GemmaはGoogleが開発した軽量で最先端のオープンモデルシリーズで、Geminiモデルと同じ研究・技術に基づいて構築されています。これらのモデルはデコーダのみの大規模言語モデルで英語をサポートし、事前学習と指示微調整の両方のバリアントについてオープンウェイトを提供します。Gemmaモデルは質問応答、要約、推論などのさまざまなテキスト生成タスクに適しています。
google/gemma-2-9b-it
8k
-
未対応
対話
Google_gamma
GemmaはGoogleが開発した軽量で最先端のオープンモデルシリーズの一つです。これはデコーダのみの大規模言語モデルで英語をサポートし、オープンウェイト、事前学習バリアント、指示微調整バリアントを提供します。Gemmaモデルは質問応答、要約、推論などのテキスト生成タスクに適しています。この9Bモデルは8兆トークンで訓練されています。
gemini-1.5-pro
2m
8k
未対応
対話
Google_gemini
Gemini 1.5 Proの最新の安定版です。強力なマルチモーダルモデルとして、最大6万行のコードまたは2,000ページのテキストを処理できます。複雑な推論を必要とするタスクに特に適しています。
gemini-1.0-pro-001
33k
8k
未対応
対話
Google_gemini
これはGemini 1.0 Proの安定版です。NLPモデルとして、マルチターンのテキストおよびコードチャットやコード生成などのタスクを専門に扱います。本モデルは2025年2月15日に廃止される予定で、1.5シリーズモデルへの移行が推奨されます。
gemini-1.0-pro-002
32k
8k
未対応
対話
Google_gemini
これはGemini 1.0 Proの安定版です。NLPモデルとして、マルチターンのテキストおよびコードチャットやコード生成などのタスクを専門に扱います。本モデルは2025年2月15日に廃止される予定で、1.5シリーズモデルへの移行が推奨されます。
gemini-1.0-pro-latest
33k
8k
未対応
対話、廃止済みまたは廃止予定
Google_gemini
これはGemini 1.0 Proの最新バージョンです。NLPモデルとして、マルチターンのテキストおよびコードチャットやコード生成などのタスクを専門に扱います。本モデルは2025年2月15日に廃止される予定で、1.5シリーズモデルへの移行が推奨されます。
gemini-1.0-pro-vision-001
16k
2k
未対応
対話
Google_gemini
これはGemini 1.0 Proのビジョン版です。本モデルは2025年2月15日に廃止される予定で、1.5シリーズモデルへの移行が推奨されます。
gemini-1.0-pro-vision-latest
16k
2k
未対応
画像理解
Google_gemini
これはGemini 1.0 Proのビジョン最新バージョンです。本モデルは2025年2月15日に廃止される予定で、1.5シリーズモデルへの移行が推奨されます。
gemini-1.5-flash
1m
8k
未対応
対話、画像理解
Google_gemini
これはGemini 1.5 Flashの最新安定版です。バランスの取れたマルチモーダルモデルとして、音声、画像、動画、テキスト入力を処理できます。
gemini-1.5-flash-001
1m
8k
未対応
対話、画像理解
Google_gemini
これはGemini 1.5 Flashの安定版です。gemini-1.5-flashと同等の基本機能を提供しますが、バージョンが固定されており本番環境での使用に適しています。
gemini-1.5-flash-002
1m
8k
未対応
対話、画像理解
Google_gemini
これはGemini 1.5 Flashの安定版です。gemini-1.5-flashと同等の基本機能を提供しますが、バージョンが固定されており本番環境での使用に適しています。
gemini-1.5-flash-8b
1m
8k
未対応
対話、画像理解
Google_gemini
Gemini 1.5 Flash-8BはGoogleが最近発表したマルチモーダルAIモデルで、大規模タスクを効率的に処理するよう設計されています。80億のパラメータを持ち、テキスト、画像、音声、動画の入力をサポートし、チャット、文字起こし、翻訳など様々な応用に適しています。他のGeminiモデルと比べて速度とコスト効率が最適化されており、コストに敏感なユーザーに特に向いています。レート制限が倍増しており、開発者が大規模タスクをより効率的に処理できるようになっています。さらに、より大きなモデルから重要な知識を抽出する「知識蒸留」技術を採用し、コア能力を維持しつつ軽量化と効率化を実現しています。
gemini-1.5-flash-exp-0827
1m
8k
未対応
対話、画像理解
Google_gemini
これはGemini 1.5 Flashの実験版で、定期的に最新の改良を取り込むために更新されます。探索的テストやプロトタイプ開発に適しており、本番環境での使用は推奨されません。
gemini-1.5-flash-latest
1m
8k
未対応
対話、画像理解
Google_gemini
これはGemini 1.5 Flashの最先端版で、定期的に最新の改良を取り込むために更新されます。探索的テストやプロトタイプ開発に適しており、本番環境での使用は推奨されません。
gemini-1.5-pro-001
2m
8k
未対応
対話、画像理解
Google_gemini
これはGemini 1.5 Proの安定版で、固定されたモデル動作と性能特性を提供します。安定性を必要とする本番環境での使用に適しています。
gemini-1.5-pro-002
2m
8k
未対応
対話、画像理解
Google_gemini
これはGemini 1.5 Proの安定版で、固定されたモデル動作と性能特性を提供します。安定性を必要とする本番環境での使用に適しています。
gemini-1.5-pro-exp-0801
2m
8k
未対応
対話、画像理解
Google_gemini
Gemini 1.5 Proの実験版です。強力なマルチモーダルモデルとして、最大6万行のコードまたは2,000ページのテキストを処理できます。複雑な推論が必要なタスクに特に適しています。
gemini-1.5-pro-exp-0827
2m
8k
未対応
対話、画像理解
Google_gemini
Gemini 1.5 Proの実験版です。強力なマルチモーダルモデルとして、最大6万行のコードまたは2,000ページのテキストを処理できます。複雑な推論が必要なタスクに特に適しています。
gemini-1.5-pro-latest
2m
8k
未対応
対話、画像理解
Google_gemini
これはGemini 1.5 Proの最新バージョンで、最新のスナップショットバージョンを動的に指します。
gemini-2.0-flash
1m
8k
未対応
対話、画像理解
Google_gemini
Gemini 2.0 FlashはGoogleが最近発表したモデルで、1.5バージョンに比べて初回生成速度(TTFT)が速く、Gemini Pro 1.5と同等の品質レベルを維持します。本モデルはマルチモーダル理解、コード能力、複雑な指示実行、関数呼び出しなどで大きく改善されており、より滑らかで強力なインテリジェンス体験を提供します。
gemini-2.0-flash-exp
100k
8k
サポートあり
対話、画像理解
Google_gemini
Gemini 2.0 FlashはマルチモーダルのリアルタイムAPI、速度と性能の改善、品質向上、エージェント能力の強化、画像生成や音声変換機能の追加を導入しています。
gemini-2.0-flash-lite-preview-02-05
1M
8k
未対応
対話、画像理解
Google_gemini
Gemini 2.0 Flash-LiteはGoogleが最近リリースした高コストパフォーマンスのAIモデルで、1.5 Flashと同等の速度を保ちながら品質が向上しています。100万トークンのコンテキストウィンドウをサポートし、画像、音声、コードなどのマルチモーダルタスクを処理できます。現在のところGoogleで最もコスト効率が高いモデルで、単一の簡潔な価格戦略を採用しており、コスト管理が重要な大規模アプリケーションに特に適しています。
gemini-2.0-flash-thinking-exp
40k
8k
未対応
対話、推論
Google_gemini
gemini-2.0-flash-thinking-expは実験モデルで、応答を生成する際に経た「思考過程」を出力できます。したがって基本のGemini 2.0 Flashモデルと比べて、「思考モード」の応答はより強い推論能力を持ちます。
gemini-2.0-flash-thinking-exp-01-21
1m
64k
未対応
対話、推論
Google_gemini
Gemini 2.0 Flash Thinking EXP-01-21はGoogleが最近発表したAIモデルで、推論能力とユーザとのインタラクション体験の向上に注力しています。本モデルは特に数学とプログラミング分野で強力な推論能力を持ち、最大100万トークンのコンテキストウィンドウをサポートし、複雑なタスクや深い分析シナリオに適しています。特徴的なのは思考過程を生成できる点で、AIの思考の可視化により理解性を高めます。ネイティブのコード実行をサポートし、インタラクションの柔軟性と実用性を強化します。アルゴリズムの最適化により論理矛盾を減らし、回答の正確性と一貫性をさらに向上させています。
gemini-2.0-flash-thinking-exp-1219
40k
8k
未対応
対話、推論、画像理解
Google_gemini
gemini-2.0-flash-thinking-exp-1219は実験モデルで、応答を生成する際に経た「思考過程」を出力できます。したがって基本のGemini 2.0 Flashモデルと比べて、「思考モード」の応答はより強い推論能力を持ちます。
gemini-2.0-pro-exp-01-28
2m
64k
未対応
対話、画像理解
Google_gemini
事前準備モデルでまだ公開されていません
gemini-2.0-pro-exp-02-05
2m
8k
未対応
対話、画像理解
Google_gemini
Gemini 2.0 Pro Exp 02-05はGoogleが2024年2月に発表した最新の実験モデルで、世界知識、コード生成、長文理解において優れた性能を示します。本モデルは200万トークンの超長コンテキストウィンドウをサポートし、2時間の動画、22時間の音声、6万行以上のコード、140万語以上の内容を処理できます。Gemini 2.0シリーズの一部として、新たなFlash Thinking訓練戦略を採用し性能が大幅に向上しており、複数のLLM評価ランキングで上位にランクインしているなど強力な総合能力を示します。
gemini-exp-1114
8k
4k
未対応
対話、画像理解
Google_gemini
これは実験モデルで、2024年11月14日にリリースされ、主に品質改善に焦点を当てています。
gemini-exp-1121
8k
4k
未対応
対話、画像理解、コード
Google_gemini
これは実験モデルで、2024年11月21日にリリースされ、コーディング、推論、視覚能力が改善されています。
gemini-exp-1206
8k
4k
未対応
対話、画像理解
Google_gemini
これは実験モデルで、2024年12月6日にリリースされ、コーディング、推論、視覚能力が改善されています。
gemini-exp-latest
8k
4k
未対応
対話、画像理解
Google_gemini
これは実験モデルで、最新バージョンを動的に指します。
gemini-pro
33k
8k
未対応
対話
Google_gemini
gemini-1.0-proと同じで、gemini-1.0-proの別名です。
gemini-pro-vision
16k
2k
未対応
対話、画像理解
Google_gemini
これはGemini 1.0 Proのビジョン版です。本モデルは2025年2月15日に廃止される予定で、1.5シリーズモデルへの移行が推奨されます。
grok-2
128k
-
未対応
対話
Grok_grok
X.aiが2024年12月12日にリリースした新バージョンのgrokモデルです。
grok-2-1212
128k
-
未対応
対話
Grok_grok
X.aiが2024年12月12日にリリースした新バージョンのgrokモデルです。
grok-2-latest
128k
-
未対応
対話
Grok_grok
X.aiが2024年12月12日にリリースした新バージョンのgrokモデルです。
grok-2-vision-1212
32k
-
未対応
対話、画像理解
Grok_grok
X.aiが2024年12月12日にリリースしたgrokビジョン版モデルです。
grok-beta
100k
-
未対応
対話
Grok_grok
Grok 2と同等の性能を持ちながら、効率、速度、機能が向上しています。
grok-vision-beta
8k
-
未対応
対話、画像理解
Grok_grok
最新の画像理解モデルで、ドキュメント、チャート、スクリーンショット、写真など様々な視覚情報を処理できます。
internlm/internlm2_5-20b-chat
32k
-
サポートあり
対話
internlm
InternLM2.5-20B-Chatはオープンソースの大規模対話モデルで、InternLM2アーキテクチャに基づいて開発されました。本モデルは200億パラメータを有し、数学的推論分野で優れた性能を示し、同クラスのLlama3やGemma2-27Bを上回ります。InternLM2.5-20B-Chatはツール呼び出し能力が大幅に向上しており、数百のウェブページから情報を収集して分析・推論することをサポートし、指示理解、ツール選択、結果の反省能力が強化されています。
meta-llama/Llama-3.2-11B-Vision-Instruct
8k
-
未対応
対話、画像理解
Meta_llama
現在、Llamaシリーズのモデルはテキストデータだけでなく画像データも処理可能です。Llama 3.2の一部モデルは視覚理解機能を追加しており、このモデルはテキストと画像の同時入力をサポートし、画像を理解してテキスト情報を出力します。
meta-llama/Llama-3.2-3B-Instruct
32k
-
未対応
対話
Meta_llama
Meta Llama 3.2は多言語の大規模言語モデル(LLM)で、1Bおよび3Bはエッジやモバイルデバイスで動作可能な軽量モデルです。本モデルは3Bバージョンです。
meta-llama/Llama-3.2-90B-Vision-Instruct
8k
-
未対応
対話、画像理解
Meta_llama
現在、Llamaシリーズのモデルはテキストデータだけでなく画像データも処理可能です。Llama 3.2の一部モデルは視覚理解機能を追加しており、このモデルはテキストと画像の同時入力をサポートし、画像を理解してテキスト情報を出力します。
meta-llama/Llama-3.3-70B-Instruct
131k
-
未対応
対話
Meta_llama
Metaの最新の70B LLMで、性能はllama 3.1の405Bに匹敵します。
meta-llama/Meta-Llama-3.1-405B-Instruct
32k
-
未対応
対話
Meta_llama
Meta Llama 3.1多言語LLMファミリーは、8B、70B、405Bサイズの事前学習および指示微調整済み生成モデルの集合であり、本モデルは405Bバージョンです。Llama 3.1の指示微調整テキストモデル(8B、70B、405B)は多言語対話に最適化されており、一般的な業界ベンチマークで多くのオープンソースおよびクローズドソースのチャットモデルを上回っています。
meta-llama/Meta-Llama-3.1-70B-Instruct
32k
-
未対応
対話
Meta_llama
Meta Llama 3.1はMetaが開発した多言語大規模言語モデル群で、8B、70B、405Bの三つのパラメータ規模を含む事前学習と指示微調整のバリアントがあります。70Bの指示微調整モデルは多言語対話シナリオに最適化されており、多くの業界ベンチマークで優れた性能を示します。モデルの学習には15兆以上の公開トークンが使用され、監督付き微調整や人間のフィードバックによる強化学習などの技術を採用して有用性と安全性を向上させています。
meta-llama/Meta-Llama-3.1-8B-Instruct
32k
-
未対応
対話
Meta_llama
Meta Llama 3.1多言語LLMファミリーは8B、70B、405Bサイズの事前学習および指示微調整済み生成モデルの集合であり、本モデルは8Bバージョンです。Llama 3.1の指示微調整テキストモデル(8B、70B、405B)は多言語対話に最適化されており、一般的な業界ベンチマークで多くの利用可能なオープンおよびクローズドチャットモデルを上回ります。
abab5.5-chat
16k
-
サポートあり
対話
Minimax_abab
中国語のキャラクターペルソナ対話シナリオ
abab5.5s-chat
8k
-
サポートあり
対話
Minimax_abab
中国語のキャラクターペルソナ対話シナリオ
abab6.5g-chat
8k
-
サポートあり
対話
Minimax_abab
英語など多言語のキャラクターペルソナ対話シナリオ
abab6.5s-chat
245k
-
サポートあり
対話
Minimax_abab
汎用シナリオ
abab6.5t-chat
8k
-
サポートあり
対話
Minimax_abab
中国語のキャラクターペルソナ対話シナリオ
chatgpt-4o-latest
128k
16k
未対応
対話、画像理解
OpenAI
chatgpt-4o-latestモデルバージョンはChatGPTで使用されているGPT-4oバージョンを指し、重要な変更がある場合に迅速に更新されます。
gpt-4o-2024-11-20
128k
16k
サポートあり
対話
OpenAI
2024年11月20日のgpt-4oの最新スナップショット版です。
gpt-4o-audio-preview
128k
16k
未対応
対話
OpenAI
OpenAIのリアルタイム音声対話モデル
gpt-4o-audio-preview-2024-10-01
128k
16k
サポートあり
対話
OpenAI
OpenAIのリアルタイム音声対話モデル
o1
128k
32k
未対応
対話、推論、画像理解
OpenAI
OpenAIが複雑なタスク向けに開発した新しい推論モデルで、広範な常識を必要とするタスクに適しています。本モデルは200kのコンテキストを持ち、現在世界で最も強力なモデルの一つであり、画像認識をサポートします。
o1-mini-2024-09-12
128k
64k
未対応
対話、推論
OpenAI
o1-miniの固定スナップショット版で、o1-previewより小さく高速でコストが80%低く、コード生成や小コンテキスト操作において良好な性能を示します。
o1-preview-2024-09-12
128k
32k
未対応
対話、推論
OpenAI
o1-previewの固定スナップショット版です。
gpt-3.5-turbo
16k
4k
サポートあり
対話
OpenAI_gpt-3
GPT-3.5に基づく:GPT-3.5 TurboはGPT-3.5モデルを基盤に改良されたバージョンで、OpenAIが開発しました。 性能目標:モデル構造とアルゴリズムを最適化することで、推論速度、処理効率、リソース利用率を向上させることを目的としています。 推論速度の向上:GPT-3.5に比べ、GPT-3.5 Turboは同一ハードウェア条件下で一般的により高速な推論を提供でき、大規模なテキスト処理を必要とするアプリケーションで特に有益です。 スループットの向上:大量のリクエストやデータを処理する際に、GPT-3.5 Turboはより高い並列処理能力を実現し、全体のシステムスループットを向上させます。 リソース消費の最適化:性能を維持しつつ、メモリや計算リソースなどのハードウェア要求を低減することで、運用コストの削減とシステムの拡張性向上に寄与します。 幅広い自然言語処理タスク:テキスト生成、意味理解、対話システム、機械翻訳など多様なNLPタスクに適しています。 開発者ツールとAPIサポート:開発者が統合・利用しやすいAPIインターフェースを提供し、迅速なアプリケーション開発とデプロイを支援します。
gpt-3.5-turbo-0125
16k
4k
サポートあり
対話
OpenAI_gpt-3
更新されたGPT-3.5 Turboで、リクエストフォーマットに対する応答の正確性が向上し、非英語言語における関数呼び出しテキストのエンコーディング問題を引き起こすバグが修正されました。最大4,096出力トークンを返します。
gpt-3.5-turbo-0613
16k
4k
サポートあり
対話
OpenAI_gpt-3
更新されたGPT-3.5 Turboの固定スナップショット版です。現在は廃止されています。
gpt-3.5-turbo-1106
16k
4k
サポートあり
対話
OpenAI_gpt-3
改良された指示追従、JSONモード、再現可能な出力、並列関数呼び出しなどを備えています。最大4,096出力トークンを返します。
gpt-3.5-turbo-16k
16k
4k
サポートあり
対話、廃止済みまたは廃止予定
OpenAI_gpt-3
(廃止済み)
gpt-3.5-turbo-16k-0613
16k
4k
サポートあり
対話、廃止済みまたは廃止予定
OpenAI_gpt-3
gpt-3.5-turboの2023年6月13日のスナップショットです。(廃止済み)
gpt-3.5-turbo-instruct
4k
4k
サポートあり
対話
OpenAI_gpt-3
GPT-3時代のモデルに類似した能力を持ちます。レガシーのCompletionsエンドポイントと互換性があり、Chat Completionsには適していません。
gpt-3.5o
16k
4k
未対応
対話
OpenAI_gpt-3
gpt-4o-liteと同等です。
gpt-4
8k
8k
サポートあり
対話
OpenAI_gpt-4
現在はgpt-4-0613を指しています。
gpt-4-0125-preview
128k
4k
サポートあり
対話
OpenAI_gpt-4
最新のGPT-4モデルで、「怠慢」な状況、つまりモデルがタスクを完遂しないケースを減らすことを目的としています。最大4,096出力トークンを返します。
gpt-4-0314
8k
8k
サポートあり
対話
OpenAI_gpt-4
gpt-4の2023年3月14日のスナップショット
gpt-4-0613
8k
8k
サポートあり
対話
OpenAI_gpt-4
gpt-4の2023年6月13日のスナップショットで、関数呼び出しのサポートが強化されています。
gpt-4-1106-preview
128k
4k
サポートあり
対話
OpenAI_gpt-4
GPT-4 Turboモデルで、改良された指示追従、JSONモード、再現可能な出力、関数呼び出しなどを備えます。最大4,096出力トークンを返します。これはプレビュー版です。
gpt-4-32k
32k
4k
サポートあり
対話
OpenAI_gpt-4
gpt-4-32kは2025-06-06に廃止されます。
gpt-4-32k-0613
32k
4k
サポートあり
対話、廃止済みまたは廃止予定
OpenAI_gpt-4
2025-06-06に廃止されます。
gpt-4-turbo
128k
4k
サポートあり
対話
OpenAI_gpt-4
最新版のGPT-4 Turboモデルは視覚機能が追加され、視覚リクエストをJSONモードや関数呼び出しで処理できるようになりました。本モデルの現行バージョンはgpt-4-turbo-2024-04-09です。
gpt-4-turbo-2024-04-09
128k
4k
サポートあり
対話
OpenAI_gpt-4
視覚機能を備えたGPT-4 Turboモデルです。視覚リクエストはJSONモードや関数呼び出しを通じて処理可能になりました。gpt-4-turboの現行バージョンはこのバージョンです。
gpt-4-turbo-preview
128k
4k
サポートあり
対話、画像理解
OpenAI_gpt-4
現在はgpt-4-0125-previewを指しています。
gpt-4o
128k
16k
サポートあり
対話、画像理解
OpenAI_gpt-4
OpenAIの高性能フラッグシップモデルで、複雑な多段階タスクに適しています。GPT-4oはGPT-4 Turboよりも安価で高速です。
gpt-4o-2024-05-13
128k
4k
サポートあり
対話、画像理解
OpenAI_gpt-4
2024年5月13日のオリジナルgpt-4oスナップショットです。
gpt-4o-2024-08-06
128k
16k
サポートあり
対話、画像理解
OpenAI_gpt-4
構造化出力をサポートする最初のスナップショットです。gpt-4oは現在このバージョンを指しています。
gpt-4o-mini
128k
16k
サポートあり
対話、画像理解
OpenAI_gpt-4
OpenAIの経済的なgpt-4oバージョンで、迅速で軽量なタスクに適しています。GPT-4o miniはGPT-3.5 Turboより安価で、より強力な機能を持ちます。現在はgpt-4o-mini-2024-07-18を指しています。
gpt-4o-mini-2024-07-18
128k
16k
サポートあり
対話、画像理解
OpenAI_gpt-4
gpt-4o-miniの固定スナップショット版です。
gpt-4o-realtime-preview
128k
4k
サポートあり
対話、リアルタイム音声
OpenAI_gpt-4
OpenAIのリアルタイム音声対話モデル
gpt-4o-realtime-preview-2024-10-01
128k
4k
サポートあり
対話、リアルタイム音声、画像理解
OpenAI_gpt-4
gpt-4o-realtime-previewは現在このスナップショットバージョンを指しています。
o1-mini
128k
64k
未対応
対話、推論
OpenAI_o1
o1-previewより小さく高速で、コストが80%低減され、コード生成や小コンテキスト操作において良好な性能を示します。
o1-preview
128k
32k
未対応
対話、推論
OpenAI_o1
o1-previewは広範な常識を要する複雑なタスク向けの新しい推論モデルです。本モデルは128Kのコンテキストと2023年10月時点の知識を持ち、高度な推論と複雑な問題解決(数学や科学タスクを含む)に焦点を当てています。深いコンテキスト理解と自律的なワークフローを必要とするアプリケーションに非常に適しています。
o3-mini
200k
100k
サポートあり
対話、推論
OpenAI_o1
o3-miniはOpenAIの最新の小型推論モデルで、o1-miniと同等のコストと遅延を保ちながら高い知能を提供します。科学、数学、コーディングタスクに焦点を当て、構造化出力、関数呼び出し、バッチAPIなどの開発者向け機能をサポートします。知識は2023年10月までで、推論能力と経済性のバランスが優れています。
o3-mini-2025-01-31
200k
100k
サポートあり
対話、推論
OpenAI_o1
o3-miniは現在このバージョンを指しており、o3-mini-2025-01-31はOpenAIの最新の小型推論モデルです。o1-miniと同等のコストと遅延を保ちながら高い知能を提供し、科学、数学、コーディングタスクに注力しています。構造化出力、関数呼び出し、バッチAPIなどの開発者機能をサポートし、知識は2023年10月までです。推論能力と経済性のバランスが優れています。
Baichuan2-Turbo
32k
-
未対応
対話
百川_baichuan
同サイズの業界モデルと比較して、性能を業界水準に保ちつつ価格を大幅に引き下げています。
Baichuan3-Turbo
32k
-
未対応
対話
百川_baichuan
同サイズの業界モデルと比較して、性能を業界水準に保ちつつ価格を大幅に引き下げています。
Baichuan3-Turbo-128k
128k
-
未対応
対話
百川_baichuan
百川モデルは128kの超長コンテキストウィンドウで複雑なテキストを処理し、金融などの業界向けに専用最適化されています。高性能を維持しつつコストを大幅に削減し、企業に高いコストパフォーマンスのソリューションを提供します。
Baichuan4
32k
-
未対応
対話
百川_baichuan
百川のMoEモデルは専用の最適化によりコストを低減し性能を向上させ、企業向けアプリケーションに高効率でコスト効果の高いソリューションを提供します。
Baichuan4-Air
32k
-
未対応
対話
百川_baichuan
百川のMoEモデルは専用の最適化によりコストを低減し性能を向上させ、企業向けアプリケーションに高効率でコスト効果の高いソリューションを提供します。
Baichuan4-Turbo
32k
-
未対応
対話
百川_baichuan
大量の高品質なシナリオデータで訓練されており、企業の高頻度シナリオにおける可用性はBaichuan4より10%以上向上、情報要約は50%向上、多言語は31%向上、コンテンツ生成は13%向上しました。 推論性能の専門的最適化により、初回トークン応答速度はBaichuan4より51%向上、トークン流速は73%向上しています。
ERNIE-3.5-128K
128k
4k
サポートあり
対話
百度_ernie
Baiduが独自開発したフラグシップの大規模言語モデルで、大量の中英語コーパスをカバーし強力な汎用能力を持ち、対話QA、生成、プラグインアプリケーション等の多くのシナリオ要件を満たします。Baidu検索プラグインとの自動接続をサポートし、応答情報の新鮮さを保証します。
ERNIE-3.5-8K
8k
1k
サポートあり
対話
百度_ernie
Baiduが独自開発したフラグシップの大規模言語モデルで、大量の中英語コーパスをカバーし強力な汎用能力を持ち、対話QA、生成、プラグインアプリケーション等の多くのシナリオ要件を満たします。Baidu検索プラグインとの自動接続をサポートし、応答情報の新鮮さを保証します。
ERNIE-3.5-8K-Preview
8k
1k
サポートあり
対話
百度_ernie
Baiduが独自開発したフラグシップの大規模言語モデルで、大量の中英語コーパスをカバーし強力な汎用能力を持ち、対話QA、生成、プラグインアプリケーション等の多くのシナリオ要件を満たします。Baidu検索プラグインとの自動接続をサポートし、応答情報の新鮮さを保証します。
ERNIE-4.0-8K
8k
1k
サポートあり
対話
百度_ernie
Baiduが独自開発したフラグシップの超大規模言語モデルで、ERNIE 3.5と比べてモデル能力が全面的にアップグレードされており、各分野の複雑なタスクシナリオに広く適用できます。Baidu検索プラグインとの自動接続をサポートし、応答情報の新鮮さを保証します。
ERNIE-4.0-8K-Latest
8k
2k
サポートあり
対話
百度_ernie
ERNIE-4.0-8K-LatestはERNIE-4.0-8Kに比べて能力が全面的に向上しており、特にロールプレイ能力と指示遵守能力が大きく向上しています。ERNIE 3.5と比べてモデル能力が全面的にアップグレードされ、各分野の複雑なタスクシナリオに広く適用できます。Baidu検索プラグインとの自動接続をサポートし、応答情報の新鮮さを保証します。5Kトークン入力+2Kトークン出力をサポートします。本稿ではERNIE-4.0-8K-LatestのAPI呼び出し方法について説明します。
ERNIE-4.0-8K-Preview
8k
1k
サポートあり
対話
百度_ernie
Baiduが独自開発したフラグシップの超大規模言語モデルで、ERNIE 3.5と比べてモデル能力が全面的にアップグレードされており、各分野の複雑なタスクシナリオに広く適用できます。Baidu検索プラグインとの自動接続をサポートし、応答情報の新鮮さを保証します。
ERNIE-4.0-Turbo-128K
128k
4k
サポートあり
対話
百度_ernie
ERNIE 4.0 TurboはBaiduが独自開発したフラグシップの超大規模言語モデルで、総合的な性能が優れており、各分野の複雑なタスクシナリオに広く適用できます。Baidu検索プラグインとの自動接続をサポートし、応答情報の新鮮さを保証します。ERNIE 4.0よりも性能面で優れています。ERNIE-4.0-Turbo-128Kは長文処理においてERNIE-3.5-128Kより全体的な効果が優れています。本稿では関連APIと使用方法について説明します。
ERNIE-4.0-Turbo-8K
8k
2k
サポートあり
対話
百度_ernie
ERNIE 4.0 TurboはBaiduが独自開発したフラグシップの超大規模言語モデルで、総合的な性能が優れており、各分野の複雑なタスクシナリオに広く適用できます。Baidu検索プラグインとの自動接続をサポートし、応答情報の新鮮さを保証します。ERNIE 4.0よりも性能面で優れています。ERNIE-4.0-Turbo-8Kはモデルの一バージョンです。本稿では関連APIと使用方法について説明します。
ERNIE-4.0-Turbo-8K-Latest
8k
2k
サポートあり
対話
百度_ernie
ERNIE 4.0 TurboはBaiduが独自開発したフラグシップの超大規模言語モデルで、総合的な性能が優れており、各分野の複雑なタスクシナリオに広く適用できます。Baidu検索プラグインとの自動接続をサポートし、応答情報の新鮮さを保証します。ERNIE 4.0よりも性能面で優れています。ERNIE-4.0-Turbo-8Kはモデルの一バージョンです。
ERNIE-4.0-Turbo-8K-Preview
8k
2k
サポートあり
対話
百度_ernie
ERNIE 4.0 TurboはBaiduが独自開発したフラグシップの超大規模言語モデルで、総合的な性能が優れており、各分野の複雑なタスクシナリオに広く適用できます。Baidu検索プラグインとの自動接続をサポートし、応答情報の新鮮さを保証します。ERNIE-4.0-Turbo-8K-Previewはモデルの一バージョンです。
ERNIE-Character-8K
8k
1k
未対応
対話
百度_ernie
Baiduが独自開発した垂直シナリオ向けの大規模言語モデルで、ゲームNPC、カスタマーサポート対話、ロールプレイ対話などの用途に適しています。キャラクタースタイルがより明確で一貫しており、指示遵守能力が高く、推論性能にも優れています。
ERNIE-Lite-8K
8k
4k
未対応
対話
百度_ernie
Baiduが独自開発した軽量大規模言語モデルで、優れたモデル効果と推論性能の両立を図り、低算力のAIアクセラレータカードでの推論に適しています。
ERNIE-Lite-Pro-128K
128k
2k
サポートあり
対話
百度_ernie
Baiduが独自開発した軽量大規模言語モデルで、ERNIE Liteより性能が高く、優れたモデル効果と推論性能を両立します。低算力のAIアクセラレータカードでの推論に適しています。ERNIE-Lite-Pro-128Kは128Kのコンテキスト長をサポートし、ERNIE-Lite-128Kより優れた効果を示します。
ERNIE-Novel-8K
8k
2k
未対応
対話
百度_ernie
ERNIE-Novel-8KはBaiduが独自開発した汎用大規模言語モデルで、小説の続き書きに明確な強みがあり、短編ドラマや映画などのシーンにも利用できます。
ERNIE-Speed-128K
128k
4k
未対応
対話
百度_ernie
Baiduが2024年に発表した最新の高性能大規模言語モデルで、汎用能力に優れ、ベースモデルとして微調整に適しており、特定シナリオの問題をより良く処理できるとともに、優れた推論性能を備えています。
ERNIE-Speed-8K
8k
1k
未対応
対話
百度_ernie
Baiduが2024年に発表した最新の高性能大規模言語モデルで、汎用能力に優れ、ベースモデルとして微調整に適しており、特定シナリオの問題をより良く処理できるとともに、優れた推論性能を備えています。
ERNIE-Speed-Pro-128K
128k
4k
未対応
対話
百度_ernie
ERNIE Speed ProはBaiduが2024年に発表した最新の高性能大規模言語モデルで、汎用能力に優れ、ベースモデルとして微調整に適しており、特定シナリオの問題をより良く処理できるとともに優れた推論性能を備えています。ERNIE-Speed-Pro-128Kは2024年8月30日にリリースされた初期バージョンで、128Kのコンテキスト長をサポートし、ERNIE-Speed-128Kより優れた効果を示します。
ERNIE-Tiny-8K
8k
1k
未対応
対話
百度_ernie
Baiduが独自開発した超高性能大規模言語モデルで、文心シリーズの中で最も低コストでデプロイと微調整が可能です。
Doubao-1.5-lite-32k
32k
12k
サポートあり
対話
豆包_doubao
Doubao1.5-liteは軽量版言語モデルの中でも世界トップクラスの水準にあり、総合(MMLU_pro)、推論(BBH)、数学(MATH)、専門知識(GPQA)などの権威ある評価指標でGPT-4o miniやClaude 3.5 Haikuと同等または上回る成果を示しています。
Doubao-1.5-pro-256k
256k
12k
サポートあり
対話
豆包_doubao
Doubao-1.5-Pro-256kはDoubao-1.5-Proの全面的にアップグレードされたバージョンです。Doubao-pro-256k/241115と比べて全体的な効果が約10%大幅に向上しています。出力長が大幅に向上し、最大12kトークンをサポートします。
Doubao-1.5-pro-32k
32k
12k
サポートあり
対話
豆包_doubao
Doubao-1.5-proは新世代の主力モデルで、性能が全面的にアップグレードされ、知識、コード、推論などの面で卓越した性能を示します。公開ベンチマークで世界トップクラスの成績を達成しており、特に知識、コード、推論、中文の権威ある評価基準で最高スコアを獲得し、総合スコアでGPT4oやClaude 3.5 Sonnetなど業界トップのモデルを上回っています。
Doubao-1.5-vision-pro
32k
12k
未対応
対話、画像理解
豆包_doubao
Doubao-1.5-vision-proは新たに強化されたマルチモーダル大規模モデルで、任意の解像度や極端なアスペクト比の画像認識をサポートし、視覚推論、ドキュメント認識、細部情報理解、指示遵守能力を強化しています。
Doubao-embedding
4k
-
サポートあり
埋め込み(Embedding)
豆包_doubao
Doubao-embeddingはByteDanceが開発した意味ベクトル化モデルで、主にベクトル検索用途を対象とし、中英の二言語をサポートし最大4Kのコンテキスト長を持ちます。現在以下のバージョンが提供されています: text-240715:最大次元2560、512、1024、2048への次元削減をサポート。中英文のRetrieval性能がtext-240515より大幅に改善されており推奨版です。 text-240515:最大次元2048、512、1024への次元削減をサポート。
Doubao-embedding-large
4k
-
未対応
埋め込み(Embedding)
豆包_doubao
中英文のRetrieval性能がDoubao-embedding/text-240715版と比べて顕著に向上しています。
Doubao-embedding-vision
8k
-
未対応
埋め込み(Embedding)
豆包_doubao
Doubao-embedding-visionは新たにアップグレードされた画像とテキストのマルチモーダルベクトル化モデルで、画像入力および中英二言語のテキスト入力をサポートし、最大8Kのコンテキスト長を持ちます。
Doubao-lite-128k
128k
4k
サポートあり
対話
豆包_doubao
Doubao-liteは極めて高速な応答速度と高いコストパフォーマンスを備え、顧客の多様なシナリオに柔軟な選択肢を提供します。128kのコンテキストウィンドウを用いた推論と微調整をサポートします。
Doubao-lite-32k
32k
4k
サポートあり
対話
豆包_doubao
Doubao-liteは極めて高速な応答速度と高いコストパフォーマンスを備え、顧客の多様なシナリオに柔軟な選択肢を提供します。32kのコンテキストウィンドウを用いた推論と微調整をサポートします。
Doubao-lite-4k
4k
4k
サポートあり
対話
豆包_doubao
Doubao-liteは極めて高速な応答速度と高いコストパフォーマンスを備え、顧客の多様なシナリオに柔軟な選択肢を提供します。4kのコンテキストウィンドウを用いた推論と微調整をサポートします。
Doubao-pro-128k
128k
4k
サポートあり
対話
豆包_doubao
最も性能の良い主力モデルで、複雑なタスク処理に適しており、参考問答、要約、生成、テキスト分類、ロールプレイなどのシナリオで優れた成果を示します。128kのコンテキストウィンドウによる推論と微調整をサポートします。
Doubao-pro-32k
32k
4k
サポートあり
対話
豆包_doubao
最も性能の良い主力モデルで、複雑なタスク処理に適しており、参考問答、要約、生成、テキスト分類、ロールプレイなどのシナリオで優れた成果を示します。32kのコンテキストウィンドウによる推論と微調整をサポートします。
Doubao-pro-4k
4k
4k
サポートあり
対話
豆包_doubao
最も性能の良い主力モデルで、複雑なタスク処理に適しており、参考問答、要約、生成、テキスト分類、ロールプレイなどのシナリオで優れた成果を示します。4kのコンテキストウィンドウによる推論と微調整をサポートします。
step-1-128k
128k
-
サポートあり
対話
階梯(ステップ)スター
step-1-128kモデルは最大128,000トークンの入力を処理できる超大規模言語モデルです。この能力により長文生成や複雑な推論で顕著な利点を持ち、小説や脚本など豊富なコンテキストを必要とする用途に適しています。
step-1-256k
256k
-
サポートあり
対話
階梯(ステップ)スター
step-1-256kモデルは現時点で最大級の言語モデルの一つで、256,000トークンの入力をサポートします。大規模データ解析や多ターン対話システムなど極めて複雑なタスク要求に対応するために設計されており、さまざまな分野で高品質な出力を提供します。
step-1-32k
32k
-
サポートあり
対話
階梯(ステップ)スター
step-1-32kモデルはコンテキストウィンドウを拡張し、32,000トークンの入力をサポートします。長文や複雑な対話の処理に優れており、法的文書や学術研究など深い理解と分析を必要とするタスクに適しています。
step-1-8k
8k
-
サポートあり
対話
階梯(ステップ)スター
step-1-8kモデルは効率的な言語モデルで、短めのテキスト処理に特化しています。8,000トークンのコンテキスト内で推論を行い、チャットボットやリアルタイム翻訳など迅速な応答が求められる用途に適しています。
step-1-flash
8k
-
サポートあり
対話
階梯(ステップ)スター
step-1-flashモデルは高速応答と効率的な処理に特化しており、リアルタイムアプリケーションに適しています。限られた計算資源下でも高品質な言語理解と生成能力を提供し、モバイル機器やエッジコンピューティングに向いています。
step-1.5v-mini
32k
-
サポートあり
対話、画像理解
階梯(ステップ)スター
step-1.5v-miniモデルはリソース制約のある環境での実行を目的とした軽量版です。小型ながら良好な言語処理能力を保持し、組み込みシステムや低消費電力デバイスに適しています。
step-1v-32k
32k
-
サポートあり
対話、画像理解
階梯(ステップ)スター
step-1v-32kモデルは32,000トークンの入力をサポートし、より長いコンテキストを必要とするアプリケーションに適しています。複雑な対話や長文処理に優れており、カスタマーサポートやコンテンツ生成領域に向いています。
step-1v-8k
8k
-
サポートあり
対話、画像理解
階梯(ステップ)スター
step-1v-8kモデルは8,000トークン入力に最適化されたバージョンで、短文の高速生成と処理に適しています。速度と精度のバランスに優れ、リアルタイムアプリに向いています。
step-2-16k
16k
-
サポートあり
対話
階梯(ステップ)スター
step-2-16kモデルは中規模の言語モデルで、16,000トークンの入力をサポートします。教育、トレーニング、知識管理などの用途で良好に機能します。
yi-lightning
16k
-
サポートあり
対話
零一万物_yi
最新の高性能モデルで、高品質な出力を保証しつつ推論速度を大幅に向上させています。 リアルタイムの対話や高複雑度の推論シナリオに適しており、非常に高いコストパフォーマンスで商用製品を十分に支えられます。
yi-vision-v2
16K
-
サポートあり
対話、画像理解
零一万物_yi
画像やチャートの解析・解釈を必要とするシナリオに適しており、画像問答、チャート理解、OCR、視覚推論、教育、研究レポートの理解や多言語ドキュメントの読解などに向いています。
qwen-14b-chat
8k
2k
サポートあり
対話
千問_qwen
Alibaba Cloud公式のQwen(通義千問)オープン版です。
qwen-72b-chat
32k
2k
サポートあり
対話
千問_qwen
Alibaba Cloud公式のQwen(通義千問)オープン版です。
qwen-7b-chat
7.5k
1.5k
サポートあり
対話
千問_qwen
Alibaba Cloud公式のQwen(通義千問)オープン版です。
qwen-coder-plus
128k
8k
サポートあり
対話、コード
千問_qwen
Qwen-Coder-PlusはQwenシリーズのプログラミング専用モデルで、コード生成と理解能力の向上を目的としています。大規模なプログラミングデータで訓練され、複数のプログラミング言語を扱え、コード補完、バグ検出、リファクタリングなどの機能をサポートします。開発者の生産性向上を目指した設計です。
qwen-coder-plus-latest
128k
8k
サポートあり
対話、コード
千問_qwen
Qwen-Coder-Plus-LatestはQwen-Coder-Plusの最新バージョンで、最新のアルゴリズム最適化とデータセット更新を含みます。性能が大幅に向上し、文脈をより正確に理解して開発者のニーズに合ったコードを生成します。さらに多くのプログラミング言語をサポートし、多言語プログラミング能力が強化されています。
qwen-coder-turbo
128k
8k
サポートあり
対話、コード
千問_qwen
通義千問シリーズのコード・プログラミングモデルはプログラミングとコード生成に特化しており、推論速度が速くコストが低いです。このバージョンは常に最新の安定スナップショットを指します。
qwen-coder-turbo-latest
128k
8k
サポートあり
対話、コード
千問_qwen
通義千問シリーズのコード・プログラミングモデルはプログラミングとコード生成に特化しており、推論速度が速くコストが低いです。このバージョンは常に最新のスナップショットを指します。
qwen-long
10m
6k
サポートあり
対話
千問_qwen
Qwen-Longは超長コンテキスト処理向けに設計されたQwenの大規模言語モデルで、中国語、英語など複数言語入力をサポートし、最大1000万トークン(約1500万文字または1.5万ページ)の超長コンテキスト対話を扱えます。同期リリースされたドキュメントサービスと組み合わせることで、Word、PDF、Markdown、EPUB、MOBIなど多様なドキュメント形式の解析と対話をサポートします。注:HTTPで直接リクエストを提出する場合は1Mトークン長をサポートしますが、それを超える場合はファイル方式での提出を推奨します。
qwen-math-plus
4k
3k
サポートあり
対話
千問_qwen
Qwen-Math-Plusは数学問題の解決に特化したモデルで、高効率な数学的推論と計算能力を提供することを目的としています。豊富な数学問題データで訓練され、複雑な数式や問題を扱え、基礎算術から高等数学まで多様な計算ニーズに対応します。教育、研究、工学などの分野での利用が想定されます。
qwen-math-plus-latest
4k
3k
サポートあり
対話
千問_qwen
Qwen-Math-Plus-LatestはQwen-Math-Plusの最新バージョンで、最新の数学的推論技術とアルゴリズム改良が統合されています。複雑な数学問題に対してより優れた解答と推論過程を提供し、数式や記号の理解能力が拡張されています。より広範な数学応用に適しています。
qwen-math-turbo
4k
3k
サポートあり
対話
千問_qwen
Qwen-Math-Turboは高速計算とリアルタイム推論のために設計された高性能数学モデルです。計算速度が最適化されており、短時間で大量の数学問題を処理でき、オンライン教育やリアルタイムデータ分析など迅速なフィードバックが求められる場面に適しています。効率的なアルゴリズムにより複雑な計算で即時の結果を得られます。
qwen-math-turbo-latest
4k
3k
サポートあり
対話
千問_qwen
Qwen-Math-Turbo-LatestはQwen-Math-Turboの最新バージョンで、計算効率と精度がさらに向上しています。アルゴリズムの最適化によりより複雑な数学問題を処理でき、リアルタイム推論でも高い効率を維持します。金融分析や科学計算など高速応答を必要とする数学用途に適しています。
qwen-max
32k
8k
サポートあり
対話
千問_qwen
通義千問2.5シリーズの千億級超大規模言語モデルで、中国語、英語など異なる言語入力をサポートします。モデルのアップグレードに伴い、qwen-maxはローリングアップデートされます。
qwen-max-latest
32k
8k
サポートあり
対話
千問_qwen
通義千問シリーズで最も性能の高いモデルで、本モデルは動的に更新されるバージョンです。モデルの更新は事前に通知されない場合があり、複雑で多段階のタスクに適しています。中英両言語の総合能力が大幅に向上し、人間好みの応答が強化され、推論能力と複雑指示理解能力が著しく向上しています。難易度の高いタスクでの性能が優れており、数学やコード能力も大幅に向上し、TableやJSONなどの構造化データの理解と生成能力も強化されています。
qwen-plus
128k
8k
サポートあり
対話
千問_qwen
通義千問シリーズのバランスの取れたモデルで、推論性能と速度はqwen-maxとqwen-turboの中間に位置し、中程度の複雑さのタスクに適しています。中英両言語の総合能力が向上し、人間好みの応答、推論能力、複雑指示理解能力が強化され、数学とコード能力も大幅に向上しています。
qwen-plus-latest
128k
8k
サポートあり
対話
千問_qwen
Qwen-Plusは通義千問シリーズの強化版ビジュアル言語モデルで、細部認識能力と文字認識能力を向上させることを目的としています。本モデルは100万ピクセル以上の解像度や任意のアスペクト比の画像をサポートし、高精度な画像理解を要するタスクで優れた成果を示します。
qwen-turbo
128k
8k
サポートあり
対話
千問_qwen
通義千問シリーズで最も高速かつ低コストのモデルで、シンプルなタスクに適しています。中英両言語の総合能力が向上し、人間好みの応答、推論能力、複雑指示理解能力が強化され、数学とコード能力も大幅に向上しています。
qwen-turbo-latest
1m
8k
サポートあり
対話
千問_qwen
Qwen-Turboはシンプルなタスク向けに設計された高効率モデルで、速度とコスト効率を重視しています。基本的な視覚言語タスクの処理に優れ、応答時間が厳密に要求されるアプリ(リアルタイム画像認識や簡単なQAシステムなど)に適しています。
qwen-vl-max
32k
2k
サポートあり
対話
千問_qwen
通義千問VL-Max(qwen-vl-max)は超大規模の視覚言語モデルで、視覚推論能力と指示遵守能力がさらに向上しています。より高度な視覚認知と理解を提供し、複雑なタスクで最高の性能を発揮します。
qwen-vl-max-latest
32k
2k
サポートあり
対話、画像理解
千問_qwen
Qwen-VL-MaxはQwen-VLシリーズの最上位版で、複雑なマルチモーダルタスクの解決に特化しています。高度な視覚と言語処理技術を融合し、高解像度画像の理解と分析が可能で、強力な推論能力を持ちます。深い理解と複雑な推論を必要とする用途に適しています。
qwen-vl-ocr
34k
4k
サポートあり
対話、画像理解
千問_qwen
OCRのみをサポートし、対話はサポートしていません。
qwen-vl-ocr-latest
34k
4k
サポートあり
対話、画像理解
千問_qwen
OCRのみをサポートし、対話はサポートしていません。
qwen-vl-plus
8k
2k
サポートあり
対話、画像理解
千問_qwen
通義千問VL-Plus(qwen-vl-plus)は強化版の大規模視覚言語モデルで、細部認識能力と文字認識能力が大幅に向上しています。100万ピクセル超の解像度と任意のアスペクト比の画像をサポートし、幅広い視覚タスクで優れた性能を発揮します。
qwen-vl-plus-latest
32k
2k
サポートあり
対話、画像理解
千問_qwen
Qwen-VL-Plus-LatestはQwen-VL-Plusの最新バージョンで、多モーダル理解能力が強化されています。画像とテキストを組み合わせた処理に優れており、スマートカスタマーサポートやコンテンツ生成など多様な入力形式を効率的に処理する用途に適しています。
Qwen/Qwen2-1.5B-Instruct
32k
6k
未対応
対話
千問_qwen
Qwen2-1.5B-InstructはQwen2シリーズの指示微調整済み大規模言語モデルで、パラメータ規模は1.5Bです。本モデルはTransformerアーキテクチャを基にし、SwiGLU活性化関数、注意のQKVバイアス、グループクエリアテンションなどの技術を採用しています。言語理解、生成、多言語能力、コーディング、数学、推論などの複数ベンチマークで優れた性能を示し、ほとんどのオープンソースモデルを上回ります。
Qwen/Qwen2-72B-Instruct
128k
6k
未対応
対話
千問_qwen
Qwen2-72B-InstructはQwen2シリーズの指示微調整済み大規模言語モデルで、パラメータ規模は72Bです。本モデルはTransformerアーキテクチャを基にし、SwiGLU活性化関数、注意のQKVバイアス、グループクエリアテンションなどの技術を採用しています。大規模入力を処理でき、言語理解、生成、多言語能力、コーディング、数学、推論などの複数ベンチマークで優れた性能を示し、多くのオープンソースモデルを上回ります。
Qwen/Qwen2-7B-Instruct
128k
6k
未対応
対話
千問_qwen
Qwen2-7B-InstructはQwen2シリーズの指示微調整済み大規模言語モデルで、パラメータ規模は7Bです。本モデルはTransformerアーキテクチャを基にし、SwiGLU活性化関数、注意のQKVバイアス、グループクエリアテンションなどの技術を採用しています。大規模入力を処理でき、言語理解、生成、多言語能力、コーディング、数学、推論などの複数ベンチマークで優れた性能を示し、多くのオープンソースモデルを上回ります。
Qwen/Qwen2-VL-72B-Instruct
32k
2k
未対応
対話
千問_qwen
Qwen2-VLはQwen-VLモデルの最新の反復版で、視覚理解ベンチマークで最先端の性能を達成しています(MathVista、DocVQA、RealWorldQA、MTVQAなど)。Qwen2-VLは20分を超える動画の理解が可能で、高品質な動画ベースの質問応答、対話、コンテンツ生成に使用できます。複雑な推論と意思決定能力を備え、モバイルデバイスやロボットと統合して視覚環境とテキスト指示に基づく自動操作を行うことができます。
Qwen/Qwen2-VL-7B-Instruct
32k
-
未対応
対話
千問_qwen
Qwen2-VL-7B-InstructはQwen-VLモデルの最新の反復版で、視覚理解ベンチマークで最先端の性能を達成しています(MathVista、DocVQA、RealWorldQA、MTVQAなど)。高品質な動画ベースの質問応答、対話、コンテンツ生成に利用でき、複雑な推論と意思決定能力を持ち、モバイル機器やロボットと統合して視覚環境とテキスト指示に基づく自動操作を行うことができます。
Qwen/Qwen2.5-72B-Instruct
128k
8k
未対応
対話
千問_qwen
Qwen2.5-72B-InstructはAlibaba Cloudが発表した最新の大規模言語モデルシリーズの一つです。この72Bモデルはコーディングや数学分野で著しい能力向上を示しています。最大128Kトークンの入力をサポートし、8Kトークン以上の長文生成が可能です。
Qwen/Qwen2.5-72B-Instruct-128K
128k
8k
未対応
対話
千問_qwen
Qwen2.5-72B-InstructはAlibaba Cloudが発表した最新の大規模言語モデルシリーズの一つです。この72Bモデルはコーディングや数学分野で著しい能力向上を示しています。最大128Kトークンの入力をサポートし、8Kトークン以上の長文生成が可能です。
Qwen/Qwen2.5-7B-Instruct
128k
8k
未対応
対話
千問_qwen
Qwen2.5-7B-InstructはAlibaba Cloudが発表した最新の大規模言語モデルシリーズの一つです。この7Bモデルはコーディングや数学分野で著しい能力向上を示しています。本モデルは29以上の言語をサポートし(中国語、英語などを含む)、指示追従、構造化データの理解、構造化出力(特にJSON生成)において顕著な改善があります。
Qwen/Qwen2.5-Coder-32B-Instruct
128k
8k
未対応
対話、コード
千問_qwen
Qwen2.5-32B-InstructはAlibaba Cloudが発表した最新の大規模言語モデルシリーズの一つです。この32Bモデルはコーディングや数学分野で著しい能力向上を示しています。本モデルは29以上の言語をサポートし、指示追従、構造化データ理解、構造化出力(特にJSON)生成において顕著な改善があります。
Qwen/Qwen2.5-Coder-7B-Instruct
128k
8k
未対応
対話
千問_qwen
Qwen2.5-7B-InstructはAlibaba Cloudが発表した最新の大規模言語モデルシリーズの一つです。この7Bモデルはコーディングや数学分野で著しい能力向上を示しています。本モデルは29以上の言語をサポートし(中国語、英語などを含む)、指示追従、構造化データの理解、構造化出力(特にJSON生成)において顕著な改善があります。
Qwen/QwQ-32B-Preview
32k
16k
未対応
対話、推論
千問_qwen
QwQ-32B-PreviewはQwenチームが開発した実験研究モデルで、推論能力の向上を目的としています。プレビュー版として優れた分析能力を示しますが、いくつか重要な制限があります: 1. 言語混合とコード切替:モデルは言語を混在させたり、意図せず言語を切り替えたりする可能性があり、応答の明瞭さに影響します。 2. 再帰的推論ループ:モデルがループする推論モードに入る可能性があり、明確な結論を欠いた冗長な回答になる場合があります。 3. 安全と倫理の考慮:モデルの信頼性と安全性を確保するために強化が必要であり、使用時には注意が必要です。 4. 性能とベンチマークの制限:数学やコーディング分野では優れた性能を示しますが、常識推論や微妙な言語理解など他の領域では改良の余地があります。
qwen1.5-110b-chat
32k
8k
未対応
対話
千問_qwen
-
qwen1.5-14b-chat
8k
2k
未対応
対話
千問_qwen
-
qwen1.5-32b-chat
32k
2k
未対応
対話
千問_qwen
-
qwen1.5-72b-chat
32k
2k
未対応
対話
千問_qwen
-
qwen1.5-7b-chat
8k
2k
未対応
対話
千問_qwen
-
qwen2-57b-a14b-instruct
65k
6k
未対応
対話
千問_qwen
-
Qwen2-72B-Instruct
-
-
未対応
対話
千問_qwen
-
qwen2-7b-instruct
128k
6k
未対応
対話
千問_qwen
-
qwen2-math-72b-instruct
4k
3k
未対応
対話
千問_qwen
-
qwen2-math-7b-instruct
4k
3k
未対応
対話
千問_qwen
-
qwen2.5-14b-instruct
128k
8k
未対応
対話
千問_qwen
-
qwen2.5-32b-instruct
128k
8k
未対応
対話
千問_qwen
-
qwen2.5-72b-instruct
128k
8k
未対応
対話
千問_qwen
-
qwen2.5-7b-instruct
128k
8k
未対応
対話
千問_qwen
-
qwen2.5-coder-14b-instruct
128k
8k
未対応
対話、コード
千問_qwen
-
qwen2.5-coder-32b-instruct
128k
8k
未対応
対話、コード
千問_qwen
-
qwen2.5-coder-7b-instruct
128k
8k
未対応
対話、コード
千問_qwen
-
qwen2.5-math-72b-instruct
4k
3k
未対応
対話
千問_qwen
-
qwen2.5-math-7b-instruct
4k
3k
未対応
対話
千問_qwen
-
deepseek-ai/DeepSeek-R1
64k
-
未対応
対話、推論
深度求索_deepseek
DeepSeek-R1モデルは純強化学習に基づくオープンソースの推論モデルで、数学、コード、自然言語推論などのタスクで優れた性能を示し、OpenAIのo1モデルと肩を並べることができるとされ、複数のベンチマークで優れた結果を残しています。
deepseek-ai/DeepSeek-V2-Chat
128k
-
未対応
対話
深度求索_deepseek
DeepSeek-V2 は強力でコスト効率の高いハイブリッドエキスパート(MoE)言語モデルです。8.1兆トークンの高品質コーパスで事前学習され、監督微調整(SFT)と強化学習(RL)によってさらに能力が向上しています。DeepSeek 67B と比べて、DeepSeek-V2 は性能を高めつつトレーニングコストを42.5%削減し、KVキャッシュを93.3%削減し、最大生成スループットを5.76倍に引き上げました。
deepseek-ai/DeepSeek-V2.5
32k
-
サポートあり
対話
深度求索_deepseek
DeepSeek-V2.5 は DeepSeek-V2-Chat と DeepSeek-Coder-V2-Instruct のアップグレード版で、これら2つの既存バージョンの汎用性とコーディング能力を統合しています。本モデルは文章作成や指示に従う能力など複数の面で最適化されており、人間の嗜好により良く整合するようになっています。
deepseek-ai/DeepSeek-V3
128k
4k
未対応
対話
深度求索_deepseek
deepseek のオープンソース版で、公式版に比べてコンテキストがより長く、敏感語による応答拒否などの問題がありません。
deepseek-chat
64k
8k
サポートあり
対話
深度求索_deepseek
236B パラメータ、64K コンテキスト(API)、中国語総合能力(AlignBench)でオープンソースのトップに位置し、GPT-4-Turbo や文心 4.0 などのクローズドソースモデルと同等の評価ランクにあります。
deepseek-coder
64k
8k
サポートあり
対話、コード
深度求索_deepseek
236B パラメータ、64K コンテキスト(API)、中国語総合能力(AlignBench)でオープンソースのトップに位置し、GPT-4-Turbo や文心 4.0 などのクローズドソースモデルと同等の評価ランクにあります。
deepseek-reasoner
64k
8k
サポートあり
対話、推論
深度求索_deepseek
DeepSeek-Reasoner(DeepSeek-R1)は DeepSeek が新たに発表した推論モデルで、強化学習による訓練を通じて推論能力を向上させることを目的としています。本モデルの推論プロセスは多くの反省と検証を含み、複雑な論理推論タスクを処理でき、その思考連鎖の長さは数万字に達することがあります。DeepSeek-R1 は数学、コードおよびその他の複雑な問題の解答で優れた性能を示しており、さまざまなシナリオで広く利用されており、その強力な推論能力と柔軟性を示しています。他のモデルと比較して、DeepSeek-R1 の推論性能はトップのクローズドソースモデルに近く、推論分野におけるオープンソースモデルの潜在力と競争力を示しています。
hunyuan-code
4k
4k
未対応
対話、コード
腾讯_hunyuan
混元の最新コード生成モデルで、200B の高品質コードデータで増強された基盤モデルに対して半年間の高品質 SFT データで反復訓練を行い、コンテキストウィンドウ長を 8K に拡大しました。五大言語のコード生成自動評価指標で上位に位置し、五大言語の10項目にわたる人工高品質評価における総合コードタスクで第一梯隊の性能を示します。
hunyuan-functioncall
28k
4k
サポートあり
対話
腾讯_hunyuan
混元の最新 MOE 構成の FunctionCall モデルで、高品質な FunctionCall データで訓練され、コンテキストウィンドウは 32K に達し、複数の評価指標において先行しています。
hunyuan-large
28k
4k
未対応
対話
腾讯_hunyuan
Hunyuan-large モデルの総パラメータ数は約 389B、アクティベーションパラメータは約 52B であり、現時点で業界においてパラメータ規模が最大かつ性能に優れた Transformer アーキテクチャのオープンソース MoE モデルです。
hunyuan-large-longcontext
128k
6k
未対応
対話
腾讯_hunyuan
ドキュメント要約やドキュメント問答などの長文タスクの処理を得意とし、汎用的なテキスト生成タスクも扱うことができます。長文の解析と生成において優れた性能を発揮し、複雑で詳細な長文コンテンツの処理要求に効果的に対応できます。
hunyuan-lite
250k
6k
未対応
対話
腾讯_hunyuan
MOE 構造にアップグレードされ、コンテキストウィンドウは 256k で、NLP、コード、数学、業界向けなど複数のベンチマークで多くのオープンソースモデルを上回っています。
hunyuan-pro
28k
4k
サポートあり
対話
腾讯_hunyuan
兆級パラメータ規模の MOE-32K 長文モデルです。各種ベンチマークで絶対的なリードを達成しており、複雑な指示や推論、複雑な数学能力を備え、functioncall をサポートし、多言語翻訳、金融、法律、医療などの分野での応用に重点的に最適化されています。
hunyuan-role
28k
4k
未対応
対話
腾讯_hunyuan
混元の最新版ロールプレイモデルで、混元公式が精調整して訓練したロールプレイ向けモデルです。混元モデルをベースにロールプレイシナリオのデータセットで増強訓練されており、ロールプレイシーンでより良い基礎性能を持ちます。
hunyuan-standard
30k
2k
未対応
対話
腾讯_hunyuan
より優れたルーティング戦略を採用し、負荷分散とエキスパートの収束問題を緩和しています。 MOE-32K はコストパフォーマンスが相対的に高く、効果と価格のバランスを取りながら長文入力の処理を実現できます。
hunyuan-standard-256K
250k
6k
未対応
対話
腾讯_hunyuan
より優れたルーティング戦略を採用し、負荷分散とエキスパートの収束問題を緩和しています。長文に関しては「大海捜針」指標が 99.9% に達します。MOE-256K は長さと性能の面でさらに突破し、入力可能な長さを大幅に拡張しました。
hunyuan-translation-lite
4k
4k
未対応
対話
腾讯_hunyuan
混元の翻訳モデルは自然言語の対話式翻訳をサポートします。中国語と英語、日本語、フランス語、ポルトガル語、スペイン語、トルコ語、ロシア語、アラビア語、韓国語、イタリア語、ドイツ語、ベトナム語、マレー語、インドネシア語の15言語間の相互翻訳をサポートします。
hunyuan-turbo
28k
4k
サポートあり
対話
腾讯_hunyuan
Hunyuan-turbo モデルのデフォルト版で、新しいハイブリッドエキスパートモデル(MoE)構造を採用しており、hunyuan-pro と比べて推論効率が速く、性能もより高い表現を示します。
hunyuan-turbo-latest
28k
4k
サポートあり
対話
腾讯_hunyuan
Hunyuan-turbo モデルの動的更新版で、混元モデルシリーズの中で最も性能の良いバージョンであり、コンシューマ向け(腾讯元宝)と一致しています。
hunyuan-turbo-vision
8k
2k
サポートあり
画像認識、対話
腾讯_hunyuan
混元の次世代ビジョン言語フラッグシップ大モデルで、新しいハイブリッドエキスパートモデル(MoE)構造を採用しており、画像とテキストの理解に関する基礎認識、コンテンツ生成、知識問答、分析推論などの能力が前世代モデルと比べて全面的に向上しています。最大入力 6k、最大出力 2k。
hunyuan-vision
8k
2k
サポートあり
対話、画像理解
腾讯_hunyuan
混元の最新マルチモーダルモデルで、画像+テキストの入力からテキストを生成することをサポートします。 画像の基礎認識:画像中の主体、要素、シーンなどを認識します 画像コンテンツ生成:画像の概要作成、広告文案、SNS 投稿文、詩などの創作を行います 画像の多往復対話:単一画像に対する多往復のインタラクティブな質問応答を出力します 画像の分析推論:画像中の論理関係、数学問題、コード、グラフの統計分析を行います 画像に関する知識問答:画像に含まれる知識点について問答を行います(例:歴史的事件、映画ポスター) 画像 OCR:自然な生活場面や非自然場面の画像から文字を認識します。
SparkDesk-Lite
4k
-
未対応
対話
星火_SparkDesk
オンライン検索機能に対応しており、応答が迅速で便利です。低計算資源での推論やモデル微調整などのカスタマイズされたシナリオに適しています。
SparkDesk-Max
128k
-
サポートあり
対話
星火_SparkDesk
最新版の星火大モデルエンジン 4.0 Turbo を量子化して構築され、オンライン検索、天気、日付など複数の内蔵プラグインをサポートします。コア能力が全面的にアップグレードされ、さまざまなシーンでの適用効果が全般的に向上しています。System ロールの人格設定や FunctionCall の関数呼び出しをサポートします。
SparkDesk-Max-32k
32k
-
サポートあり
対話
星火_SparkDesk
推論がより強力:より高いコンテキスト理解と論理推論能力を有し、より長い入力に対応:32K トークンのテキスト入力をサポートし、長文ドキュメントの読解やプライベート知識問答などのシナリオに適しています。
SparkDesk-Pro
128k
-
未対応
対話
星火_SparkDesk
数学、コード、医療、教育などのシーンに特化した最適化を行い、オンライン検索、天気、日付など複数の内蔵プラグインをサポートします。知識問答、言語理解、テキスト生成など多くのシーンをカバーします。
SparkDesk-Pro-128K
128k
-
未対応
対話
星火_SparkDesk
プロフェッショナル級の大規模言語モデルで、数十億規模のパラメータを有し、医療、教育、コードなどのシーンで専用の最適化が行われており、検索シーンでのレイテンシが低くなっています。テキストやインテリジェント問答など、性能と応答速度に高い要求のある業務シナリオに適しています。
moonshot-v1-128k
128k
4k
サポートあり
対話
月之暗面_moonshot
長さ 8k のモデルで、短いテキストの生成に適しています。
moonshot-v1-32k
32k
4k
サポートあり
対話
月之暗面_moonshot
長さ 32k のモデルで、長文生成に適しています。
moonshot-v1-8k
8k
4k
サポートあり
対話
月之暗面_moonshot
長さ 128k のモデルで、超長文の生成に適しています。
codegeex-4
128k
4k
未対応
対話、コード
智谱_codegeex
智谱のコードモデル:コード自動補完タスクに適しています
charglm-3
4k
2k
未対応
対話
智谱_glm
擬人化モデル
emohaa
8k
4k
未対応
対話
智谱_glm
心理モデル:専門的な相談能力を持ち、ユーザーが感情を理解し感情問題に対処するのを支援します
glm-3-turbo
128k
4k
未対応
対話
智谱_glm
まもなく廃止予定(2025年6月30日)
glm-4
128k
4k
サポートあり
対話
智谱_glm
旧版フラッグシップ:2024年1月16日にリリースされ、現在は GLM-4-0520 に置き換えられています
glm-4-0520
128k
4k
サポートあり
対話
智谱_glm
高い知能モデル:高度に複雑で多様なタスクの処理に適しています
glm-4-air
128k
4k
サポートあり
対話
智谱_glm
コストパフォーマンスが高い:推論能力と価格のバランスが最も良いモデル
glm-4-airx
8k
4k
サポートあり
対話
智谱_glm
高速推論:非常に高速な推論速度と強力な推論性能を持ちます
glm-4-flash
128k
4k
サポートあり
対話
智谱_glm
高速低価格:超高速の推論速度
glm-4-flashx
128k
4k
サポートあり
対話
智谱_glm
高速低価格:Flash 強化版、超高速の推論速度
glm-4-long
1m
4k
サポートあり
対話
智谱_glm
超長入力:超長文や記憶型タスクの処理向けに設計されています
glm-4-plus
128k
4k
サポートあり
対話
智谱_glm
高知能フラッグシップ:性能が全面的に向上し、長文や複雑なタスク能力が著しく強化されています
glm-4v
2k
-
未対応
対話、画像理解
智谱_glm
画像理解:画像理解能力と推論能力を備えています
glm-4v-flash
2k
1k
未対応
対話、画像理解
智谱_glm
無料モデル:強力な画像理解能力を備えています
最終更新
役に立ちましたか?