Данные модели

  • Следующая информация предоставлена только для справки; при наличии ошибок можно связаться для исправления. У некоторых моделей, в зависимости от провайдера, могут отличаться размер контекста и сведения о модели;

  • При вводе данных на стороне клиента необходимо преобразовывать «k» в фактическое значение (теоретически 1k = 1024 токенов; 1m = 1024k токенов), например, 8k = 8×1024 = 8192 токенов. В реальном использовании рекомендуется умножать на 1000, чтобы избежать ошибок, например, 8k = 8×1000 = 8000, 1m = 1×1000000 = 1000000;

  • Для моделей, у которых максимальный вывод указан «-», официальной информации о максимальном выводе не найдено.

Название модели
Максимальный ввод
Максимальный вывод
Вызов функций
Возможности модели
Провайдер
Описание

360gpt-pro

8k

-

Не поддерживается

Диалог

360AI_360gpt

Флагманская модель серии 360智脑 с наилучшим качеством среди моделей масштаба сотен миллиардов параметров, широко подходит для сложных задач в различных областях.

360gpt-turbo

7k

-

Не поддерживается

Диалог

360AI_360gpt

Модель десятков миллиардов параметров, сочетающая производительность и качество; подходит для сценариев с высокими требованиями к производительности/стоимости.

360gpt-turbo-responsibility-8k

8k

-

Не поддерживается

Диалог

360AI_360gpt

Модель десятков миллиардов параметров, сочетающая производительность и качество; подходит для сценариев с высокими требованиями к производительности/стоимости.

360gpt2-pro

8k

-

Не поддерживается

Диалог

360AI_360gpt

Флагманская модель серии 360智脑 с наилучшим качеством среди моделей масштаба сотен миллиардов параметров, широко подходит для сложных задач в различных областях.

claude-3-5-sonnet-20240620

200k

16k

Не поддерживается

Диалог, распознавание изображений

Anthropic_claude

Снимок от 20 июня 2024 года. Claude 3.5 Sonnet — модель, сбалансированная по скорости и качеству: при высокой скорости обеспечивает топовую производительность и поддерживает мультимодальный ввод.

claude-3-5-haiku-20241022

200k

16k

Не поддерживается

Диалог

Anthropic_claude

Снимок от 22 октября 2024 года. Claude 3.5 Haiku улучшен по множеству навыков, включая кодирование, использование инструментов и рассуждение. Будучи самым быстрым в серии Anthropic, он обеспечивает низкую задержку и быстрый отклик, подходит для приложений с высокой интерактивностью, таких как пользовательские чат-боты и мгновенная автодополнение кода. Также превосходно справляется с профессиональными задачами, как извлечение данных и модерация контента в реальном времени, что делает его универсальным инструментом для различных отраслей. Не поддерживает ввод изображений.

claude-3-5-sonnet-20241022

200k

8K

Не поддерживается

Диалог, распознавание изображений

Anthropic_claude

Снимок от 22 октября 2024 года. Claude 3.5 Sonnet предоставляет возможности, превосходящие Opus, и более высокую скорость, чем Sonnet, при сохранении той же цены, что у Sonnet. Особенно силён в программировании, дата-сайенсе, обработке визуальных данных и агентных задачах.

claude-3-5-sonnet-latest

200K

8k

Не поддерживается

Диалог, распознавание изображений

Anthropic_claude

Динамически указывает на последнюю версию Claude 3.5 Sonnet. Claude 3.5 Sonnet предоставляет возможности, превосходящие Opus, и более высокую скорость, чем Sonnet, при сохранении цены Sonnet. Особенно силён в программировании, дата-сайенсе, визуальной обработке и агентных задачах; эта модель указывает на новейшую версию.

claude-3-haiku-20240307

200k

4k

Не поддерживается

Диалог, распознавание изображений

Anthropic_claude

Claude 3 Haiku — самая быстрая и компактная модель Anthropic, предназначенная для почти мгновенного ответа. Обладает быстрой и точной направленной производительностью.

claude-3-opus-20240229

200k

4k

Не поддерживается

Диалог, распознавание изображений

Anthropic_claude

Claude 3 Opus — самая мощная модель Anthropic для высоко сложных задач. Выделяется по производительности, интеллекту, беглости и пониманию.

claude-3-sonnet-20240229

200k

8k

Не поддерживается

Диалог, распознавание изображений

Anthropic_claude

Снимок от 29 февраля 2024 года. Sonnet особенно хорош в: - Кодировании: способен автономно писать, редактировать и запускать код, обладает навыками рассуждения и отладки - Дата-сайенсе: усиливает экспертизу специалистов; умеет работать с неструктурированными данными при получении инсайтов с помощью множества инструментов - Визуальной обработке: отлично интерпретирует диаграммы, графики и изображения, точно транскрибирует текст для получения инсайтов за пределами самого текста - Агентных задачах: превосходно использует инструменты, подходит для многосоставных задач, требующих взаимодействия с другими системами

google/gemma-2-27b-it

8k

-

Не поддерживается

Диалог

Google_gamma

Gemma — лёгкая, передовая открытая серия моделей от Google, построенная на тех же исследованиях и технологиях, что и Gemini. Это LLM только с декодером, поддерживающие английский, с открытыми весами в вариантах предобучения и дообучения на инструкциях. Подходят для задач генерации текста: QA, суммаризация, рассуждение.

google/gemma-2-9b-it

8k

-

Не поддерживается

Диалог

Google_gamma

Gemma — одна из лёгких передовых открытых моделей от Google. LLM только с декодером, поддерживает английский, доступна с открытыми весами, в вариантах предобучения и инструкционного дообучения. Подходит для генерации текста: QA, суммаризация, рассуждение. Модель 9B обучена на 8 трлн токенов.

gemini-1.5-pro

2m

8k

Не поддерживается

Диалог

Google_gemini

Последняя стабильная версия Gemini 1.5 Pro. Как мощная мультимодальная модель, обрабатывает до 60 тыс. строк кода или 2000 страниц текста. Особенно подходит для задач со сложным рассуждением.

gemini-1.0-pro-001

33k

8k

Не поддерживается

Диалог

Google_gemini

Стабильная версия Gemini 1.0 Pro. Как NLP-модель, специализируется на многократном текстовом и кодовом чате и генерации кода. Будет выведена из эксплуатации 15 февраля 2025 года; рекомендуется перейти на серию 1.5.

gemini-1.0-pro-002

32k

8k

Не поддерживается

Диалог

Google_gemini

Стабильная версия Gemini 1.0 Pro. Как NLP-модель, специализируется на многократном текстовом и кодовом чате и генерации кода. Будет выведена из эксплуатации 15 февраля 2025 года; рекомендуется перейти на серию 1.5.

gemini-1.0-pro-latest

33k

8k

Не поддерживается

Диалог, снято с эксплуатации или скоро будет снято

Google_gemini

Последняя версия Gemini 1.0 Pro. Как NLP-модель, специализируется на многократном текстовом и кодовом чате и генерации кода. Будет выведена из эксплуатации 15 февраля 2025 года; рекомендуется перейти на серию 1.5.

gemini-1.0-pro-vision-001

16k

2k

Не поддерживается

Диалог

Google_gemini

Визуальная версия Gemini 1.0 Pro. Будет выведена из эксплуатации 15 февраля 2025 года; рекомендуется перейти на серию 1.5.

gemini-1.0-pro-vision-latest

16k

2k

Не поддерживается

Распознавание изображений

Google_gemini

Последняя визуальная версия Gemini 1.0 Pro. Будет выведена из эксплуатации 15 февраля 2025 года; рекомендуется перейти на серию 1.5.

gemini-1.5-flash

1m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Последняя стабильная версия Gemini 1.5 Flash. Как сбалансированная мультимодальная модель, обрабатывает аудио, изображения, видео и текстовый ввод.

gemini-1.5-flash-001

1m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Стабильная версия Gemini 1.5 Flash. Предоставляет те же базовые функции, что gemini-1.5-flash, но с фиксированной версией, подходит для продакшена.

gemini-1.5-flash-002

1m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Стабильная версия Gemini 1.5 Flash. Предоставляет те же базовые функции, что gemini-1.5-flash, но с фиксированной версией, подходит для продакшена.

gemini-1.5-flash-8b

1m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Gemini 1.5 Flash-8B — новый мультимодальный ИИ от Google для эффективной обработки крупномасштабных задач. Имеет 8 млрд параметров, поддерживает ввод текста, изображений, аудио и видео; подходит для чатов, транскрибации, перевода и т. п. По сравнению с другими Gemini оптимизирован по скорости и стоимости, особенно для чувствительных к бюджету пользователей. Лимиты скорости удвоены, что повышает эффективность масштабной обработки. Использует «дистилляцию знаний» для переноса ключевых знаний из более крупных моделей, обеспечивая лёгкость и эффективность при сохранении базовых способностей

gemini-1.5-flash-exp-0827

1m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Экспериментальная версия Gemini 1.5 Flash, регулярно обновляется с последними улучшениями. Подходит для исследовательского тестирования и прототипирования, не рекомендуется для продакшена.

gemini-1.5-flash-latest

1m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Передовая версия Gemini 1.5 Flash, регулярно обновляется с последними улучшениями. Подходит для исследовательского тестирования и прототипирования, не рекомендуется для продакшена.

gemini-1.5-pro-001

2m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Стабильная версия Gemini 1.5 Pro с фиксированным поведением и характеристиками. Подходит для продакшена, где важна стабильность.

gemini-1.5-pro-002

2m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Стабильная версия Gemini 1.5 Pro с фиксированным поведением и характеристиками. Подходит для продакшена, где важна стабильность.

gemini-1.5-pro-exp-0801

2m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Экспериментальная версия Gemini 1.5 Pro. Как мощная мультимодальная модель, обрабатывает до 60 тыс. строк кода или 2000 страниц текста. Особенно подходит для задач со сложным рассуждением.

gemini-1.5-pro-exp-0827

2m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Экспериментальная версия Gemini 1.5 Pro. Как мощная мультимодальная модель, обрабатывает до 60 тыс. строк кода или 2000 страниц текста. Особенно подходит для задач со сложным рассуждением.

gemini-1.5-pro-latest

2m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Последняя версия Gemini 1.5 Pro, динамически указывает на новейший снимок.

gemini-2.0-flash

1m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Gemini 2.0 Flash — новейшая модель Google: быстрее по времени первого токена (TTFT), чем 1.5, при сопоставимом с Gemini Pro 1.5 качестве; существенно улучшена мультимодальная интерпретация, код, исполнение сложных инструкций и вызов функций, обеспечивая более плавный и мощный интеллектуальный опыт.

gemini-2.0-flash-exp

100k

8k

Поддерживается

Диалог, распознавание изображений

Google_gemini

Gemini 2.0 Flash вводит мультимодальный реалтайм-API, улучшенные скорость и производительность, повышение качества, усиленные агентные возможности, а также добавляет генерацию изображений и конвертацию голоса.

gemini-2.0-flash-lite-preview-02-05

1M

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Gemini 2.0 Flash-Lite — новая высокоэффективная модель Google: при скорости 1.5 Flash качество лучше; поддерживает контекст 1 млн токенов, обрабатывает изображения, аудио и код; самая выгодная по соотношению цена/качество в линейке, с упрощённым единым тарифом — подходит для крупномасштабных приложений с контролем затрат.

gemini-2.0-flash-thinking-exp

40k

8k

Не поддерживается

Диалог, рассуждение

Google_gemini

gemini-2.0-flash-thinking-exp — экспериментальная модель, способная генерировать «процесс размышления», происходящий при формировании ответа. Поэтому по сравнению с базовой Gemini 2.0 Flash ответы в «режиме мышления» обладают более сильными способностями к рассуждению.

gemini-2.0-flash-thinking-exp-01-21

1m

64k

Не поддерживается

Диалог, рассуждение

Google_gemini

Gemini 2.0 Flash Thinking EXP-01-21 — новейшая модель Google, ориентированная на улучшение рассуждения и взаимодействия. Обладает сильными навыками рассуждения, особенно в математике и программировании, поддерживает контекст до 1 млн токенов, подходит для сложных задач и глубокого анализа. Уникальна тем, что может генерировать ход мыслей, повышая прозрачность мышления ИИ, поддерживает нативное выполнение кода, повышая гибкость и практичность. Оптимизации уменьшают логические противоречия, улучшая точность и согласованность ответов.

gemini-2.0-flash-thinking-exp-1219

40k

8k

Не поддерживается

Диалог, рассуждение, распознавание изображений

Google_gemini

gemini-2.0-flash-thinking-exp-1219 — экспериментальная модель, способная генерировать «процесс размышления» при ответе. Поэтому, по сравнению с базовой Gemini 2.0 Flash, ответы в «режиме мышления» обладают более сильными способностями к рассуждению.

gemini-2.0-pro-exp-01-28

2m

64k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Предзагруженная модель, ещё не запущена

gemini-2.0-pro-exp-02-05

2m

8k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Gemini 2.0 Pro Exp 02-05 — экспериментальная модель Google, выпущенная в феврале 2024 года, выдающаяся в мировых знаниях, генерации кода и понимании длинных текстов. Поддерживает сверхдлинный контекст 2 млн токенов, обрабатывает 2 часа видео, 22 часа аудио, свыше 60 тыс. строк кода и более 1,4 млн слов. Как часть серии Gemini 2.0, использует новую стратегию Flash Thinking, значительно повышая производительность и занимая лидирующие позиции в рейтингах LLM.

gemini-exp-1114

8k

4k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Экспериментальная модель, выпущена 14 ноября 2024 года, с фокусом на улучшение качества.

gemini-exp-1121

8k

4k

Не поддерживается

Диалог, распознавание изображений, код

Google_gemini

Экспериментальная модель, выпущена 21 ноября 2024 года; улучшены кодирование, рассуждение и визуальные возможности.

gemini-exp-1206

8k

4k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Экспериментальная модель, выпущена 6 декабря 2024 года; улучшены кодирование, рассуждение и визуальные возможности.

gemini-exp-latest

8k

4k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Экспериментальная модель, динамически указывает на последнюю версию

gemini-pro

33k

8k

Не поддерживается

Диалог

Google_gemini

То же, что gemini-1.0-pro, псевдоним для gemini-1.0-pro

gemini-pro-vision

16k

2k

Не поддерживается

Диалог, распознавание изображений

Google_gemini

Визуальная версия Gemini 1.0 Pro. Будет выведена из эксплуатации 15 февраля 2025 года; рекомендуется перейти на серию 1.5.

grok-2

128k

-

Не поддерживается

Диалог

Grok_grok

Новая версия модели grok от X.ai, выпущенная 12.12.2024.

grok-2-1212

128k

-

Не поддерживается

Диалог

Grok_grok

Новая версия модели grok от X.ai, выпущенная 12.12.2024.

grok-2-latest

128k

-

Не поддерживается

Диалог

Grok_grok

Новая версия модели grok от X.ai, выпущенная 12.12.2024.

grok-2-vision-1212

32k

-

Не поддерживается

Диалог, распознавание изображений

Grok_grok

Визуальная версия модели grok от X.ai, выпущенная 12.12.2024.

grok-beta

100k

-

Не поддерживается

Диалог

Grok_grok

Сопоставима по производительности с Grok 2, но улучшены эффективность, скорость и функциональность.

grok-vision-beta

8k

-

Не поддерживается

Диалог, распознавание изображений

Grok_grok

Новейшая модель понимания изображений обрабатывает разнообразную визуальную информацию: документы, диаграммы, скриншоты и фотографии.

internlm/internlm2_5-20b-chat

32k

-

Поддерживается

Диалог

internlm

InternLM2.5-20B-Chat — открытая крупномасштабная диалоговая модель на архитектуре InternLM2. С 20 млрд параметров превосходит Llama3 и Gemma2-27B на задачах математического рассуждения. Существенно улучшены вызовы инструментов: умеет собирать информацию со сотен веб-страниц, лучше понимает инструкции, выбирает инструменты и рефлексирует над результатами.

meta-llama/Llama-3.2-11B-Vision-Instruct

8k

-

Не поддерживается

Диалог, распознавание изображений

Meta_llama

Модели серии Llama теперь обрабатывают не только текст, но и изображения. Часть моделей Llama 3.2 получила визуальное понимание: поддерживается одновременный ввод текста и изображений, интерпретация изображения и вывод текста.

meta-llama/Llama-3.2-3B-Instruct

32k

-

Не поддерживается

Диалог

Meta_llama

Многоязычная LLM Meta Llama 3.2; версии 1B и 3B — лёгкие модели для работы на периферийных и мобильных устройствах. Эта модель — версия 3B.

meta-llama/Llama-3.2-90B-Vision-Instruct

8k

-

Не поддерживается

Диалог, распознавание изображений

Meta_llama

Модели серии Llama теперь обрабатывают не только текст, но и изображения. Часть моделей Llama 3.2 получила визуальное понимание: поддерживается одновременный ввод текста и изображений, интерпретация изображения и вывод текста.

meta-llama/Llama-3.3-70B-Instruct

131k

-

Не поддерживается

Диалог

Meta_llama

Последний 70B LLM от Meta, по производительности сравним с llama 3.1 405B.

meta-llama/Meta-Llama-3.1-405B-Instruct

32k

-

Не поддерживается

Диалог

Meta_llama

Семейство многоязычных LLM Meta Llama 3.1 — набор предобученных и дообученных на инструкциях моделей размеров 8B, 70B и 405B; эта модель — 405B. Инструкционные текстовые модели (8B, 70B, 405B) оптимизированы для многоязычных диалогов и превосходят многие открытые и закрытые чат-модели по стандартным бенчмаркам.

meta-llama/Meta-Llama-3.1-70B-Instruct

32k

-

Не поддерживается

Диалог

Meta_llama

Meta Llama 3.1 — многоязычное семейство LLM от Meta с предобученными и инструкционными вариантами на 8B, 70B и 405B параметров. Модель 70B оптимизирована для многоязычных диалогов и показывает отличные результаты в отраслевых бенчмарках. Обучена на более чем 15 трлн токенов открытых данных, использует SFT и RLHF для повышения полезности и безопасности.

meta-llama/Meta-Llama-3.1-8B-Instruct

32k

-

Не поддерживается

Диалог

Meta_llama

Семейство многоязычных LLM Meta Llama 3.1 — набор предобученных и инструкционных генеративных моделей 8B, 70B и 405B; эта модель — 8B. Инструкционные текстовые модели (8B, 70B, 405B) оптимизированы для многоязычных диалогов и превосходят многие открытые и закрытые чат-модели на популярных бенчмарках.

abab5.5-chat

16k

-

Поддерживается

Диалог

Minimax_abab

Диалоги с китайской персоной

abab5.5s-chat

8k

-

Поддерживается

Диалог

Minimax_abab

Диалоги с китайской персоной

abab6.5g-chat

8k

-

Поддерживается

Диалог

Minimax_abab

Диалоги с персоной на английском и других языках

abab6.5s-chat

245k

-

Поддерживается

Диалог

Minimax_abab

Универсальные сценарии

abab6.5t-chat

8k

-

Поддерживается

Диалог

Minimax_abab

Диалоги с китайской персоной

chatgpt-4o-latest

128k

16k

Не поддерживается

Диалог, распознавание изображений

OpenAI

Версия chatgpt-4o-latest постоянно указывает на используемую в ChatGPT версию GPT-4o и обновляется при существенных изменениях как можно быстрее.

gpt-4o-2024-11-20

128k

16k

Поддерживается

Диалог

OpenAI

Последний снимок gpt-4o от 20 ноября 2024 года.

gpt-4o-audio-preview

128k

16k

Не поддерживается

Диалог

OpenAI

Реалтайм-модель голосового диалога от OpenAI

gpt-4o-audio-preview-2024-10-01

128k

16k

Поддерживается

Диалог

OpenAI

Реалтайм-модель голосового диалога от OpenAI

o1

128k

32k

Не поддерживается

Диалог, рассуждение, распознавание изображений

OpenAI

Новая модель рассуждения OpenAI для сложных задач, требующих широких знаний. Обладает контекстом 200k; на данный момент самая сильная в мире; поддерживает распознавание изображений.

o1-mini-2024-09-12

128k

64k

Не поддерживается

Диалог, рассуждение

OpenAI

Фиксированный снимок o1-mini; меньше и быстрее, чем o1-preview, на 80% дешевле; хороша в генерации кода и задачах с малым контекстом.

o1-preview-2024-09-12

128k

32k

Не поддерживается

Диалог, рассуждение

OpenAI

Фиксированный снимок o1-preview

gpt-3.5-turbo

16k

4k

Поддерживается

Диалог

OpenAI_gpt-3

Основана на GPT-3.5: GPT-3.5 Turbo — улучшенная версия GPT-3.5 от OpenAI. Цели производительности: за счёт оптимизации архитектуры и алгоритмов повышены скорость вывода, эффективность обработки и использование ресурсов. Более высокая скорость вывода: по сравнению с GPT-3.5, GPT-3.5 Turbo обычно быстрее при том же «железе», что особенно полезно для крупномасштабной обработки текста. Выше пропускная способность: при большом числе запросов обеспечивает более высокую параллельность, повышая общую пропускную способность системы. Оптимизированное потребление ресурсов: при сохранении производительности может снижать требования к памяти и вычислениям, что уменьшает стоимость и повышает масштабируемость. Широкий спектр NLP-задач: подходит для генерации текста, семантического понимания, диалогов, машинного перевода и др. Инструменты для разработчиков и API: удобные интерфейсы для быстрой интеграции и деплоя.

gpt-3.5-turbo-0125

16k

4k

Поддерживается

Диалог

OpenAI_gpt-3

Обновлённый GPT-3.5 Turbo с более точным соответствием формату запроса и исправлением ошибки кодирования текста при вызове функций на неанглийских языках. Возвращает до 4096 выходных токенов.

gpt-3.5-turbo-0613

16k

4k

Поддерживается

Диалог

OpenAI_gpt-3

Обновлённый фиксированный снимок GPT-3.5 Turbo. В настоящее время снят с эксплуатации.

gpt-3.5-turbo-1106

16k

4k

Поддерживается

Диалог

OpenAI_gpt-3

Улучшенное следование инструкциям, JSON-режим, воспроизводимые выводы, параллельные вызовы функций и др. Возвращает до 4096 выходных токенов.

gpt-3.5-turbo-16k

16k

4k

Поддерживается

Диалог, снято с эксплуатации или скоро будет снято

OpenAI_gpt-3

(Снято с эксплуатации)

gpt-3.5-turbo-16k-0613

16k

4k

Поддерживается

Диалог, снято с эксплуатации или скоро будет снято

OpenAI_gpt-3

Снимок gpt-3.5-turbo от 13 июня 2023 года. (Снято с эксплуатации)

gpt-3.5-turbo-instruct

4k

4k

Поддерживается

Диалог

OpenAI_gpt-3

Сходные возможности с моделями эпохи GPT-3. Совместима с устаревшей конечной точкой Completions, не подходит для Chat Completions.

gpt-3.5o

16k

4k

Не поддерживается

Диалог

OpenAI_gpt-3

То же, что gpt-4o-lite

gpt-4

8k

8k

Поддерживается

Диалог

OpenAI_gpt-4

В настоящее время указывает на gpt-4-0613.

gpt-4-0125-preview

128k

4k

Поддерживается

Диалог

OpenAI_gpt-4

Новейшая модель GPT-4, нацеленная на снижение «ленивых» случаев, когда модель не завершает задачу. Возвращает до 4096 выходных токенов.

gpt-4-0314

8k

8k

Поддерживается

Диалог

OpenAI_gpt-4

Снимок gpt-4 от 14 марта 2023 года

gpt-4-0613

8k

8k

Поддерживается

Диалог

OpenAI_gpt-4

Снимок gpt-4 от 13 июня 2023 года с улучшенной поддержкой вызова функций.

gpt-4-1106-preview

128k

4k

Поддерживается

Диалог

OpenAI_gpt-4

Модель GPT-4 Turbo с улучшенным следованием инструкциям, JSON-режимом, воспроизводимыми выводами, вызовом функций и др. Возвращает до 4096 выходных токенов. Это предпросмотр.

gpt-4-32k

32k

4k

Поддерживается

Диалог

OpenAI_gpt-4

gpt-4-32k будет снят с эксплуатации 2025-06-06.

gpt-4-32k-0613

32k

4k

Поддерживается

Диалог, снято с эксплуатации или скоро будет снято

OpenAI_gpt-4

Будет снят с эксплуатации 2025-06-06.

gpt-4-turbo

128k

4k

Поддерживается

Диалог

OpenAI_gpt-4

Последняя версия GPT-4 Turbo получила визуальные функции, поддерживает обработку визуальных запросов в JSON-режиме и через вызов функций. Текущая версия модели — gpt-4-turbo-2024-04-09.

gpt-4-turbo-2024-04-09

128k

4k

Поддерживается

Диалог

OpenAI_gpt-4

GPT-4 Turbo с визуальными функциями. Теперь визуальные запросы можно обрабатывать через JSON-режим и вызов функций. Текущая версия gpt-4-turbo — именно эта.

gpt-4-turbo-preview

128k

4k

Поддерживается

Диалог, распознавание изображений

OpenAI_gpt-4

В настоящее время указывает на gpt-4-0125-preview.

gpt-4o

128k

16k

Поддерживается

Диалог, распознавание изображений

OpenAI_gpt-4

Флагманская высокоинтеллектуальная модель OpenAI для сложных многошаговых задач. GPT-4o дешевле и быстрее, чем GPT-4 Turbo.

gpt-4o-2024-05-13

128k

4k

Поддерживается

Диалог, распознавание изображений

OpenAI_gpt-4

Оригинальный снимок gpt-4o от 13 мая 2024 года.

gpt-4o-2024-08-06

128k

16k

Поддерживается

Диалог, распознавание изображений

OpenAI_gpt-4

Первый снимок с поддержкой структурированного вывода. В настоящее время gpt-4o указывает на эту версию.

gpt-4o-mini

128k

16k

Поддерживается

Диалог, распознавание изображений

OpenAI_gpt-4

Доступная версия gpt-4o от OpenAI для быстрых и лёгких задач. GPT-4o mini дешевле и мощнее GPT-3.5 Turbo. Сейчас указывает на gpt-4o-mini-2024-07-18.

gpt-4o-mini-2024-07-18

128k

16k

Поддерживается

Диалог, распознавание изображений

OpenAI_gpt-4

Фиксированный снимок gpt-4o-mini.

gpt-4o-realtime-preview

128k

4k

Поддерживается

Диалог, голос в реальном времени

OpenAI_gpt-4

Реалтайм-модель голосового диалога от OpenAI

gpt-4o-realtime-preview-2024-10-01

128k

4k

Поддерживается

Диалог, голос в реальном времени, распознавание изображений

OpenAI_gpt-4

gpt-4o-realtime-preview в настоящее время указывает на этот снимок

o1-mini

128k

64k

Не поддерживается

Диалог, рассуждение

OpenAI_o1

Меньше и быстрее, чем o1-preview, на 80% дешевле; хорош в генерации кода и задачах с малым контекстом.

o1-preview

128k

32k

Не поддерживается

Диалог, рассуждение

OpenAI_o1

o1-preview — новая модель рассуждения для сложных задач, требующих широких знаний. Контекст 128K и отсечка знаний — октябрь 2023. Сфокусирована на продвинутом рассуждении и решении сложных задач (математика и наука). Подходит для приложений, требующих глубокого понимания контекста и автономных рабочих процессов.

o3-mini

200k

100k

Поддерживается

Диалог, рассуждение

OpenAI_o1

o3-mini — новая компактная модель рассуждения OpenAI: при тех же стоимости и задержке, что у o1-mini, обеспечивает высокий интеллект, сфокусирована на науке, математике и коде; поддерживает структурированный вывод, вызовы функций, пакетный API и др.; отсечка знаний — октябрь 2023; демонстрирует хороший баланс рассуждения и экономичности.

o3-mini-2025-01-31

200k

100k

Поддерживается

Диалог, рассуждение

OpenAI_o1

o3-mini сейчас указывает на эту версию. o3-mini-2025-01-31 — новейшая компактная модель рассуждения OpenAI: при тех же стоимости и задержке, что у o1-mini, обеспечивает высокий интеллект; сфокусирована на науке, математике и коде; поддерживает структурированный вывод, вызовы функций, пакетный API и др.; отсечка знаний — октябрь 2023; отличный баланс рассуждения и экономичности.

Baichuan2-Turbo

32k

-

Не поддерживается

Диалог

百川_baichuan

По сравнению с моделями того же размера в отрасли сохраняет лидирующее качество при значительно сниженной цене.

Baichuan3-Turbo

32k

-

Не поддерживается

Диалог

百川_baichuan

По сравнению с моделями того же размера в отрасли сохраняет лидирующее качество при значительно сниженной цене.

Baichuan3-Turbo-128k

128k

-

Не поддерживается

Диалог

百川_baichuan

Модель Baichuan с окном контекста 128k обрабатывает сложные тексты, специально оптимизирована для отраслей, таких как финансы; при сохранении высокой производительности существенно снижает стоимость, предлагая компаниям выгодное решение.

Baichuan4

32k

-

Не поддерживается

Диалог

百川_baichuan

MoE-модель Baichuan благодаря специальным оптимизациям снижает стоимость и повышает производительность, предлагая в корпоративных приложениях эффективное соотношение цена/качество.

Baichuan4-Air

32k

-

Не поддерживается

Диалог

百川_baichuan

MoE-модель Baichuan благодаря специальным оптимизациям снижает стоимость и повышает производительность, предлагая в корпоративных приложениях эффективное соотношение цена/качество.

Baichuan4-Turbo

32k

-

Не поддерживается

Диалог

百川_baichuan

Обучена на массивных высококачественных сценарных данных: пригодность для корпоративных частых сценариев выше Baichuan4 на 10%+, суммаризация лучше на 50%, многоязычность на 31%, генерация контента на 13%. Специальные оптимизации рассуждения: скорость первого токена выше Baichuan4 на 51%, потоковая скорость токенов — на 73%.

ERNIE-3.5-128K

128k

4k

Поддерживается

Диалог

百度_ernie

Флагманская крупномасштабная языковая модель собственной разработки Baidu, покрывает массивные корпуса на китайском и английском, обладает мощными общими способностями; подходит для большинства сценариев: диалоговый QA, генерация, плагины; поддерживает автоматическое подключение к Baidu Search для актуальности ответов.

ERNIE-3.5-8K

8k

1k

Поддерживается

Диалог

百度_ernie

Флагманская крупномасштабная языковая модель собственной разработки Baidu, покрывает массивные корпуса на китайском и английском, обладает мощными общими способностями; подходит для большинства сценариев: диалоговый QA, генерация, плагины; поддерживает автоматическое подключение к Baidu Search для актуальности ответов.

ERNIE-3.5-8K-Preview

8k

1k

Поддерживается

Диалог

百度_ernie

Флагманская крупномасштабная языковая модель собственной разработки Baidu, покрывает массивные корпуса на китайском и английском, обладает мощными общими способностями; подходит для большинства сценариев: диалоговый QA, генерация, плагины; поддерживает автоматическое подключение к Baidu Search для актуальности ответов.

ERNIE-4.0-8K

8k

1k

Поддерживается

Диалог

百度_ernie

Флагманская сверхкрупная языковая модель Baidu. По сравнению с ERNIE 3.5 — всестороннее обновление возможностей; широко применима к сложным задачам в разных областях; поддерживает автоподключение к Baidu Search для актуальности ответов.

ERNIE-4.0-8K-Latest

8k

2k

Поддерживается

Диалог

百度_ernie

По сравнению с ERNIE-4.0-8K версия ERNIE-4.0-8K-Latest значительно улучшена, особенно в ролевом исполнении и следовании инструкциям; по сравнению с ERNIE 3.5 — всестороннее обновление; поддерживает автоподключение к Baidu Search, 5K токенов ввода + 2K вывода. В статье описан способ вызова API ERNIE-4.0-8K-Latest.

ERNIE-4.0-8K-Preview

8k

1k

Поддерживается

Диалог

百度_ernie

Флагманская сверхкрупная языковая модель Baidu. По сравнению с ERNIE 3.5 — всестороннее обновление возможностей; широко применима к сложным задачам в разных областях; поддерживает автоподключение к Baidu Search для актуальности ответов.

ERNIE-4.0-Turbo-128K

128k

4k

Поддерживается

Диалог

百度_ernie

ERNIE 4.0 Turbo — флагманская сверхкрупная языковая модель Baidu с отличными совокупными показателями, подходит для сложных задач в разных областях; поддерживает автоподключение к Baidu Search. По производительности превосходит ERNIE 4.0. Вариант ERNIE-4.0-Turbo-128K лучше обрабатывает длинные документы, чем ERNIE-3.5-128K. В статье описаны API и использование.

ERNIE-4.0-Turbo-8K

8k

2k

Поддерживается

Диалог

百度_ernie

ERNIE 4.0 Turbo — флагманская сверхкрупная языковая модель Baidu с отличными совокупными показателями, подходит для разных сложных задач; поддерживает автоподключение к Baidu Search. По производительности превосходит ERNIE 4.0. ERNIE-4.0-Turbo-8K — один из вариантов. В статье описаны API и использование.

ERNIE-4.0-Turbo-8K-Latest

8k

2k

Поддерживается

Диалог

百度_ernie

ERNIE 4.0 Turbo — флагманская сверхкрупная языковая модель Baidu с отличными совокупными показателями, подходит для разных сложных задач; поддерживает автоподключение к Baidu Search. По производительности превосходит ERNIE 4.0. ERNIE-4.0-Turbo-8K — один из вариантов.

ERNIE-4.0-Turbo-8K-Preview

8k

2k

Поддерживается

Диалог

百度_ernie

ERNIE 4.0 Turbo — флагманская сверхкрупная языковая модель Baidu с отличными совокупными показателями, подходит для разных сложных задач; поддерживает автоподключение к Baidu Search. ERNIE-4.0-Turbo-8K-Preview — один из вариантов модели

ERNIE-Character-8K

8k

1k

Не поддерживается

Диалог

百度_ernie

Вертикальная языковая модель собственной разработки Baidu: подходит для NPC в играх, клиентских диалогов, ролевого общения и пр.; более яркая и последовательная персонализация, лучшее следование инструкциям и улучшенное рассуждение.

ERNIE-Lite-8K

8k

4k

Не поддерживается

Диалог

百度_ernie

Лёгкая языковая модель собственной разработки Baidu, сочетает отличное качество и производительность вывода; подходит для ускорителей с низкой вычислительной мощностью.

ERNIE-Lite-Pro-128K

128k

2k

Поддерживается

Диалог

百度_ernie

Лёгкая языковая модель собственной разработки Baidu, лучше ERNIE Lite; сочетает качество и производительность вывода; подходит для ускорителей с низкой вычислительной мощностью. Поддерживает контекст 128K, лучше, чем ERNIE-Lite-128K.

ERNIE-Novel-8K

8k

2k

Не поддерживается

Диалог

百度_ernie

ERNIE-Novel-8K — универсальная LLM Baidu, с выраженным преимуществом в продолжении романов; также применима к коротким сериалам, кино и т. п.

ERNIE-Speed-128K

128k

4k

Не поддерживается

Диалог

百度_ernie

Новая в 2024 году высокопроизводительная собственная LLM Baidu с отличными общими способностями; подходит как базовая модель для дообучения под конкретные сценарии; при этом обладает превосходной производительностью вывода.

ERNIE-Speed-8K

8k

1k

Не поддерживается

Диалог

百度_ernie

Новая в 2024 году высокопроизводительная собственная LLM Baidu с отличными общими способностями; подходит как базовая модель для дообучения под конкретные сценарии; при этом обладает превосходной производительностью вывода.

ERNIE-Speed-Pro-128K

128k

4k

Не поддерживается

Диалог

百度_ernie

ERNIE Speed Pro — новая (2024) высокопроизводительная собственная LLM Baidu с отличными общими способностями; подходит как базовая модель для точной настройки под конкретные задачи; выдающаяся производительность. Версия от 30 августа 2024 года; поддерживает контекст 128K и превосходит ERNIE-Speed-128K.

ERNIE-Tiny-8K

8k

1k

Не поддерживается

Диалог

百度_ernie

Сверхвысокопроизводительная собственная LLM Baidu с наименьшими затратами на деплой и дообучение в семействе Wenxin.

Doubao-1.5-lite-32k

32k

12k

Поддерживается

Диалог

豆包_doubao

Doubao1.5-lite — один из лидеров среди лёгких языковых моделей: по бенчмаркам MMLU_pro, BBH, MATH, GPQA равен или превосходит GPT-4omini и Claude 3.5 Haiku.

Doubao-1.5-pro-256k

256k

12k

Поддерживается

Диалог

豆包_doubao

Doubao-1.5-Pro-256k — комплексное обновление от Doubao-1.5-Pro. По сравнению с Doubao-pro-256k/241115 общий эффект улучшен на 10%. Длина вывода значительно увеличена, поддерживается максимум 12k токенов.

Doubao-1.5-pro-32k

32k

12k

Поддерживается

Диалог

豆包_doubao

Doubao-1.5-pro — новое основное поколение с всесторонним улучшением; выдающееся в знаниях, коде, рассуждении и др. Лидирует на множестве открытых бенчмарков, особенно в знаниях, коде, рассуждении и китайских тестах; суммарно превосходит GPT4o, Claude 3.5 Sonnet и другие топовые модели.

Doubao-1.5-vision-pro

32k

12k

Не поддерживается

Диалог, распознавание изображений

豆包_doubao

Doubao-1.5-vision-pro — обновлённая мультимодальная модель: поддерживает произвольное разрешение и экстремальные соотношения сторон; улучшены визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям.

Doubao-Embedding

4k

-

Поддерживается

Встраивания

豆包_doubao

Doubao-embedding — семантическая векторная модель от ByteDance для задач векторного поиска; поддерживает китайский и английский; контекст до 4K. Доступные версии: text-240715: максимальная размерность 2560, поддерживает понижение до 512, 1024, 2048. Сильно лучше по Retrieval на китайском/английском, чем text-240515 — рекомендуется. text-240515: максимальная размерность 2048, поддерживает понижение до 512, 1024.

Doubao-Embedding-Large

4k

-

Не поддерживается

Встраивания

豆包_doubao

Результаты Retrieval на китайском и английском заметно лучше, чем у Doubao-embedding/text-240715

Doubao-Embedding-Vision

8k

-

Не поддерживается

Встраивания

豆包_doubao

Doubao-embedding-vision — обновлённая мультимодальная векторная модель для поиска по тексту и изображениям; поддерживает ввод изображений и тексты на китайском/английском; контекст до 8K.

Doubao-lite-128k

128k

4k

Поддерживается

Диалог

豆包_doubao

Doubao-lite обеспечивает экстремальную скорость отклика и лучшую стоимость, предлагая гибкие опции для разных сценариев. Поддерживает вывод и донастройку с окном контекста 128k.

Doubao-lite-32k

32k

4k

Поддерживается

Диалог

豆包_doubao

Doubao-lite обеспечивает экстремальную скорость отклика и лучшую стоимость, предлагая гибкие опции для разных сценариев. Поддерживает 32k окно контекста для вывода и донастройки.

Doubao-lite-4k

4k

4k

Поддерживается

Диалог

豆包_doubao

Doubao-lite обеспечивает экстремальную скорость отклика и лучшую стоимость, предлагая гибкие опции для разных сценариев. Поддерживает 4k окно контекста для вывода и донастройки.

Doubao-pro-128k

128k

4k

Поддерживается

Диалог

豆包_doubao

Лучшая основная модель: подходит для сложных задач; отлична в справочном QA, суммаризации, творчестве, классификации текста, ролевой игре и др. Поддерживает 128k окно контекста для вывода и донастройки.

Doubao-pro-32k

32k

4k

Поддерживается

Диалог

豆包_doubao

Лучшая основная модель: подходит для сложных задач; отлична в справочном QA, суммаризации, творчестве, классификации текста, ролевой игре и др. Поддерживает 32k окно контекста для вывода и донастройки.

Doubao-pro-4k

4k

4k

Поддерживается

Диалог

豆包_doubao

Лучшая основная модель: подходит для сложных задач; отлична в справочном QA, суммаризации, творчестве, классификации текста, ролевой игре и др. Поддерживает 4k окно контекста для вывода и донастройки.

step-1-128k

128k

-

Поддерживается

Диалог

阶跃星辰

Модель step-1-128k — сверхкрупная языковая модель, способная обрабатывать до 128 000 токенов ввода. Это даёт преимущества при генерации длинного контента и сложном рассуждении; подходит для романов, сценариев и других задач с богатым контекстом.

step-1-256k

256k

-

Поддерживается

Диалог

阶跃星辰

Модель step-1-256k — одна из крупнейших LLM, поддерживает 256 000 токенов ввода. Предназначена для экстремально сложных задач, таких как анализ больших данных и многотуровые диалоги, обеспечивает высококачественные результаты в разных областях.

step-1-32k

32k

-

Поддерживается

Диалог

阶跃星辰

Модель step-1-32k расширяет окно контекста до 32 000 токенов. Отлична в обработке длинных текстов и сложных диалогов; подходит для задач глубокого понимания и анализа, например юридических документов и научных исследований.

step-1-8k

8k

-

Поддерживается

Диалог

阶跃星辰

Модель step-1-8k — эффективная LLM для относительно коротких текстов. Рассуждает в контексте 8 000 токенов; подходит для приложений с быстрым откликом, таких как чат-боты и синхронный перевод.

step-1-flash

8k

-

Поддерживается

Диалог

阶跃星辰

Модель step-1-flash ориентирована на быстрый отклик и эффективную обработку для реалтайм-приложений. Обеспечивает качественное понимание и генерацию при ограниченных ресурсах — подходит для мобильных и edge-сценариев.

step-1.5v-mini

32k

-

Поддерживается

Диалог, распознавание изображений

阶跃星辰

Модель step-1.5v-mini — облегчённая версия для работы в условиях ограниченных ресурсов. Несмотря на компактность, сохраняет хорошие языковые способности; подходит для встраиваемых и энергоэффективных устройств.

step-1v-32k

32k

-

Поддерживается

Диалог, распознавание изображений

阶跃星辰

Модель step-1v-32k поддерживает 32 000 токенов ввода, подходит для приложений с длинным контекстом. Отлична в сложных диалогах и длинных текстах; полезна для клиентской поддержки и контент-креатива.

step-1v-8k

8k

-

Поддерживается

Диалог, распознавание изображений

阶跃星辰

Модель step-1v-8k оптимизирована для 8 000 токенов ввода; подходит для быстрой генерации и обработки коротких текстов. Хороший баланс между скоростью и точностью для реалтайм-приложений.

step-2-16k

16k

-

Поддерживается

Диалог

阶跃星辰

Модель step-2-16k — средняя по масштабу LLM, поддерживает 16 000 токенов ввода. Хороша в различных задачах; применима в образовании, обучении и управлении знаниями.

yi-lightning

16k

-

Поддерживается

Диалог

零一万物_yi

Новейшая высокопроизводительная модель: при сохранении высокого качества существенно ускорено рассуждение. Подходит для реального времени и сложного рассуждения; отличное соотношение цена/качество для коммерческих продуктов.

yi-vision-v2

16K

-

Поддерживается

Диалог, распознавание изображений

零一万物_yi

Подходит для анализа и интерпретации изображений и диаграмм: визуальный QA, понимание графиков, OCR, визуальное рассуждение, образование, анализ отчётов или чтение многоязычных документов.

qwen-14b-chat

8k

2k

Поддерживается

Диалог

千问_qwen

Официальная открытая версия Tongyi Qianwen от Alibaba Cloud.

qwen-72b-chat

32k

2k

Поддерживается

Диалог

千问_qwen

Официальная открытая версия Tongyi Qianwen от Alibaba Cloud.

qwen-7b-chat

7.5k

1.5k

Поддерживается

Диалог

千问_qwen

Официальная открытая версия Tongyi Qianwen от Alibaba Cloud.

qwen-coder-plus

128k

8k

Поддерживается

Диалог, код

千问_qwen

Qwen-Coder-Plus — специализированная модель для программирования в серии Qwen, направлена на улучшение генерации и понимания кода. Обучена на масштабных кодовых данных; поддерживает дополнение, поиск ошибок, рефакторинг и др., повышая эффективность разработки.

qwen-coder-plus-latest

128k

8k

Поддерживается

Диалог, код

千问_qwen

Qwen-Coder-Plus-Latest — последняя версия Qwen-Coder-Plus с новыми алгоритмическими улучшениями и обновлёнными датасетами. Существенно повышена точность понимания контекста и релевантность кода; расширена поддержка языков программирования.

qwen-coder-turbo

128k

8k

Поддерживается

Диалог, код

千问_qwen

Кодовые модели серии Tongyi Qianwen, предназначенные для программирования и генерации кода, с высокой скоростью рассуждения и низкой стоимостью. Эта версия всегда указывает на последнюю стабильную версию-снимок.

qwen-coder-turbo-latest

128k

8k

Поддерживается

Диалог, код

千问_qwen

Кодовые модели серии Tongyi Qianwen для программирования и генерации кода, быстрые и дешёвые. Эта версия всегда указывает на новейший снимок.

qwen-long

10m

6k

Поддерживается

Диалог

千问_qwen

Qwen-Long — модель для сверхдлинного контекста в серии Tongyi Qianwen; поддерживает китайский, английский и др.; до 10 млн токенов (≈15 млн иероглифов или 15 тыс. страниц). Совместно со службой документов поддерживает парсинг и диалог для форматов word, pdf, markdown, epub, mobi. Примечание: через HTTP напрямую — до 1M токенов; свыше — рекомендуется отправка файлами.

qwen-math-plus

4k

3k

Поддерживается

Диалог

千问_qwen

Qwen-Math-Plus — модель для решения математических задач: обеспечивает эффективное математическое рассуждение и вычисления, обучена на больших банках задач; покрывает от базовой арифметики до высшей математики. Применения: образование, наука, инженерия.

qwen-math-plus-latest

4k

3k

Поддерживается

Диалог

千问_qwen

Qwen-Math-Plus-Latest — последняя версия Qwen-Math-Plus с новейшими технологиями математического рассуждения и алгоритмическими улучшениями: лучше решает сложные задачи, точнее ответы и ход рассуждений; расширено понимание символов и формул.

qwen-math-turbo

4k

3k

Поддерживается

Диалог

千问_qwen

Qwen-Math-Turbo — высокопроизводительная математическая модель для быстрого вычисления и реалтайм-рассуждения; оптимизирована по скорости, обрабатывает большие объёмы задач с мгновенной отдачей — подходит для онлайн-образования и аналитики.

qwen-math-turbo-latest

4k

3k

Поддерживается

Диалог

千问_qwen

Qwen-Math-Turbo-Latest — последняя версия Qwen-Math-Turbo с ещё большей эффективностью и точностью; алгоритмические оптимизации для более сложных задач при сохранении высокой скорости — подходит для финансового анализа и научных вычислений.

qwen-max

32k

8k

Поддерживается

Диалог

千问_qwen

Серия Tongyi Qianwen 2.5 масштаба сотен миллиардов параметров; поддерживает китайский, английский и др. По мере обновлений qwen-max будет постепенно обновляться.

qwen-max-latest

32k

8k

Поддерживается

Диалог

千问_qwen

Лучшая в серии Tongyi Qianwen модель с динамическими обновлениями без предварительных уведомлений; подходит для сложных многошаговых задач; значительно улучшены двуязычные способности, предпочтения, рассуждение и понимание сложных инструкций; лучше на сложных задачах; существенно улучшены математика и код; лучшее понимание и генерация структурированных данных (Table, JSON).

qwen-plus

128k

8k

Поддерживается

Диалог

千问_qwen

Сбалансированная модель серии Tongyi Qianwen: по скорости и рассуждению между Max и Turbo; подходит для задач средней сложности. Улучшены двуязычные способности, предпочтения, рассуждение и понимание сложных инструкций; лучше на трудных задачах; улучшены математика и код.

qwen-plus-latest

128k

8k

Поддерживается

Диалог

千问_qwen

Qwen-Plus — усиленная визуально-языковая модель серии Tongyi Qianwen, улучшает детальное распознавание и OCR. Поддерживает сверхмегапиксельное разрешение и произвольное соотношение сторон; великолепна в визуально-языковых задачах, подходит для приложений с высоким требованием к точности понимания изображений.

qwen-turbo

128k

8k

Поддерживается

Диалог

千问_qwen

Самая быстрая и недорогая модель серии Tongyi Qianwen для простых задач. Улучшены двуязычные способности, предпочтения, рассуждение и понимание сложных инструкций; лучше на трудных задачах; улучшены математика и код.

qwen-turbo-latest

1m

8k

Поддерживается

Диалог

千问_qwen

Qwen-Turbo — эффективная модель для простых задач, ориентирована на скорость и экономичность. Отлична в базовых визуально-языковых задачах; подходит для приложений с жёсткими требованиями по времени отклика, например реалтайм-распознавание изображений и простые QA.

qwen-vl-max

32k

2k

Поддерживается

Диалог

千问_qwen

Tongyi Qianwen VL-Max (qwen-vl-max) — сверхкрупная визуально-языковая модель. По сравнению с усиленной версией ещё лучше в визуальном рассуждении и следовании инструкциям, обеспечивает более высокий уровень визуального восприятия и когниции; лучшая производительность на сложных задачах.

qwen-vl-max-latest

32k

2k

Поддерживается

Диалог, распознавание изображений

千问_qwen

Qwen-VL-Max — топовая модель серии Qwen-VL для сложных мультимодальных задач. Совмещает передовые визуальные и языковые технологии, понимает и анализирует изображения высокого разрешения, обладает сильным рассуждением; подходит для приложений, требующих глубины понимания и сложного рассуждения.

qwen-vl-ocr

34k

4k

Поддерживается

Диалог, распознавание изображений

千问_qwen

Поддерживает только OCR, без диалога.

qwen-vl-ocr-latest

34k

4k

Поддерживается

Диалог, распознавание изображений

千问_qwen

Поддерживает только OCR, без диалога.

qwen-vl-plus

8k

2k

Поддерживается

Диалог, распознавание изображений

千问_qwen

Tongyi Qianwen VL-Plus (qwen-vl-plus) — усиленная крупная визуально-языковая модель. Существенно улучшены детальное распознавание и OCR; поддерживает сверхмегапиксельное разрешение и произвольные соотношения сторон; выдающаяся производительность в широком спектре визуальных задач.

qwen-vl-plus-latest

32k

2k

Поддерживается

Диалог, распознавание изображений

千问_qwen

Qwen-VL-Plus-Latest — последняя версия Qwen-VL-Plus с усиленными мультимодальными возможностями. Отлична в комбинированной обработке изображений и текста; подходит для приложений с разнородным вводом, как умная поддержка и генерация контента.

Qwen/Qwen2-1.5B-Instruct

32k

6k

Не поддерживается

Диалог

千问_qwen

Qwen2-1.5B-Instruct — инструкционно дообученная LLM серии Qwen2 на 1,5B параметров. Основана на Transformer, использует активацию SwiGLU, смещения QKV внимания и GQA. Отличные результаты в понимании и генерации языка, мультиязычии, кодировании, математике и рассуждении, превосходя большинство открытых моделей.

Qwen/Qwen2-72B-Instruct

128k

6k

Не поддерживается

Диалог

千问_qwen

Qwen2-72B-Instruct — инструкционно дообученная LLM серии Qwen2 на 72B параметров. Основана на Transformer, использует SwiGLU, смещения QKV и GQA. Обрабатывает крупномасштабный ввод; отличные результаты на бенчмарках языка, генерации, мультиязычия, кода, математики и рассуждения, превосходя большинство открытых моделей.

Qwen/Qwen2-7B-Instruct

128k

6k

Не поддерживается

Диалог

千问_qwen

Qwen2-7B-Instruct — инструкционно дообученная LLM серии Qwen2 на 7B параметров. Основана на Transformer, использует SwiGLU, смещения QKV и GQA. Обрабатывает крупный ввод; отличные результаты на языке, генерации, мультиязычии, коде, математике и рассуждении, превосходя большинство открытых моделей.

Qwen/Qwen2-VL-72B-Instruct

32k

2k

Не поддерживается

Диалог

千问_qwen

Qwen2-VL — новейшая итерация модели Qwen-VL с передовыми результатами на визуальных бенчмарках: MathVista, DocVQA, RealWorldQA, MTVQA и др. Понимает видео свыше 20 минут для QA, диалога и контент-креатива; обладает сложным рассуждением и принятием решений; может интегрироваться с мобильными устройствами, роботами и выполнять автооперации по визуальной среде и текстовым инструкциям.

Qwen/Qwen2-VL-7B-Instruct

32k

-

Не поддерживается

Диалог

千问_qwen

Qwen2-VL-7B-Instruct — новейшая итерация Qwen-VL; топовые результаты на визуальных бенчмарках (MathVista, DocVQA, RealWorldQA, MTVQA и др.). Подходит для видео-QA, диалогов и контент-творчества; обладает сложным рассуждением и принятием решений; интегрируется с мобильными устройствами и роботами для автоопераций на основе визуальной среды и текстовых инструкций.

Qwen/Qwen2.5-72B-Instruct

128k

8k

Не поддерживается

Диалог

千问_qwen

Qwen2.5-72B-Instruct — одна из новейших моделей серии от Alibaba Cloud. Модель 72B заметно улучшена в коде и математике; поддерживает ввод до 128K токенов и может генерировать тексты свыше 8K токенов.

Qwen/Qwen2.5-72B-Instruct-128K

128k

8k

Не поддерживается

Диалог

千问_qwen

Qwen2.5-72B-Instruct — одна из новейших моделей серии от Alibaba Cloud. Модель 72B заметно улучшена в коде и математике; поддерживает ввод до 128K токенов и может генерировать тексты свыше 8K токенов.

Qwen/Qwen2.5-7B-Instruct

128k

8k

Не поддерживается

Диалог

千问_qwen

Qwen2.5-7B-Instruct — одна из новейших моделей серии от Alibaba Cloud. Модель 7B значительно улучшена в коде и математике; поддерживает более 29 языков, включая китайский и английский. Сильно улучшены следование инструкциям, понимание структурированных данных и генерация структурированного вывода (особенно JSON).

Qwen/Qwen2.5-Coder-32B-Instruct

128k

8k

Не поддерживается

Диалог, код

千问_qwen

Qwen2.5-32B-Instruct — одна из новейших моделей серии от Alibaba Cloud. Модель 32B существенно улучшена в коде и математике; поддерживает более 29 языков, включая китайский и английский. Сильно улучшены следование инструкциям, понимание структурированных данных и генерация структурированного вывода (особенно JSON).

Qwen/Qwen2.5-Coder-7B-Instruct

128k

8k

Не поддерживается

Диалог

千问_qwen

Qwen2.5-7B-Instruct — одна из новейших моделей серии от Alibaba Cloud. Модель 7B значительно улучшена в коде и математике; поддерживает более 29 языков, включая китайский и английский. Сильно улучшены следование инструкциям, понимание структурированных данных и генерация структурированного вывода (особенно JSON).

Qwen/QwQ-32B-Preview

32k

16k

Не поддерживается

Диалог, рассуждение

千问_qwen

QwQ-32B-Preview — экспериментальная исследовательская модель команды Qwen, нацеленная на усиление рассуждения ИИ. Как превью показывает отличные аналитические способности, но имеет ограничения: 1. Смешение языков и переключение кода: может смешивать языки или непреднамеренно переключаться, ухудшая ясность. 2. Рекурсивные циклы рассуждения: может входить в циклы, выдавая длинные ответы без чётких выводов. 3. Безопасность и этика: требуется усиление мер безопасности; пользователям следует проявлять осторожность. 4. Ограничения производительности и бенчмарков: силён в математике и программировании, но есть пространство для улучшения в здравом смысле и нюансах языка.

qwen1.5-110b-chat

32k

8k

Не поддерживается

Диалог

千问_qwen

-

qwen1.5-14b-chat

8k

2k

Не поддерживается

Диалог

千问_qwen

-

qwen1.5-32b-chat

32k

2k

Не поддерживается

Диалог

千问_qwen

-

qwen1.5-72b-chat

32k

2k

Не поддерживается

Диалог

千问_qwen

-

qwen1.5-7b-chat

8k

2k

Не поддерживается

Диалог

千问_qwen

-

qwen2-57b-a14b-instruct

65k

6k

Не поддерживается

Диалог

千问_qwen

-

Qwen2-72B-Instruct

-

-

Не поддерживается

Диалог

千问_qwen

-

qwen2-7b-instruct

128k

6k

Не поддерживается

Диалог

千问_qwen

-

qwen2-math-72b-instruct

4k

3k

Не поддерживается

Диалог

千问_qwen

-

qwen2-math-7b-instruct

4k

3k

Не поддерживается

Диалог

千问_qwen

-

qwen2.5-14b-instruct

128k

8k

Не поддерживается

Диалог

千问_qwen

-

qwen2.5-32b-instruct

128k

8k

Не поддерживается

Диалог

千问_qwen

-

qwen2.5-72b-instruct

128k

8k

Не поддерживается

Диалог

千问_qwen

-

qwen2.5-7b-instruct

128k

8k

Не поддерживается

Диалог

千问_qwen

-

qwen2.5-coder-14b-instruct

128k

8k

Не поддерживается

Диалог, код

千问_qwen

-

qwen2.5-coder-32b-instruct

128k

8k

Не поддерживается

Диалог, код

千问_qwen

-

qwen2.5-coder-7b-instruct

128k

8k

Не поддерживается

Диалог, код

千问_qwen

-

qwen2.5-math-72b-instruct

4k

3k

Не поддерживается

Диалог

千问_qwen

-

qwen2.5-math-7b-instruct

4k

3k

Не поддерживается

Диалог

千问_qwen

-

deepseek-ai/DeepSeek-R1

64k

-

Не поддерживается

Диалог, рассуждение

深度求索_deepseek

Модель DeepSeek-R1 — открытая модель рассуждения, основанная на чистом RL; выдающаяся в математике, коде и естественно-языковом рассуждении; сопоставима по качеству с OpenAI o1 и показывает отличные результаты на множестве бенчмарков.

deepseek-ai/DeepSeek-V2-Chat

128k

-

Не поддерживается

Диалог

深度求索_deepseek

DeepSeek-V2 — это мощная и экономичная языковая модель со смешанными экспертами (MoE). Она была предварительно обучена на высококачественном корпусе объёмом 81 триллион токенов и дополнительно улучшена с помощью контроля над обучением (SFT) и обучения с подкреплением (RL). По сравнению с DeepSeek 67B, DeepSeek-V2 обеспечивает более высокую производительность при снижении затрат на обучение на 42,5%, уменьшении KV-кэша на 93,3% и увеличении максимальной пропускной способности генерации в 5,76 раза.

deepseek-ai/DeepSeek-V2.5

32k

-

Поддерживается

Диалог

深度求索_deepseek

DeepSeek-V2.5 — это обновлённая версия DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct, объединяющая универсальные и программные возможности двух предыдущих версий. Модель оптимизирована по нескольким направлениям, включая навыки письма и следования инструкциям, и лучше согласована с предпочтениями людей.

deepseek-ai/DeepSeek-V3

128k

4k

Не поддерживается

Диалог

深度求索_deepseek

Открытая версия deepseek, по сравнению с официальной версией имеет более длинный контекст, без проблем с отказом из‑за чувствительных слов и т.п.

deepseek-chat

64k

8k

Поддерживается

Диалог

深度求索_deepseek

236B параметров, контекст 64K (API), по совокупной способности на китайском (AlignBench) занимает первое место среди открытых моделей; в тестах находится в одном классе с закрытыми моделями вроде GPT-4-Turbo и Wenxin 4.0.

deepseek-coder

64k

8k

Поддерживается

Диалог, код

深度求索_deepseek

236B параметров, контекст 64K (API), по совокупной способности на китайском (AlignBench) занимает первое место среди открытых моделей; в тестах находится в одном классе с закрытыми моделями вроде GPT-4-Turbo и Wenxin 4.0.

deepseek-reasoner

64k

8k

Поддерживается

Диалог, рассуждение

深度求索_deepseek

DeepSeek-Reasoner (DeepSeek-R1) — это новейшая модель для рассуждений от DeepSeek, разработанная для улучшения способности к выводу с помощью обучения с подкреплением. Процесс рассуждения модели включает большое количество размышлений и проверок, позволяя решать сложные задачи логического вывода; длина цепочки мыслей может достигать десятков тысяч символов. DeepSeek-R1 демонстрирует отличные результаты в математике, кодировании и других сложных задачах, широко применяется в разных сценариях и показывает высокую гибкость и мощность рассуждений. По сравнению с другими моделями DeepSeek-R1 близка по уровню рассуждений к ведущим закрытым моделям, показывая потенциал и конкурентоспособность открытых моделей в области вывода.

hunyuan-code

4k

4k

Не поддерживается

Диалог, код

腾讯_hunyuan

Последняя модель генерации кода Hunyuan, дообученная на базе с 200B высококачественных кодовых данных, затем полгода дообучалась на высококачественных данных SFT. Окно контекста увеличено до 8K; по автоматическим метрикам генерации кода в пяти языках занимает лидирующие позиции; по 10 показателям в пяти языках в высококачественной ручной оценке задач по коду находится в первом эшелоне.

hunyuan-functioncall

28k

4k

Поддерживается

Диалог

腾讯_hunyuan

Последняя MOE-архитектура Hunyuan FunctionCall, обученная на высококачественных данных FunctionCall, с окном контекста до 32K и лидирующими показателями по нескольким метрикам.

hunyuan-large

28k

4k

Не поддерживается

Диалог

腾讯_hunyuan

Модель Hunyuan-large имеет около 389B параметров и примерно 52B активных параметров; это крупнейшая по параметрам и наиболее эффективная открытая MoE‑модель с архитектурой Transformer на текущий момент.

hunyuan-large-longcontext

128k

6k

Не поддерживается

Диалог

腾讯_hunyuan

Специализируется на задачах с длинными текстами, таких как суммаризация и ответы на вопросы по документам, а также способен решать общие задачи генерации текста. Демонстрирует превосходные результаты в анализе и генерации длинных текстов и эффективно справляется с обработкой сложного и детализированного содержимого.

hunyuan-lite

250k

6k

Не поддерживается

Диалог

腾讯_hunyuan

Обновлён до MOE-структуры, окно контекста 256k; опережает многие открытые модели по наборам испытаний в областях NLP, кода, математики и отраслевых задач.

hunyuan-pro

28k

4k

Поддерживается

Диалог

腾讯_hunyuan

MOE‑модель триллионного масштаба с длинным контекстом 32K. Достигает абсолютного лидирующего уровня по различным бенчмаркам, решает сложные инструкции и задачи рассуждений, обладает возможностями для сложной математики, поддерживает functioncall; специально оптимизирована для многоязычного перевода и областей применения в финансах, юриспруденции и медицине.

hunyuan-role

28k

4k

Не поддерживается

Диалог

腾讯_hunyuan

Последняя модель ролевого исполнения Hunyuan — официально донастроенная Hunyuan модель, дообученная на датасете сценариев ролевых игр; обеспечивает лучшие базовые результаты в задачах ролевого исполнения.

hunyuan-standard

30k

2k

Не поддерживается

Диалог

腾讯_hunyuan

Применена более эффективная стратегия маршрутизации, при этом смягчены проблемы балансировки нагрузки и сходимости экспертов. MOE‑32K предоставляет лучшее соотношение цена/качество: при сбалансированной производительности и стоимости обеспечивает обработку длинных текстовых входов.

hunyuan-standard-256K

250k

6k

Не поддерживается

Диалог

腾讯_hunyuan

Применена более эффективная стратегия маршрутизации, при этом смягчены проблемы балансировки нагрузки и сходимости экспертов. Для длинных текстов показатель «поиска иголки в стоге сена» достигает 99,9%. MOE‑256K делает новый прорыв в длине и качестве, значительно расширяя допустимую длину ввода.

hunyuan-translation-lite

4k

4k

Не поддерживается

Диалог

腾讯_hunyuan

Модель перевода Hunyuan поддерживает диалоговый перевод на естественном языке; обеспечивает взаимный перевод между китайским и 14 языками: английским, японским, французским, португальским, испанским, турецким, русским, арабским, корейским, итальянским, немецким, вьетнамским, малайским и индонезийским (всего 15 языков).

hunyuan-turbo

28k

4k

Поддерживается

Диалог

腾讯_hunyuan

Hunyuan-turbo — версия модели по умолчанию, использующая новую MoE‑архитектуру; по сравнению с hunyuan-pro обеспечивает более быструю инференс‑эффективность и лучшую производительность.

hunyuan-turbo-latest

28k

4k

Поддерживается

Диалог

腾讯_hunyuan

Динамически обновляемая версия Hunyuan-turbo — лучшая версия в серии Hunyuan, соответствует версии для конечных пользователей (Tencent Yuanbao).

hunyuan-turbo-vision

8k

2k

Поддерживается

Распознавание изображений, диалог

腾讯_hunyuan

Флагманская мультимодальная визуально‑языковая модель нового поколения Hunyuan, использующая новую MoE‑архитектуру; по способностям распознавания изображений и текста, созданию контента, ответам на вопросы по знаниям и аналитическому рассуждению значительно превосходит предыдущее поколение. Максимальный ввод 6k, максимальный вывод 2k.

hunyuan-vision

8k

2k

Поддерживается

Диалог, распознавание изображений

腾讯_hunyuan

Последняя мультимодальная модель Hunyuan поддерживает ввод «изображение + текст» для генерации текстового содержимого. Базовое распознавание изображений: распознаёт объекты, элементы и сцены на изображении. Создание контента по изображению: даёт обзор изображения, генерирует рекламные тексты, посты для соцсетей, стихотворения и т.п. Многократный диалог по изображению: обеспечивает многократное взаимодействие и ответы по одной картинке. Аналитическое рассуждение по изображению: анализирует логические связи, математические задачи, код и диаграммы на изображении. Вопросы и ответы по знаниям с изображений: отвечает на вопросы о фактах, содержащихся на изображении, например о исторических событиях или постерах фильмов. OCR для изображений: распознаёт текст на фотографиях из реальной жизни и на нерегулярных сценах.

SparkDesk-Lite

4k

-

Не поддерживается

Диалог

星火_SparkDesk

Поддерживает онлайн‑поиск в интернете, отвечает быстро и удобно; подходит для сценариев с низкой вычислительной мощностью инференса и для тонкой настройки моделей под заказ.

SparkDesk-Max

128k

-

Поддерживается

Диалог

星火_SparkDesk

Квантизированная версия на базе последнего движка крупной модели Spark 4.0 Turbo; поддерживает сетевой поиск, погоду, дату и другие встроенные плагины; основные возможности всесторонне улучшены, эффективность в приложениях возрастает; поддерживает роль System и вызовы функций (FunctionCall).

SparkDesk-Max-32k

32k

-

Поддерживается

Диалог

星火_SparkDesk

Более мощный инференс: улучшенное понимание контекста и логическое рассуждение; поддерживает ввод до 32K токенов, подходит для чтения больших документов, приватных вопросов по базе знаний и других длиннотекстовых сценариев.

SparkDesk-Pro

128k

-

Не поддерживается

Диалог

星火_SparkDesk

Специальная оптимизация для математики, кода, медицины, образования и т.п.; поддерживает сетевой поиск, погоду, дату и другие встроенные плагины; покрывает большую часть сценариев вопросов по знаниям, понимания языка и создания текста.

SparkDesk-Pro-128K

128k

-

Не поддерживается

Диалог

星火_SparkDesk

Профессиональная большая языковая модель с сотнями миллиардов параметров, специально оптимизированная для медицины, образования и кода; в поисковых сценариях обладает меньшей задержкой. Подходит для бизнес‑сценариев, где требуются высокая производительность и скорость отклика для работы с текстом и интеллектуальными ответами.

moonshot-v1-128k

128k

4k

Поддерживается

Диалог

月之暗面_moonshot

Модель с длиной контекста 8k, подходит для генерации коротких текстов.

moonshot-v1-32k

32k

4k

Поддерживается

Диалог

月之暗面_moonshot

Модель с длиной контекста 32k, подходит для генерации длинных текстов.

moonshot-v1-8k

8k

4k

Поддерживается

Диалог

月之暗面_moonshot

Модель с длиной контекста 128k, подходит для генерации сверхдлинных текстов.

codegeex-4

128k

4k

Не поддерживается

Диалог, код

智谱_codegeex

Кодовая модель Zhipu: подходит для задач автодополнения кода.

charglm-3

4k

2k

Не поддерживается

Диалог

智谱_glm

Персонифицированная модель (человекообразная модель)

emohaa

8k

4k

Не поддерживается

Диалог

智谱_glm

Психологическая модель: обладает профессиональными консультационными навыками, помогает пользователям понимать эмоции и справляться с эмоциональными проблемами.

glm-3-turbo

128k

4k

Не поддерживается

Диалог

智谱_glm

Будет снята с использования (30 июня 2025 г.)

glm-4

128k

4k

Поддерживается

Диалог

智谱_glm

Старая флагманская версия: выпущена 16 января 2024 г., в настоящее время заменена GLM-4-0520.

glm-4-0520

128k

4k

Поддерживается

Диалог

智谱_glm

Модель высокого интеллекта: подходит для обработки очень сложных и разнообразных задач.

glm-4-air

128k

4k

Поддерживается

Диалог

智谱_glm

Высокая экономичность: модель с наилучшим балансом между способностью к выводу и ценой.

glm-4-airx

8k

4k

Поддерживается

Диалог

智谱_glm

Сверхбыстрый вывод: обладает экстремально высокой скоростью вывода и мощными возможностями рассуждений.

glm-4-flash

128k

4k

Поддерживается

Диалог

智谱_glm

Высокая скорость при низкой стоимости: сверхбыстрый вывод.

glm-4-flashx

128k

4k

Поддерживается

Диалог

智谱_glm

Высокая скорость при низкой стоимости: улучшенная Flash‑версия для сверхбыстрого вывода.

glm-4-long

1m

4k

Поддерживается

Диалог

智谱_glm

Сверхдлинный ввод: разработана для обработки очень длинных текстов и задач с памяттю.

glm-4-plus

128k

4k

Поддерживается

Диалог

智谱_glm

Флагман высокой интеллектуальности: полное улучшение производительности, значительно усилены возможности для длинных текстов и сложных задач.

glm-4v

2k

-

Не поддерживается

Диалог, распознавание изображений

智谱_glm

Понимание изображений: обладает способностями к пониманию и рассуждению по изображениям.

glm-4v-flash

2k

1k

Не поддерживается

Диалог, распознавание изображений

智谱_glm

Бесплатная модель: обладает мощными возможностями понимания изображений.

Последнее обновление

Это было полезно?