Данные модели
360gpt-pro
8k
-
Не поддерживается
Диалог
360AI_360gpt
Флагманская модель серии 360智脑 с наилучшим качеством среди моделей масштаба сотен миллиардов параметров, широко подходит для сложных задач в различных областях.
360gpt-turbo
7k
-
Не поддерживается
Диалог
360AI_360gpt
Модель десятков миллиардов параметров, сочетающая производительность и качество; подходит для сценариев с высокими требованиями к производительности/стоимости.
360gpt-turbo-responsibility-8k
8k
-
Не поддерживается
Диалог
360AI_360gpt
Модель десятков миллиардов параметров, сочетающая производительность и качество; подходит для сценариев с высокими требованиями к производительности/стоимости.
360gpt2-pro
8k
-
Не поддерживается
Диалог
360AI_360gpt
Флагманская модель серии 360智脑 с наилучшим качеством среди моделей масштаба сотен миллиардов параметров, широко подходит для сложных задач в различных областях.
claude-3-5-sonnet-20240620
200k
16k
Не поддерживается
Диалог, распознавание изображений
Anthropic_claude
Снимок от 20 июня 2024 года. Claude 3.5 Sonnet — модель, сбалансированная по скорости и качеству: при высокой скорости обеспечивает топовую производительность и поддерживает мультимодальный ввод.
claude-3-5-haiku-20241022
200k
16k
Не поддерживается
Диалог
Anthropic_claude
Снимок от 22 октября 2024 года. Claude 3.5 Haiku улучшен по множеству навыков, включая кодирование, использование инструментов и рассуждение. Будучи самым быстрым в серии Anthropic, он обеспечивает низкую задержку и быстрый отклик, подходит для приложений с высокой интерактивностью, таких как пользовательские чат-боты и мгновенная автодополнение кода. Также превосходно справляется с профессиональными задачами, как извлечение данных и модерация контента в реальном времени, что делает его универсальным инструментом для различных отраслей. Не поддерживает ввод изображений.
claude-3-5-sonnet-20241022
200k
8K
Не поддерживается
Диалог, распознавание изображений
Anthropic_claude
Снимок от 22 октября 2024 года. Claude 3.5 Sonnet предоставляет возможности, превосходящие Opus, и более высокую скорость, чем Sonnet, при сохранении той же цены, что у Sonnet. Особенно силён в программировании, дата-сайенсе, обработке визуальных данных и агентных задачах.
claude-3-5-sonnet-latest
200K
8k
Не поддерживается
Диалог, распознавание изображений
Anthropic_claude
Динамически указывает на последнюю версию Claude 3.5 Sonnet. Claude 3.5 Sonnet предоставляет возможности, превосходящие Opus, и более высокую скорость, чем Sonnet, при сохранении цены Sonnet. Особенно силён в программировании, дата-сайенсе, визуальной обработке и агентных задачах; эта модель указывает на новейшую версию.
claude-3-haiku-20240307
200k
4k
Не поддерживается
Диалог, распознавание изображений
Anthropic_claude
Claude 3 Haiku — самая быстрая и компактная модель Anthropic, предназначенная для почти мгновенного ответа. Обладает быстрой и точной направленной производительностью.
claude-3-opus-20240229
200k
4k
Не поддерживается
Диалог, распознавание изображений
Anthropic_claude
Claude 3 Opus — самая мощная модель Anthropic для высоко сложных задач. Выделяется по производительности, интеллекту, беглости и пониманию.
claude-3-sonnet-20240229
200k
8k
Не поддерживается
Диалог, распознавание изображений
Anthropic_claude
Снимок от 29 февраля 2024 года. Sonnet особенно хорош в: - Кодировании: способен автономно писать, редактировать и запускать код, обладает навыками рассуждения и отладки - Дата-сайенсе: усиливает экспертизу специалистов; умеет работать с неструктурированными данными при получении инсайтов с помощью множества инструментов - Визуальной обработке: отлично интерпретирует диаграммы, графики и изображения, точно транскрибирует текст для получения инсайтов за пределами самого текста - Агентных задачах: превосходно использует инструменты, подходит для многосоставных задач, требующих взаимодействия с другими системами
google/gemma-2-27b-it
8k
-
Не поддерживается
Диалог
Google_gamma
Gemma — лёгкая, передовая открытая серия моделей от Google, построенная на тех же исследованиях и технологиях, что и Gemini. Это LLM только с декодером, поддерживающие английский, с открытыми весами в вариантах предобучения и дообучения на инструкциях. Подходят для задач генерации текста: QA, суммаризация, рассуждение.
google/gemma-2-9b-it
8k
-
Не поддерживается
Диалог
Google_gamma
Gemma — одна из лёгких передовых открытых моделей от Google. LLM только с декодером, поддерживает английский, доступна с открытыми весами, в вариантах предобучения и инструкционного дообучения. Подходит для генерации текста: QA, суммаризация, рассуждение. Модель 9B обучена на 8 трлн токенов.
gemini-1.5-pro
2m
8k
Не поддерживается
Диалог
Google_gemini
Последняя стабильная версия Gemini 1.5 Pro. Как мощная мультимодальная модель, обрабатывает до 60 тыс. строк кода или 2000 страниц текста. Особенно подходит для задач со сложным рассуждением.
gemini-1.0-pro-001
33k
8k
Не поддерживается
Диалог
Google_gemini
Стабильная версия Gemini 1.0 Pro. Как NLP-модель, специализируется на многократном текстовом и кодовом чате и генерации кода. Будет выведена из эксплуатации 15 февраля 2025 года; рекомендуется перейти на серию 1.5.
gemini-1.0-pro-002
32k
8k
Не поддерживается
Диалог
Google_gemini
Стабильная версия Gemini 1.0 Pro. Как NLP-модель, специализируется на многократном текстовом и кодовом чате и генерации кода. Будет выведена из эксплуатации 15 февраля 2025 года; рекомендуется перейти на серию 1.5.
gemini-1.0-pro-latest
33k
8k
Не поддерживается
Диалог, снято с эксплуатации или скоро будет снято
Google_gemini
Последняя версия Gemini 1.0 Pro. Как NLP-модель, специализируется на многократном текстовом и кодовом чате и генерации кода. Будет выведена из эксплуатации 15 февраля 2025 года; рекомендуется перейти на серию 1.5.
gemini-1.0-pro-vision-001
16k
2k
Не поддерживается
Диалог
Google_gemini
Визуальная версия Gemini 1.0 Pro. Будет выведена из эксплуатации 15 февраля 2025 года; рекомендуется перейти на серию 1.5.
gemini-1.0-pro-vision-latest
16k
2k
Не поддерживается
Распознавание изображений
Google_gemini
Последняя визуальная версия Gemini 1.0 Pro. Будет выведена из эксплуатации 15 февраля 2025 года; рекомендуется перейти на серию 1.5.
gemini-1.5-flash
1m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Последняя стабильная версия Gemini 1.5 Flash. Как сбалансированная мультимодальная модель, обрабатывает аудио, изображения, видео и текстовый ввод.
gemini-1.5-flash-001
1m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Стабильная версия Gemini 1.5 Flash. Предоставляет те же базовые функции, что gemini-1.5-flash, но с фиксированной версией, подходит для продакшена.
gemini-1.5-flash-002
1m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Стабильная версия Gemini 1.5 Flash. Предоставляет те же базовые функции, что gemini-1.5-flash, но с фиксированной версией, подходит для продакшена.
gemini-1.5-flash-8b
1m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Gemini 1.5 Flash-8B — новый мультимодальный ИИ от Google для эффективной обработки крупномасштабных задач. Имеет 8 млрд параметров, поддерживает ввод текста, изображений, аудио и видео; подходит для чатов, транскрибации, перевода и т. п. По сравнению с другими Gemini оптимизирован по скорости и стоимости, особенно для чувствительных к бюджету пользователей. Лимиты скорости удвоены, что повышает эффективность масштабной обработки. Использует «дистилляцию знаний» для переноса ключевых знаний из более крупных моделей, обеспечивая лёгкость и эффективность при сохранении базовых способностей
gemini-1.5-flash-exp-0827
1m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Экспериментальная версия Gemini 1.5 Flash, регулярно обновляется с последними улучшениями. Подходит для исследовательского тестирования и прототипирования, не рекомендуется для продакшена.
gemini-1.5-flash-latest
1m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Передовая версия Gemini 1.5 Flash, регулярно обновляется с последними улучшениями. Подходит для исследовательского тестирования и прототипирования, не рекомендуется для продакшена.
gemini-1.5-pro-001
2m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Стабильная версия Gemini 1.5 Pro с фиксированным поведением и характеристиками. Подходит для продакшена, где важна стабильность.
gemini-1.5-pro-002
2m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Стабильная версия Gemini 1.5 Pro с фиксированным поведением и характеристиками. Подходит для продакшена, где важна стабильность.
gemini-1.5-pro-exp-0801
2m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Экспериментальная версия Gemini 1.5 Pro. Как мощная мультимодальная модель, обрабатывает до 60 тыс. строк кода или 2000 страниц текста. Особенно подходит для задач со сложным рассуждением.
gemini-1.5-pro-exp-0827
2m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Экспериментальная версия Gemini 1.5 Pro. Как мощная мультимодальная модель, обрабатывает до 60 тыс. строк кода или 2000 страниц текста. Особенно подходит для задач со сложным рассуждением.
gemini-1.5-pro-latest
2m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Последняя версия Gemini 1.5 Pro, динамически указывает на новейший снимок.
gemini-2.0-flash
1m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Gemini 2.0 Flash — новейшая модель Google: быстрее по времени первого токена (TTFT), чем 1.5, при сопоставимом с Gemini Pro 1.5 качестве; существенно улучшена мультимодальная интерпретация, код, исполнение сложных инструкций и вызов функций, обеспечивая более плавный и мощный интеллектуальный опыт.
gemini-2.0-flash-exp
100k
8k
Поддерживается
Диалог, распознавание изображений
Google_gemini
Gemini 2.0 Flash вводит мультимодальный реалтайм-API, улучшенные скорость и производительность, повышение качества, усиленные агентные возможности, а также добавляет генерацию изображений и конвертацию голоса.
gemini-2.0-flash-lite-preview-02-05
1M
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Gemini 2.0 Flash-Lite — новая высокоэффективная модель Google: при скорости 1.5 Flash качество лучше; поддерживает контекст 1 млн токенов, обрабатывает изображения, аудио и код; самая выгодная по соотношению цена/качество в линейке, с упрощённым единым тарифом — подходит для крупномасштабных приложений с контролем затрат.
gemini-2.0-flash-thinking-exp
40k
8k
Не поддерживается
Диалог, рассуждение
Google_gemini
gemini-2.0-flash-thinking-exp — экспериментальная модель, способная генерировать «процесс размышления», происходящий при формировании ответа. Поэтому по сравнению с базовой Gemini 2.0 Flash ответы в «режиме мышления» обладают более сильными способностями к рассуждению.
gemini-2.0-flash-thinking-exp-01-21
1m
64k
Не поддерживается
Диалог, рассуждение
Google_gemini
Gemini 2.0 Flash Thinking EXP-01-21 — новейшая модель Google, ориентированная на улучшение рассуждения и взаимодействия. Обладает сильными навыками рассуждения, особенно в математике и программировании, поддерживает контекст до 1 млн токенов, подходит для сложных задач и глубокого анализа. Уникальна тем, что может генерировать ход мыслей, повышая прозрачность мышления ИИ, поддерживает нативное выполнение кода, повышая гибкость и практичность. Оптимизации уменьшают логические противоречия, улучшая точность и согласованность ответов.
gemini-2.0-flash-thinking-exp-1219
40k
8k
Не поддерживается
Диалог, рассуждение, распознавание изображений
Google_gemini
gemini-2.0-flash-thinking-exp-1219 — экспериментальная модель, способная генерировать «процесс размышления» при ответе. Поэтому, по сравнению с базовой Gemini 2.0 Flash, ответы в «режиме мышления» обладают более сильными способностями к рассуждению.
gemini-2.0-pro-exp-01-28
2m
64k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Предзагруженная модель, ещё не запущена
gemini-2.0-pro-exp-02-05
2m
8k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Gemini 2.0 Pro Exp 02-05 — экспериментальная модель Google, выпущенная в феврале 2024 года, выдающаяся в мировых знаниях, генерации кода и понимании длинных текстов. Поддерживает сверхдлинный контекст 2 млн токенов, обрабатывает 2 часа видео, 22 часа аудио, свыше 60 тыс. строк кода и более 1,4 млн слов. Как часть серии Gemini 2.0, использует новую стратегию Flash Thinking, значительно повышая производительность и занимая лидирующие позиции в рейтингах LLM.
gemini-exp-1114
8k
4k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Экспериментальная модель, выпущена 14 ноября 2024 года, с фокусом на улучшение качества.
gemini-exp-1121
8k
4k
Не поддерживается
Диалог, распознавание изображений, код
Google_gemini
Экспериментальная модель, выпущена 21 ноября 2024 года; улучшены кодирование, рассуждение и визуальные возможности.
gemini-exp-1206
8k
4k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Экспериментальная модель, выпущена 6 декабря 2024 года; улучшены кодирование, рассуждение и визуальные возможности.
gemini-exp-latest
8k
4k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Экспериментальная модель, динамически указывает на последнюю версию
gemini-pro
33k
8k
Не поддерживается
Диалог
Google_gemini
То же, что gemini-1.0-pro, псевдоним для gemini-1.0-pro
gemini-pro-vision
16k
2k
Не поддерживается
Диалог, распознавание изображений
Google_gemini
Визуальная версия Gemini 1.0 Pro. Будет выведена из эксплуатации 15 февраля 2025 года; рекомендуется перейти на серию 1.5.
grok-2
128k
-
Не поддерживается
Диалог
Grok_grok
Новая версия модели grok от X.ai, выпущенная 12.12.2024.
grok-2-1212
128k
-
Не поддерживается
Диалог
Grok_grok
Новая версия модели grok от X.ai, выпущенная 12.12.2024.
grok-2-latest
128k
-
Не поддерживается
Диалог
Grok_grok
Новая версия модели grok от X.ai, выпущенная 12.12.2024.
grok-2-vision-1212
32k
-
Не поддерживается
Диалог, распознавание изображений
Grok_grok
Визуальная версия модели grok от X.ai, выпущенная 12.12.2024.
grok-beta
100k
-
Не поддерживается
Диалог
Grok_grok
Сопоставима по производительности с Grok 2, но улучшены эффективность, скорость и функциональность.
grok-vision-beta
8k
-
Не поддерживается
Диалог, распознавание изображений
Grok_grok
Новейшая модель понимания изображений обрабатывает разнообразную визуальную информацию: документы, диаграммы, скриншоты и фотографии.
internlm/internlm2_5-20b-chat
32k
-
Поддерживается
Диалог
internlm
InternLM2.5-20B-Chat — открытая крупномасштабная диалоговая модель на архитектуре InternLM2. С 20 млрд параметров превосходит Llama3 и Gemma2-27B на задачах математического рассуждения. Существенно улучшены вызовы инструментов: умеет собирать информацию со сотен веб-страниц, лучше понимает инструкции, выбирает инструменты и рефлексирует над результатами.
meta-llama/Llama-3.2-11B-Vision-Instruct
8k
-
Не поддерживается
Диалог, распознавание изображений
Meta_llama
Модели серии Llama теперь обрабатывают не только текст, но и изображения. Часть моделей Llama 3.2 получила визуальное понимание: поддерживается одновременный ввод текста и изображений, интерпретация изображения и вывод текста.
meta-llama/Llama-3.2-3B-Instruct
32k
-
Не поддерживается
Диалог
Meta_llama
Многоязычная LLM Meta Llama 3.2; версии 1B и 3B — лёгкие модели для работы на периферийных и мобильных устройствах. Эта модель — версия 3B.
meta-llama/Llama-3.2-90B-Vision-Instruct
8k
-
Не поддерживается
Диалог, распознавание изображений
Meta_llama
Модели серии Llama теперь обрабатывают не только текст, но и изображения. Часть моделей Llama 3.2 получила визуальное понимание: поддерживается одновременный ввод текста и изображений, интерпретация изображения и вывод текста.
meta-llama/Llama-3.3-70B-Instruct
131k
-
Не поддерживается
Диалог
Meta_llama
Последний 70B LLM от Meta, по производительности сравним с llama 3.1 405B.
meta-llama/Meta-Llama-3.1-405B-Instruct
32k
-
Не поддерживается
Диалог
Meta_llama
Семейство многоязычных LLM Meta Llama 3.1 — набор предобученных и дообученных на инструкциях моделей размеров 8B, 70B и 405B; эта модель — 405B. Инструкционные текстовые модели (8B, 70B, 405B) оптимизированы для многоязычных диалогов и превосходят многие открытые и закрытые чат-модели по стандартным бенчмаркам.
meta-llama/Meta-Llama-3.1-70B-Instruct
32k
-
Не поддерживается
Диалог
Meta_llama
Meta Llama 3.1 — многоязычное семейство LLM от Meta с предобученными и инструкционными вариантами на 8B, 70B и 405B параметров. Модель 70B оптимизирована для многоязычных диалогов и показывает отличные результаты в отраслевых бенчмарках. Обучена на более чем 15 трлн токенов открытых данных, использует SFT и RLHF для повышения полезности и безопасности.
meta-llama/Meta-Llama-3.1-8B-Instruct
32k
-
Не поддерживается
Диалог
Meta_llama
Семейство многоязычных LLM Meta Llama 3.1 — набор предобученных и инструкционных генеративных моделей 8B, 70B и 405B; эта модель — 8B. Инструкционные текстовые модели (8B, 70B, 405B) оптимизированы для многоязычных диалогов и превосходят многие открытые и закрытые чат-модели на популярных бенчмарках.
abab5.5-chat
16k
-
Поддерживается
Диалог
Minimax_abab
Диалоги с китайской персоной
abab5.5s-chat
8k
-
Поддерживается
Диалог
Minimax_abab
Диалоги с китайской персоной
abab6.5g-chat
8k
-
Поддерживается
Диалог
Minimax_abab
Диалоги с персоной на английском и других языках
abab6.5s-chat
245k
-
Поддерживается
Диалог
Minimax_abab
Универсальные сценарии
abab6.5t-chat
8k
-
Поддерживается
Диалог
Minimax_abab
Диалоги с китайской персоной
chatgpt-4o-latest
128k
16k
Не поддерживается
Диалог, распознавание изображений
OpenAI
Версия chatgpt-4o-latest постоянно указывает на используемую в ChatGPT версию GPT-4o и обновляется при существенных изменениях как можно быстрее.
gpt-4o-2024-11-20
128k
16k
Поддерживается
Диалог
OpenAI
Последний снимок gpt-4o от 20 ноября 2024 года.
gpt-4o-audio-preview
128k
16k
Не поддерживается
Диалог
OpenAI
Реалтайм-модель голосового диалога от OpenAI
gpt-4o-audio-preview-2024-10-01
128k
16k
Поддерживается
Диалог
OpenAI
Реалтайм-модель голосового диалога от OpenAI
o1
128k
32k
Не поддерживается
Диалог, рассуждение, распознавание изображений
OpenAI
Новая модель рассуждения OpenAI для сложных задач, требующих широких знаний. Обладает контекстом 200k; на данный момент самая сильная в мире; поддерживает распознавание изображений.
o1-mini-2024-09-12
128k
64k
Не поддерживается
Диалог, рассуждение
OpenAI
Фиксированный снимок o1-mini; меньше и быстрее, чем o1-preview, на 80% дешевле; хороша в генерации кода и задачах с малым контекстом.
o1-preview-2024-09-12
128k
32k
Не поддерживается
Диалог, рассуждение
OpenAI
Фиксированный снимок o1-preview
gpt-3.5-turbo
16k
4k
Поддерживается
Диалог
OpenAI_gpt-3
Основана на GPT-3.5: GPT-3.5 Turbo — улучшенная версия GPT-3.5 от OpenAI. Цели производительности: за счёт оптимизации архитектуры и алгоритмов повышены скорость вывода, эффективность обработки и использование ресурсов. Более высокая скорость вывода: по сравнению с GPT-3.5, GPT-3.5 Turbo обычно быстрее при том же «железе», что особенно полезно для крупномасштабной обработки текста. Выше пропускная способность: при большом числе запросов обеспечивает более высокую параллельность, повышая общую пропускную способность системы. Оптимизированное потребление ресурсов: при сохранении производительности может снижать требования к памяти и вычислениям, что уменьшает стоимость и повышает масштабируемость. Широкий спектр NLP-задач: подходит для генерации текста, семантического понимания, диалогов, машинного перевода и др. Инструменты для разработчиков и API: удобные интерфейсы для быстрой интеграции и деплоя.
gpt-3.5-turbo-0125
16k
4k
Поддерживается
Диалог
OpenAI_gpt-3
Обновлённый GPT-3.5 Turbo с более точным соответствием формату запроса и исправлением ошибки кодирования текста при вызове функций на неанглийских языках. Возвращает до 4096 выходных токенов.
gpt-3.5-turbo-0613
16k
4k
Поддерживается
Диалог
OpenAI_gpt-3
Обновлённый фиксированный снимок GPT-3.5 Turbo. В настоящее время снят с эксплуатации.
gpt-3.5-turbo-1106
16k
4k
Поддерживается
Диалог
OpenAI_gpt-3
Улучшенное следование инструкциям, JSON-режим, воспроизводимые выводы, параллельные вызовы функций и др. Возвращает до 4096 выходных токенов.
gpt-3.5-turbo-16k
16k
4k
Поддерживается
Диалог, снято с эксплуатации или скоро будет снято
OpenAI_gpt-3
(Снято с эксплуатации)
gpt-3.5-turbo-16k-0613
16k
4k
Поддерживается
Диалог, снято с эксплуатации или скоро будет снято
OpenAI_gpt-3
Снимок gpt-3.5-turbo от 13 июня 2023 года. (Снято с эксплуатации)
gpt-3.5-turbo-instruct
4k
4k
Поддерживается
Диалог
OpenAI_gpt-3
Сходные возможности с моделями эпохи GPT-3. Совместима с устаревшей конечной точкой Completions, не подходит для Chat Completions.
gpt-3.5o
16k
4k
Не поддерживается
Диалог
OpenAI_gpt-3
То же, что gpt-4o-lite
gpt-4
8k
8k
Поддерживается
Диалог
OpenAI_gpt-4
В настоящее время указывает на gpt-4-0613.
gpt-4-0125-preview
128k
4k
Поддерживается
Диалог
OpenAI_gpt-4
Новейшая модель GPT-4, нацеленная на снижение «ленивых» случаев, когда модель не завершает задачу. Возвращает до 4096 выходных токенов.
gpt-4-0314
8k
8k
Поддерживается
Диалог
OpenAI_gpt-4
Снимок gpt-4 от 14 марта 2023 года
gpt-4-0613
8k
8k
Поддерживается
Диалог
OpenAI_gpt-4
Снимок gpt-4 от 13 июня 2023 года с улучшенной поддержкой вызова функций.
gpt-4-1106-preview
128k
4k
Поддерживается
Диалог
OpenAI_gpt-4
Модель GPT-4 Turbo с улучшенным следованием инструкциям, JSON-режимом, воспроизводимыми выводами, вызовом функций и др. Возвращает до 4096 выходных токенов. Это предпросмотр.
gpt-4-32k
32k
4k
Поддерживается
Диалог
OpenAI_gpt-4
gpt-4-32k будет снят с эксплуатации 2025-06-06.
gpt-4-32k-0613
32k
4k
Поддерживается
Диалог, снято с эксплуатации или скоро будет снято
OpenAI_gpt-4
Будет снят с эксплуатации 2025-06-06.
gpt-4-turbo
128k
4k
Поддерживается
Диалог
OpenAI_gpt-4
Последняя версия GPT-4 Turbo получила визуальные функции, поддерживает обработку визуальных запросов в JSON-режиме и через вызов функций. Текущая версия модели — gpt-4-turbo-2024-04-09.
gpt-4-turbo-2024-04-09
128k
4k
Поддерживается
Диалог
OpenAI_gpt-4
GPT-4 Turbo с визуальными функциями. Теперь визуальные запросы можно обрабатывать через JSON-режим и вызов функций. Текущая версия gpt-4-turbo — именно эта.
gpt-4-turbo-preview
128k
4k
Поддерживается
Диалог, распознавание изображений
OpenAI_gpt-4
В настоящее время указывает на gpt-4-0125-preview.
gpt-4o
128k
16k
Поддерживается
Диалог, распознавание изображений
OpenAI_gpt-4
Флагманская высокоинтеллектуальная модель OpenAI для сложных многошаговых задач. GPT-4o дешевле и быстрее, чем GPT-4 Turbo.
gpt-4o-2024-05-13
128k
4k
Поддерживается
Диалог, распознавание изображений
OpenAI_gpt-4
Оригинальный снимок gpt-4o от 13 мая 2024 года.
gpt-4o-2024-08-06
128k
16k
Поддерживается
Диалог, распознавание изображений
OpenAI_gpt-4
Первый снимок с поддержкой структурированного вывода. В настоящее время gpt-4o указывает на эту версию.
gpt-4o-mini
128k
16k
Поддерживается
Диалог, распознавание изображений
OpenAI_gpt-4
Доступная версия gpt-4o от OpenAI для быстрых и лёгких задач. GPT-4o mini дешевле и мощнее GPT-3.5 Turbo. Сейчас указывает на gpt-4o-mini-2024-07-18.
gpt-4o-mini-2024-07-18
128k
16k
Поддерживается
Диалог, распознавание изображений
OpenAI_gpt-4
Фиксированный снимок gpt-4o-mini.
gpt-4o-realtime-preview
128k
4k
Поддерживается
Диалог, голос в реальном времени
OpenAI_gpt-4
Реалтайм-модель голосового диалога от OpenAI
gpt-4o-realtime-preview-2024-10-01
128k
4k
Поддерживается
Диалог, голос в реальном времени, распознавание изображений
OpenAI_gpt-4
gpt-4o-realtime-preview в настоящее время указывает на этот снимок
o1-mini
128k
64k
Не поддерживается
Диалог, рассуждение
OpenAI_o1
Меньше и быстрее, чем o1-preview, на 80% дешевле; хорош в генерации кода и задачах с малым контекстом.
o1-preview
128k
32k
Не поддерживается
Диалог, рассуждение
OpenAI_o1
o1-preview — новая модель рассуждения для сложных задач, требующих широких знаний. Контекст 128K и отсечка знаний — октябрь 2023. Сфокусирована на продвинутом рассуждении и решении сложных задач (математика и наука). Подходит для приложений, требующих глубокого понимания контекста и автономных рабочих процессов.
o3-mini
200k
100k
Поддерживается
Диалог, рассуждение
OpenAI_o1
o3-mini — новая компактная модель рассуждения OpenAI: при тех же стоимости и задержке, что у o1-mini, обеспечивает высокий интеллект, сфокусирована на науке, математике и коде; поддерживает структурированный вывод, вызовы функций, пакетный API и др.; отсечка знаний — октябрь 2023; демонстрирует хороший баланс рассуждения и экономичности.
o3-mini-2025-01-31
200k
100k
Поддерживается
Диалог, рассуждение
OpenAI_o1
o3-mini сейчас указывает на эту версию. o3-mini-2025-01-31 — новейшая компактная модель рассуждения OpenAI: при тех же стоимости и задержке, что у o1-mini, обеспечивает высокий интеллект; сфокусирована на науке, математике и коде; поддерживает структурированный вывод, вызовы функций, пакетный API и др.; отсечка знаний — октябрь 2023; отличный баланс рассуждения и экономичности.
Baichuan2-Turbo
32k
-
Не поддерживается
Диалог
百川_baichuan
По сравнению с моделями того же размера в отрасли сохраняет лидирующее качество при значительно сниженной цене.
Baichuan3-Turbo
32k
-
Не поддерживается
Диалог
百川_baichuan
По сравнению с моделями того же размера в отрасли сохраняет лидирующее качество при значительно сниженной цене.
Baichuan3-Turbo-128k
128k
-
Не поддерживается
Диалог
百川_baichuan
Модель Baichuan с окном контекста 128k обрабатывает сложные тексты, специально оптимизирована для отраслей, таких как финансы; при сохранении высокой производительности существенно снижает стоимость, предлагая компаниям выгодное решение.
Baichuan4
32k
-
Не поддерживается
Диалог
百川_baichuan
MoE-модель Baichuan благодаря специальным оптимизациям снижает стоимость и повышает производительность, предлагая в корпоративных приложениях эффективное соотношение цена/качество.
Baichuan4-Air
32k
-
Не поддерживается
Диалог
百川_baichuan
MoE-модель Baichuan благодаря специальным оптимизациям снижает стоимость и повышает производительность, предлагая в корпоративных приложениях эффективное соотношение цена/качество.
Baichuan4-Turbo
32k
-
Не поддерживается
Диалог
百川_baichuan
Обучена на массивных высококачественных сценарных данных: пригодность для корпоративных частых сценариев выше Baichuan4 на 10%+, суммаризация лучше на 50%, многоязычность на 31%, генерация контента на 13%. Специальные оптимизации рассуждения: скорость первого токена выше Baichuan4 на 51%, потоковая скорость токенов — на 73%.
ERNIE-3.5-128K
128k
4k
Поддерживается
Диалог
百度_ernie
Флагманская крупномасштабная языковая модель собственной разработки Baidu, покрывает массивные корпуса на китайском и английском, обладает мощными общими способностями; подходит для большинства сценариев: диалоговый QA, генерация, плагины; поддерживает автоматическое подключение к Baidu Search для актуальности ответов.
ERNIE-3.5-8K
8k
1k
Поддерживается
Диалог
百度_ernie
Флагманская крупномасштабная языковая модель собственной разработки Baidu, покрывает массивные корпуса на китайском и английском, обладает мощными общими способностями; подходит для большинства сценариев: диалоговый QA, генерация, плагины; поддерживает автоматическое подключение к Baidu Search для актуальности ответов.
ERNIE-3.5-8K-Preview
8k
1k
Поддерживается
Диалог
百度_ernie
Флагманская крупномасштабная языковая модель собственной разработки Baidu, покрывает массивные корпуса на китайском и английском, обладает мощными общими способностями; подходит для большинства сценариев: диалоговый QA, генерация, плагины; поддерживает автоматическое подключение к Baidu Search для актуальности ответов.
ERNIE-4.0-8K
8k
1k
Поддерживается
Диалог
百度_ernie
Флагманская сверхкрупная языковая модель Baidu. По сравнению с ERNIE 3.5 — всестороннее обновление возможностей; широко применима к сложным задачам в разных областях; поддерживает автоподключение к Baidu Search для актуальности ответов.
ERNIE-4.0-8K-Latest
8k
2k
Поддерживается
Диалог
百度_ernie
По сравнению с ERNIE-4.0-8K версия ERNIE-4.0-8K-Latest значительно улучшена, особенно в ролевом исполнении и следовании инструкциям; по сравнению с ERNIE 3.5 — всестороннее обновление; поддерживает автоподключение к Baidu Search, 5K токенов ввода + 2K вывода. В статье описан способ вызова API ERNIE-4.0-8K-Latest.
ERNIE-4.0-8K-Preview
8k
1k
Поддерживается
Диалог
百度_ernie
Флагманская сверхкрупная языковая модель Baidu. По сравнению с ERNIE 3.5 — всестороннее обновление возможностей; широко применима к сложным задачам в разных областях; поддерживает автоподключение к Baidu Search для актуальности ответов.
ERNIE-4.0-Turbo-128K
128k
4k
Поддерживается
Диалог
百度_ernie
ERNIE 4.0 Turbo — флагманская сверхкрупная языковая модель Baidu с отличными совокупными показателями, подходит для сложных задач в разных областях; поддерживает автоподключение к Baidu Search. По производительности превосходит ERNIE 4.0. Вариант ERNIE-4.0-Turbo-128K лучше обрабатывает длинные документы, чем ERNIE-3.5-128K. В статье описаны API и использование.
ERNIE-4.0-Turbo-8K
8k
2k
Поддерживается
Диалог
百度_ernie
ERNIE 4.0 Turbo — флагманская сверхкрупная языковая модель Baidu с отличными совокупными показателями, подходит для разных сложных задач; поддерживает автоподключение к Baidu Search. По производительности превосходит ERNIE 4.0. ERNIE-4.0-Turbo-8K — один из вариантов. В статье описаны API и использование.
ERNIE-4.0-Turbo-8K-Latest
8k
2k
Поддерживается
Диалог
百度_ernie
ERNIE 4.0 Turbo — флагманская сверхкрупная языковая модель Baidu с отличными совокупными показателями, подходит для разных сложных задач; поддерживает автоподключение к Baidu Search. По производительности превосходит ERNIE 4.0. ERNIE-4.0-Turbo-8K — один из вариантов.
ERNIE-4.0-Turbo-8K-Preview
8k
2k
Поддерживается
Диалог
百度_ernie
ERNIE 4.0 Turbo — флагманская сверхкрупная языковая модель Baidu с отличными совокупными показателями, подходит для разных сложных задач; поддерживает автоподключение к Baidu Search. ERNIE-4.0-Turbo-8K-Preview — один из вариантов модели
ERNIE-Character-8K
8k
1k
Не поддерживается
Диалог
百度_ernie
Вертикальная языковая модель собственной разработки Baidu: подходит для NPC в играх, клиентских диалогов, ролевого общения и пр.; более яркая и последовательная персонализация, лучшее следование инструкциям и улучшенное рассуждение.
ERNIE-Lite-8K
8k
4k
Не поддерживается
Диалог
百度_ernie
Лёгкая языковая модель собственной разработки Baidu, сочетает отличное качество и производительность вывода; подходит для ускорителей с низкой вычислительной мощностью.
ERNIE-Lite-Pro-128K
128k
2k
Поддерживается
Диалог
百度_ernie
Лёгкая языковая модель собственной разработки Baidu, лучше ERNIE Lite; сочетает качество и производительность вывода; подходит для ускорителей с низкой вычислительной мощностью. Поддерживает контекст 128K, лучше, чем ERNIE-Lite-128K.
ERNIE-Novel-8K
8k
2k
Не поддерживается
Диалог
百度_ernie
ERNIE-Novel-8K — универсальная LLM Baidu, с выраженным преимуществом в продолжении романов; также применима к коротким сериалам, кино и т. п.
ERNIE-Speed-128K
128k
4k
Не поддерживается
Диалог
百度_ernie
Новая в 2024 году высокопроизводительная собственная LLM Baidu с отличными общими способностями; подходит как базовая модель для дообучения под конкретные сценарии; при этом обладает превосходной производительностью вывода.
ERNIE-Speed-8K
8k
1k
Не поддерживается
Диалог
百度_ernie
Новая в 2024 году высокопроизводительная собственная LLM Baidu с отличными общими способностями; подходит как базовая модель для дообучения под конкретные сценарии; при этом обладает превосходной производительностью вывода.
ERNIE-Speed-Pro-128K
128k
4k
Не поддерживается
Диалог
百度_ernie
ERNIE Speed Pro — новая (2024) высокопроизводительная собственная LLM Baidu с отличными общими способностями; подходит как базовая модель для точной настройки под конкретные задачи; выдающаяся производительность. Версия от 30 августа 2024 года; поддерживает контекст 128K и превосходит ERNIE-Speed-128K.
ERNIE-Tiny-8K
8k
1k
Не поддерживается
Диалог
百度_ernie
Сверхвысокопроизводительная собственная LLM Baidu с наименьшими затратами на деплой и дообучение в семействе Wenxin.
Doubao-1.5-lite-32k
32k
12k
Поддерживается
Диалог
豆包_doubao
Doubao1.5-lite — один из лидеров среди лёгких языковых моделей: по бенчмаркам MMLU_pro, BBH, MATH, GPQA равен или превосходит GPT-4omini и Claude 3.5 Haiku.
Doubao-1.5-pro-256k
256k
12k
Поддерживается
Диалог
豆包_doubao
Doubao-1.5-Pro-256k — комплексное обновление от Doubao-1.5-Pro. По сравнению с Doubao-pro-256k/241115 общий эффект улучшен на 10%. Длина вывода значительно увеличена, поддерживается максимум 12k токенов.
Doubao-1.5-pro-32k
32k
12k
Поддерживается
Диалог
豆包_doubao
Doubao-1.5-pro — новое основное поколение с всесторонним улучшением; выдающееся в знаниях, коде, рассуждении и др. Лидирует на множестве открытых бенчмарков, особенно в знаниях, коде, рассуждении и китайских тестах; суммарно превосходит GPT4o, Claude 3.5 Sonnet и другие топовые модели.
Doubao-1.5-vision-pro
32k
12k
Не поддерживается
Диалог, распознавание изображений
豆包_doubao
Doubao-1.5-vision-pro — обновлённая мультимодальная модель: поддерживает произвольное разрешение и экстремальные соотношения сторон; улучшены визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям.
Doubao-Embedding
4k
-
Поддерживается
Встраивания
豆包_doubao
Doubao-embedding — семантическая векторная модель от ByteDance для задач векторного поиска; поддерживает китайский и английский; контекст до 4K. Доступные версии: text-240715: максимальная размерность 2560, поддерживает понижение до 512, 1024, 2048. Сильно лучше по Retrieval на китайском/английском, чем text-240515 — рекомендуется. text-240515: максимальная размерность 2048, поддерживает понижение до 512, 1024.
Doubao-Embedding-Large
4k
-
Не поддерживается
Встраивания
豆包_doubao
Результаты Retrieval на китайском и английском заметно лучше, чем у Doubao-embedding/text-240715
Doubao-Embedding-Vision
8k
-
Не поддерживается
Встраивания
豆包_doubao
Doubao-embedding-vision — обновлённая мультимодальная векторная модель для поиска по тексту и изображениям; поддерживает ввод изображений и тексты на китайском/английском; контекст до 8K.
Doubao-lite-128k
128k
4k
Поддерживается
Диалог
豆包_doubao
Doubao-lite обеспечивает экстремальную скорость отклика и лучшую стоимость, предлагая гибкие опции для разных сценариев. Поддерживает вывод и донастройку с окном контекста 128k.
Doubao-lite-32k
32k
4k
Поддерживается
Диалог
豆包_doubao
Doubao-lite обеспечивает экстремальную скорость отклика и лучшую стоимость, предлагая гибкие опции для разных сценариев. Поддерживает 32k окно контекста для вывода и донастройки.
Doubao-lite-4k
4k
4k
Поддерживается
Диалог
豆包_doubao
Doubao-lite обеспечивает экстремальную скорость отклика и лучшую стоимость, предлагая гибкие опции для разных сценариев. Поддерживает 4k окно контекста для вывода и донастройки.
Doubao-pro-128k
128k
4k
Поддерживается
Диалог
豆包_doubao
Лучшая основная модель: подходит для сложных задач; отлична в справочном QA, суммаризации, творчестве, классификации текста, ролевой игре и др. Поддерживает 128k окно контекста для вывода и донастройки.
Doubao-pro-32k
32k
4k
Поддерживается
Диалог
豆包_doubao
Лучшая основная модель: подходит для сложных задач; отлична в справочном QA, суммаризации, творчестве, классификации текста, ролевой игре и др. Поддерживает 32k окно контекста для вывода и донастройки.
Doubao-pro-4k
4k
4k
Поддерживается
Диалог
豆包_doubao
Лучшая основная модель: подходит для сложных задач; отлична в справочном QA, суммаризации, творчестве, классификации текста, ролевой игре и др. Поддерживает 4k окно контекста для вывода и донастройки.
step-1-128k
128k
-
Поддерживается
Диалог
阶跃星辰
Модель step-1-128k — сверхкрупная языковая модель, способная обрабатывать до 128 000 токенов ввода. Это даёт преимущества при генерации длинного контента и сложном рассуждении; подходит для романов, сценариев и других задач с богатым контекстом.
step-1-256k
256k
-
Поддерживается
Диалог
阶跃星辰
Модель step-1-256k — одна из крупнейших LLM, поддерживает 256 000 токенов ввода. Предназначена для экстремально сложных задач, таких как анализ больших данных и многотуровые диалоги, обеспечивает высококачественные результаты в разных областях.
step-1-32k
32k
-
Поддерживается
Диалог
阶跃星辰
Модель step-1-32k расширяет окно контекста до 32 000 токенов. Отлична в обработке длинных текстов и сложных диалогов; подходит для задач глубокого понимания и анализа, например юридических документов и научных исследований.
step-1-8k
8k
-
Поддерживается
Диалог
阶跃星辰
Модель step-1-8k — эффективная LLM для относительно коротких текстов. Рассуждает в контексте 8 000 токенов; подходит для приложений с быстрым откликом, таких как чат-боты и синхронный перевод.
step-1-flash
8k
-
Поддерживается
Диалог
阶跃星辰
Модель step-1-flash ориентирована на быстрый отклик и эффективную обработку для реалтайм-приложений. Обеспечивает качественное понимание и генерацию при ограниченных ресурсах — подходит для мобильных и edge-сценариев.
step-1.5v-mini
32k
-
Поддерживается
Диалог, распознавание изображений
阶跃星辰
Модель step-1.5v-mini — облегчённая версия для работы в условиях ограниченных ресурсов. Несмотря на компактность, сохраняет хорошие языковые способности; подходит для встраиваемых и энергоэффективных устройств.
step-1v-32k
32k
-
Поддерживается
Диалог, распознавание изображений
阶跃星辰
Модель step-1v-32k поддерживает 32 000 токенов ввода, подходит для приложений с длинным контекстом. Отлична в сложных диалогах и длинных текстах; полезна для клиентской поддержки и контент-креатива.
step-1v-8k
8k
-
Поддерживается
Диалог, распознавание изображений
阶跃星辰
Модель step-1v-8k оптимизирована для 8 000 токенов ввода; подходит для быстрой генерации и обработки коротких текстов. Хороший баланс между скоростью и точностью для реалтайм-приложений.
step-2-16k
16k
-
Поддерживается
Диалог
阶跃星辰
Модель step-2-16k — средняя по масштабу LLM, поддерживает 16 000 токенов ввода. Хороша в различных задачах; применима в образовании, обучении и управлении знаниями.
yi-lightning
16k
-
Поддерживается
Диалог
零一万物_yi
Новейшая высокопроизводительная модель: при сохранении высокого качества существенно ускорено рассуждение. Подходит для реального времени и сложного рассуждения; отличное соотношение цена/качество для коммерческих продуктов.
yi-vision-v2
16K
-
Поддерживается
Диалог, распознавание изображений
零一万物_yi
Подходит для анализа и интерпретации изображений и диаграмм: визуальный QA, понимание графиков, OCR, визуальное рассуждение, образование, анализ отчётов или чтение многоязычных документов.
qwen-14b-chat
8k
2k
Поддерживается
Диалог
千问_qwen
Официальная открытая версия Tongyi Qianwen от Alibaba Cloud.
qwen-72b-chat
32k
2k
Поддерживается
Диалог
千问_qwen
Официальная открытая версия Tongyi Qianwen от Alibaba Cloud.
qwen-7b-chat
7.5k
1.5k
Поддерживается
Диалог
千问_qwen
Официальная открытая версия Tongyi Qianwen от Alibaba Cloud.
qwen-coder-plus
128k
8k
Поддерживается
Диалог, код
千问_qwen
Qwen-Coder-Plus — специализированная модель для программирования в серии Qwen, направлена на улучшение генерации и понимания кода. Обучена на масштабных кодовых данных; поддерживает дополнение, поиск ошибок, рефакторинг и др., повышая эффективность разработки.
qwen-coder-plus-latest
128k
8k
Поддерживается
Диалог, код
千问_qwen
Qwen-Coder-Plus-Latest — последняя версия Qwen-Coder-Plus с новыми алгоритмическими улучшениями и обновлёнными датасетами. Существенно повышена точность понимания контекста и релевантность кода; расширена поддержка языков программирования.
qwen-coder-turbo
128k
8k
Поддерживается
Диалог, код
千问_qwen
Кодовые модели серии Tongyi Qianwen, предназначенные для программирования и генерации кода, с высокой скоростью рассуждения и низкой стоимостью. Эта версия всегда указывает на последнюю стабильную версию-снимок.
qwen-coder-turbo-latest
128k
8k
Поддерживается
Диалог, код
千问_qwen
Кодовые модели серии Tongyi Qianwen для программирования и генерации кода, быстрые и дешёвые. Эта версия всегда указывает на новейший снимок.
qwen-long
10m
6k
Поддерживается
Диалог
千问_qwen
Qwen-Long — модель для сверхдлинного контекста в серии Tongyi Qianwen; поддерживает китайский, английский и др.; до 10 млн токенов (≈15 млн иероглифов или 15 тыс. страниц). Совместно со службой документов поддерживает парсинг и диалог для форматов word, pdf, markdown, epub, mobi. Примечание: через HTTP напрямую — до 1M токенов; свыше — рекомендуется отправка файлами.
qwen-math-plus
4k
3k
Поддерживается
Диалог
千问_qwen
Qwen-Math-Plus — модель для решения математических задач: обеспечивает эффективное математическое рассуждение и вычисления, обучена на больших банках задач; покрывает от базовой арифметики до высшей математики. Применения: образование, наука, инженерия.
qwen-math-plus-latest
4k
3k
Поддерживается
Диалог
千问_qwen
Qwen-Math-Plus-Latest — последняя версия Qwen-Math-Plus с новейшими технологиями математического рассуждения и алгоритмическими улучшениями: лучше решает сложные задачи, точнее ответы и ход рассуждений; расширено понимание символов и формул.
qwen-math-turbo
4k
3k
Поддерживается
Диалог
千问_qwen
Qwen-Math-Turbo — высокопроизводительная математическая модель для быстрого вычисления и реалтайм-рассуждения; оптимизирована по скорости, обрабатывает большие объёмы задач с мгновенной отдачей — подходит для онлайн-образования и аналитики.
qwen-math-turbo-latest
4k
3k
Поддерживается
Диалог
千问_qwen
Qwen-Math-Turbo-Latest — последняя версия Qwen-Math-Turbo с ещё большей эффективностью и точностью; алгоритмические оптимизации для более сложных задач при сохранении высокой скорости — подходит для финансового анализа и научных вычислений.
qwen-max
32k
8k
Поддерживается
Диалог
千问_qwen
Серия Tongyi Qianwen 2.5 масштаба сотен миллиардов параметров; поддерживает китайский, английский и др. По мере обновлений qwen-max будет постепенно обновляться.
qwen-max-latest
32k
8k
Поддерживается
Диалог
千问_qwen
Лучшая в серии Tongyi Qianwen модель с динамическими обновлениями без предварительных уведомлений; подходит для сложных многошаговых задач; значительно улучшены двуязычные способности, предпочтения, рассуждение и понимание сложных инструкций; лучше на сложных задачах; существенно улучшены математика и код; лучшее понимание и генерация структурированных данных (Table, JSON).
qwen-plus
128k
8k
Поддерживается
Диалог
千问_qwen
Сбалансированная модель серии Tongyi Qianwen: по скорости и рассуждению между Max и Turbo; подходит для задач средней сложности. Улучшены двуязычные способности, предпочтения, рассуждение и понимание сложных инструкций; лучше на трудных задачах; улучшены математика и код.
qwen-plus-latest
128k
8k
Поддерживается
Диалог
千问_qwen
Qwen-Plus — усиленная визуально-языковая модель серии Tongyi Qianwen, улучшает детальное распознавание и OCR. Поддерживает сверхмегапиксельное разрешение и произвольное соотношение сторон; великолепна в визуально-языковых задачах, подходит для приложений с высоким требованием к точности понимания изображений.
qwen-turbo
128k
8k
Поддерживается
Диалог
千问_qwen
Самая быстрая и недорогая модель серии Tongyi Qianwen для простых задач. Улучшены двуязычные способности, предпочтения, рассуждение и понимание сложных инструкций; лучше на трудных задачах; улучшены математика и код.
qwen-turbo-latest
1m
8k
Поддерживается
Диалог
千问_qwen
Qwen-Turbo — эффективная модель для простых задач, ориентирована на скорость и экономичность. Отлична в базовых визуально-языковых задачах; подходит для приложений с жёсткими требованиями по времени отклика, например реалтайм-распознавание изображений и простые QA.
qwen-vl-max
32k
2k
Поддерживается
Диалог
千问_qwen
Tongyi Qianwen VL-Max (qwen-vl-max) — сверхкрупная визуально-языковая модель. По сравнению с усиленной версией ещё лучше в визуальном рассуждении и следовании инструкциям, обеспечивает более высокий уровень визуального восприятия и когниции; лучшая производительность на сложных задачах.
qwen-vl-max-latest
32k
2k
Поддерживается
Диалог, распознавание изображений
千问_qwen
Qwen-VL-Max — топовая модель серии Qwen-VL для сложных мультимодальных задач. Совмещает передовые визуальные и языковые технологии, понимает и анализирует изображения высокого разрешения, обладает сильным рассуждением; подходит для приложений, требующих глубины понимания и сложного рассуждения.
qwen-vl-ocr
34k
4k
Поддерживается
Диалог, распознавание изображений
千问_qwen
Поддерживает только OCR, без диалога.
qwen-vl-ocr-latest
34k
4k
Поддерживается
Диалог, распознавание изображений
千问_qwen
Поддерживает только OCR, без диалога.
qwen-vl-plus
8k
2k
Поддерживается
Диалог, распознавание изображений
千问_qwen
Tongyi Qianwen VL-Plus (qwen-vl-plus) — усиленная крупная визуально-языковая модель. Существенно улучшены детальное распознавание и OCR; поддерживает сверхмегапиксельное разрешение и произвольные соотношения сторон; выдающаяся производительность в широком спектре визуальных задач.
qwen-vl-plus-latest
32k
2k
Поддерживается
Диалог, распознавание изображений
千问_qwen
Qwen-VL-Plus-Latest — последняя версия Qwen-VL-Plus с усиленными мультимодальными возможностями. Отлична в комбинированной обработке изображений и текста; подходит для приложений с разнородным вводом, как умная поддержка и генерация контента.
Qwen/Qwen2-1.5B-Instruct
32k
6k
Не поддерживается
Диалог
千问_qwen
Qwen2-1.5B-Instruct — инструкционно дообученная LLM серии Qwen2 на 1,5B параметров. Основана на Transformer, использует активацию SwiGLU, смещения QKV внимания и GQA. Отличные результаты в понимании и генерации языка, мультиязычии, кодировании, математике и рассуждении, превосходя большинство открытых моделей.
Qwen/Qwen2-72B-Instruct
128k
6k
Не поддерживается
Диалог
千问_qwen
Qwen2-72B-Instruct — инструкционно дообученная LLM серии Qwen2 на 72B параметров. Основана на Transformer, использует SwiGLU, смещения QKV и GQA. Обрабатывает крупномасштабный ввод; отличные результаты на бенчмарках языка, генерации, мультиязычия, кода, математики и рассуждения, превосходя большинство открытых моделей.
Qwen/Qwen2-7B-Instruct
128k
6k
Не поддерживается
Диалог
千问_qwen
Qwen2-7B-Instruct — инструкционно дообученная LLM серии Qwen2 на 7B параметров. Основана на Transformer, использует SwiGLU, смещения QKV и GQA. Обрабатывает крупный ввод; отличные результаты на языке, генерации, мультиязычии, коде, математике и рассуждении, превосходя большинство открытых моделей.
Qwen/Qwen2-VL-72B-Instruct
32k
2k
Не поддерживается
Диалог
千问_qwen
Qwen2-VL — новейшая итерация модели Qwen-VL с передовыми результатами на визуальных бенчмарках: MathVista, DocVQA, RealWorldQA, MTVQA и др. Понимает видео свыше 20 минут для QA, диалога и контент-креатива; обладает сложным рассуждением и принятием решений; может интегрироваться с мобильными устройствами, роботами и выполнять автооперации по визуальной среде и текстовым инструкциям.
Qwen/Qwen2-VL-7B-Instruct
32k
-
Не поддерживается
Диалог
千问_qwen
Qwen2-VL-7B-Instruct — новейшая итерация Qwen-VL; топовые результаты на визуальных бенчмарках (MathVista, DocVQA, RealWorldQA, MTVQA и др.). Подходит для видео-QA, диалогов и контент-творчества; обладает сложным рассуждением и принятием решений; интегрируется с мобильными устройствами и роботами для автоопераций на основе визуальной среды и текстовых инструкций.
Qwen/Qwen2.5-72B-Instruct
128k
8k
Не поддерживается
Диалог
千问_qwen
Qwen2.5-72B-Instruct — одна из новейших моделей серии от Alibaba Cloud. Модель 72B заметно улучшена в коде и математике; поддерживает ввод до 128K токенов и может генерировать тексты свыше 8K токенов.
Qwen/Qwen2.5-72B-Instruct-128K
128k
8k
Не поддерживается
Диалог
千问_qwen
Qwen2.5-72B-Instruct — одна из новейших моделей серии от Alibaba Cloud. Модель 72B заметно улучшена в коде и математике; поддерживает ввод до 128K токенов и может генерировать тексты свыше 8K токенов.
Qwen/Qwen2.5-7B-Instruct
128k
8k
Не поддерживается
Диалог
千问_qwen
Qwen2.5-7B-Instruct — одна из новейших моделей серии от Alibaba Cloud. Модель 7B значительно улучшена в коде и математике; поддерживает более 29 языков, включая китайский и английский. Сильно улучшены следование инструкциям, понимание структурированных данных и генерация структурированного вывода (особенно JSON).
Qwen/Qwen2.5-Coder-32B-Instruct
128k
8k
Не поддерживается
Диалог, код
千问_qwen
Qwen2.5-32B-Instruct — одна из новейших моделей серии от Alibaba Cloud. Модель 32B существенно улучшена в коде и математике; поддерживает более 29 языков, включая китайский и английский. Сильно улучшены следование инструкциям, понимание структурированных данных и генерация структурированного вывода (особенно JSON).
Qwen/Qwen2.5-Coder-7B-Instruct
128k
8k
Не поддерживается
Диалог
千问_qwen
Qwen2.5-7B-Instruct — одна из новейших моделей серии от Alibaba Cloud. Модель 7B значительно улучшена в коде и математике; поддерживает более 29 языков, включая китайский и английский. Сильно улучшены следование инструкциям, понимание структурированных данных и генерация структурированного вывода (особенно JSON).
Qwen/QwQ-32B-Preview
32k
16k
Не поддерживается
Диалог, рассуждение
千问_qwen
QwQ-32B-Preview — экспериментальная исследовательская модель команды Qwen, нацеленная на усиление рассуждения ИИ. Как превью показывает отличные аналитические способности, но имеет ограничения: 1. Смешение языков и переключение кода: может смешивать языки или непреднамеренно переключаться, ухудшая ясность. 2. Рекурсивные циклы рассуждения: может входить в циклы, выдавая длинные ответы без чётких выводов. 3. Безопасность и этика: требуется усиление мер безопасности; пользователям следует проявлять осторожность. 4. Ограничения производительности и бенчмарков: силён в математике и программировании, но есть пространство для улучшения в здравом смысле и нюансах языка.
qwen1.5-110b-chat
32k
8k
Не поддерживается
Диалог
千问_qwen
-
qwen1.5-14b-chat
8k
2k
Не поддерживается
Диалог
千问_qwen
-
qwen1.5-32b-chat
32k
2k
Не поддерживается
Диалог
千问_qwen
-
qwen1.5-72b-chat
32k
2k
Не поддерживается
Диалог
千问_qwen
-
qwen1.5-7b-chat
8k
2k
Не поддерживается
Диалог
千问_qwen
-
qwen2-57b-a14b-instruct
65k
6k
Не поддерживается
Диалог
千问_qwen
-
Qwen2-72B-Instruct
-
-
Не поддерживается
Диалог
千问_qwen
-
qwen2-7b-instruct
128k
6k
Не поддерживается
Диалог
千问_qwen
-
qwen2-math-72b-instruct
4k
3k
Не поддерживается
Диалог
千问_qwen
-
qwen2-math-7b-instruct
4k
3k
Не поддерживается
Диалог
千问_qwen
-
qwen2.5-14b-instruct
128k
8k
Не поддерживается
Диалог
千问_qwen
-
qwen2.5-32b-instruct
128k
8k
Не поддерживается
Диалог
千问_qwen
-
qwen2.5-72b-instruct
128k
8k
Не поддерживается
Диалог
千问_qwen
-
qwen2.5-7b-instruct
128k
8k
Не поддерживается
Диалог
千问_qwen
-
qwen2.5-coder-14b-instruct
128k
8k
Не поддерживается
Диалог, код
千问_qwen
-
qwen2.5-coder-32b-instruct
128k
8k
Не поддерживается
Диалог, код
千问_qwen
-
qwen2.5-coder-7b-instruct
128k
8k
Не поддерживается
Диалог, код
千问_qwen
-
qwen2.5-math-72b-instruct
4k
3k
Не поддерживается
Диалог
千问_qwen
-
qwen2.5-math-7b-instruct
4k
3k
Не поддерживается
Диалог
千问_qwen
-
deepseek-ai/DeepSeek-R1
64k
-
Не поддерживается
Диалог, рассуждение
深度求索_deepseek
Модель DeepSeek-R1 — открытая модель рассуждения, основанная на чистом RL; выдающаяся в математике, коде и естественно-языковом рассуждении; сопоставима по качеству с OpenAI o1 и показывает отличные результаты на множестве бенчмарков.
deepseek-ai/DeepSeek-V2-Chat
128k
-
Не поддерживается
Диалог
深度求索_deepseek
DeepSeek-V2 — это мощная и экономичная языковая модель со смешанными экспертами (MoE). Она была предварительно обучена на высококачественном корпусе объёмом 81 триллион токенов и дополнительно улучшена с помощью контроля над обучением (SFT) и обучения с подкреплением (RL). По сравнению с DeepSeek 67B, DeepSeek-V2 обеспечивает более высокую производительность при снижении затрат на обучение на 42,5%, уменьшении KV-кэша на 93,3% и увеличении максимальной пропускной способности генерации в 5,76 раза.
deepseek-ai/DeepSeek-V2.5
32k
-
Поддерживается
Диалог
深度求索_deepseek
DeepSeek-V2.5 — это обновлённая версия DeepSeek-V2-Chat и DeepSeek-Coder-V2-Instruct, объединяющая универсальные и программные возможности двух предыдущих версий. Модель оптимизирована по нескольким направлениям, включая навыки письма и следования инструкциям, и лучше согласована с предпочтениями людей.
deepseek-ai/DeepSeek-V3
128k
4k
Не поддерживается
Диалог
深度求索_deepseek
Открытая версия deepseek, по сравнению с официальной версией имеет более длинный контекст, без проблем с отказом из‑за чувствительных слов и т.п.
deepseek-chat
64k
8k
Поддерживается
Диалог
深度求索_deepseek
236B параметров, контекст 64K (API), по совокупной способности на китайском (AlignBench) занимает первое место среди открытых моделей; в тестах находится в одном классе с закрытыми моделями вроде GPT-4-Turbo и Wenxin 4.0.
deepseek-coder
64k
8k
Поддерживается
Диалог, код
深度求索_deepseek
236B параметров, контекст 64K (API), по совокупной способности на китайском (AlignBench) занимает первое место среди открытых моделей; в тестах находится в одном классе с закрытыми моделями вроде GPT-4-Turbo и Wenxin 4.0.
deepseek-reasoner
64k
8k
Поддерживается
Диалог, рассуждение
深度求索_deepseek
DeepSeek-Reasoner (DeepSeek-R1) — это новейшая модель для рассуждений от DeepSeek, разработанная для улучшения способности к выводу с помощью обучения с подкреплением. Процесс рассуждения модели включает большое количество размышлений и проверок, позволяя решать сложные задачи логического вывода; длина цепочки мыслей может достигать десятков тысяч символов. DeepSeek-R1 демонстрирует отличные результаты в математике, кодировании и других сложных задачах, широко применяется в разных сценариях и показывает высокую гибкость и мощность рассуждений. По сравнению с другими моделями DeepSeek-R1 близка по уровню рассуждений к ведущим закрытым моделям, показывая потенциал и конкурентоспособность открытых моделей в области вывода.
hunyuan-code
4k
4k
Не поддерживается
Диалог, код
腾讯_hunyuan
Последняя модель генерации кода Hunyuan, дообученная на базе с 200B высококачественных кодовых данных, затем полгода дообучалась на высококачественных данных SFT. Окно контекста увеличено до 8K; по автоматическим метрикам генерации кода в пяти языках занимает лидирующие позиции; по 10 показателям в пяти языках в высококачественной ручной оценке задач по коду находится в первом эшелоне.
hunyuan-functioncall
28k
4k
Поддерживается
Диалог
腾讯_hunyuan
Последняя MOE-архитектура Hunyuan FunctionCall, обученная на высококачественных данных FunctionCall, с окном контекста до 32K и лидирующими показателями по нескольким метрикам.
hunyuan-large
28k
4k
Не поддерживается
Диалог
腾讯_hunyuan
Модель Hunyuan-large имеет около 389B параметров и примерно 52B активных параметров; это крупнейшая по параметрам и наиболее эффективная открытая MoE‑модель с архитектурой Transformer на текущий момент.
hunyuan-large-longcontext
128k
6k
Не поддерживается
Диалог
腾讯_hunyuan
Специализируется на задачах с длинными текстами, таких как суммаризация и ответы на вопросы по документам, а также способен решать общие задачи генерации текста. Демонстрирует превосходные результаты в анализе и генерации длинных текстов и эффективно справляется с обработкой сложного и детализированного содержимого.
hunyuan-lite
250k
6k
Не поддерживается
Диалог
腾讯_hunyuan
Обновлён до MOE-структуры, окно контекста 256k; опережает многие открытые модели по наборам испытаний в областях NLP, кода, математики и отраслевых задач.
hunyuan-pro
28k
4k
Поддерживается
Диалог
腾讯_hunyuan
MOE‑модель триллионного масштаба с длинным контекстом 32K. Достигает абсолютного лидирующего уровня по различным бенчмаркам, решает сложные инструкции и задачи рассуждений, обладает возможностями для сложной математики, поддерживает functioncall; специально оптимизирована для многоязычного перевода и областей применения в финансах, юриспруденции и медицине.
hunyuan-role
28k
4k
Не поддерживается
Диалог
腾讯_hunyuan
Последняя модель ролевого исполнения Hunyuan — официально донастроенная Hunyuan модель, дообученная на датасете сценариев ролевых игр; обеспечивает лучшие базовые результаты в задачах ролевого исполнения.
hunyuan-standard
30k
2k
Не поддерживается
Диалог
腾讯_hunyuan
Применена более эффективная стратегия маршрутизации, при этом смягчены проблемы балансировки нагрузки и сходимости экспертов. MOE‑32K предоставляет лучшее соотношение цена/качество: при сбалансированной производительности и стоимости обеспечивает обработку длинных текстовых входов.
hunyuan-standard-256K
250k
6k
Не поддерживается
Диалог
腾讯_hunyuan
Применена более эффективная стратегия маршрутизации, при этом смягчены проблемы балансировки нагрузки и сходимости экспертов. Для длинных текстов показатель «поиска иголки в стоге сена» достигает 99,9%. MOE‑256K делает новый прорыв в длине и качестве, значительно расширяя допустимую длину ввода.
hunyuan-translation-lite
4k
4k
Не поддерживается
Диалог
腾讯_hunyuan
Модель перевода Hunyuan поддерживает диалоговый перевод на естественном языке; обеспечивает взаимный перевод между китайским и 14 языками: английским, японским, французским, португальским, испанским, турецким, русским, арабским, корейским, итальянским, немецким, вьетнамским, малайским и индонезийским (всего 15 языков).
hunyuan-turbo
28k
4k
Поддерживается
Диалог
腾讯_hunyuan
Hunyuan-turbo — версия модели по умолчанию, использующая новую MoE‑архитектуру; по сравнению с hunyuan-pro обеспечивает более быструю инференс‑эффективность и лучшую производительность.
hunyuan-turbo-latest
28k
4k
Поддерживается
Диалог
腾讯_hunyuan
Динамически обновляемая версия Hunyuan-turbo — лучшая версия в серии Hunyuan, соответствует версии для конечных пользователей (Tencent Yuanbao).
hunyuan-turbo-vision
8k
2k
Поддерживается
Распознавание изображений, диалог
腾讯_hunyuan
Флагманская мультимодальная визуально‑языковая модель нового поколения Hunyuan, использующая новую MoE‑архитектуру; по способностям распознавания изображений и текста, созданию контента, ответам на вопросы по знаниям и аналитическому рассуждению значительно превосходит предыдущее поколение. Максимальный ввод 6k, максимальный вывод 2k.
hunyuan-vision
8k
2k
Поддерживается
Диалог, распознавание изображений
腾讯_hunyuan
Последняя мультимодальная модель Hunyuan поддерживает ввод «изображение + текст» для генерации текстового содержимого. Базовое распознавание изображений: распознаёт объекты, элементы и сцены на изображении. Создание контента по изображению: даёт обзор изображения, генерирует рекламные тексты, посты для соцсетей, стихотворения и т.п. Многократный диалог по изображению: обеспечивает многократное взаимодействие и ответы по одной картинке. Аналитическое рассуждение по изображению: анализирует логические связи, математические задачи, код и диаграммы на изображении. Вопросы и ответы по знаниям с изображений: отвечает на вопросы о фактах, содержащихся на изображении, например о исторических событиях или постерах фильмов. OCR для изображений: распознаёт текст на фотографиях из реальной жизни и на нерегулярных сценах.
SparkDesk-Lite
4k
-
Не поддерживается
Диалог
星火_SparkDesk
Поддерживает онлайн‑поиск в интернете, отвечает быстро и удобно; подходит для сценариев с низкой вычислительной мощностью инференса и для тонкой настройки моделей под заказ.
SparkDesk-Max
128k
-
Поддерживается
Диалог
星火_SparkDesk
Квантизированная версия на базе последнего движка крупной модели Spark 4.0 Turbo; поддерживает сетевой поиск, погоду, дату и другие встроенные плагины; основные возможности всесторонне улучшены, эффективность в приложениях возрастает; поддерживает роль System и вызовы функций (FunctionCall).
SparkDesk-Max-32k
32k
-
Поддерживается
Диалог
星火_SparkDesk
Более мощный инференс: улучшенное понимание контекста и логическое рассуждение; поддерживает ввод до 32K токенов, подходит для чтения больших документов, приватных вопросов по базе знаний и других длиннотекстовых сценариев.
SparkDesk-Pro
128k
-
Не поддерживается
Диалог
星火_SparkDesk
Специальная оптимизация для математики, кода, медицины, образования и т.п.; поддерживает сетевой поиск, погоду, дату и другие встроенные плагины; покрывает большую часть сценариев вопросов по знаниям, понимания языка и создания текста.
SparkDesk-Pro-128K
128k
-
Не поддерживается
Диалог
星火_SparkDesk
Профессиональная большая языковая модель с сотнями миллиардов параметров, специально оптимизированная для медицины, образования и кода; в поисковых сценариях обладает меньшей задержкой. Подходит для бизнес‑сценариев, где требуются высокая производительность и скорость отклика для работы с текстом и интеллектуальными ответами.
moonshot-v1-128k
128k
4k
Поддерживается
Диалог
月之暗面_moonshot
Модель с длиной контекста 8k, подходит для генерации коротких текстов.
moonshot-v1-32k
32k
4k
Поддерживается
Диалог
月之暗面_moonshot
Модель с длиной контекста 32k, подходит для генерации длинных текстов.
moonshot-v1-8k
8k
4k
Поддерживается
Диалог
月之暗面_moonshot
Модель с длиной контекста 128k, подходит для генерации сверхдлинных текстов.
codegeex-4
128k
4k
Не поддерживается
Диалог, код
智谱_codegeex
Кодовая модель Zhipu: подходит для задач автодополнения кода.
charglm-3
4k
2k
Не поддерживается
Диалог
智谱_glm
Персонифицированная модель (человекообразная модель)
emohaa
8k
4k
Не поддерживается
Диалог
智谱_glm
Психологическая модель: обладает профессиональными консультационными навыками, помогает пользователям понимать эмоции и справляться с эмоциональными проблемами.
glm-3-turbo
128k
4k
Не поддерживается
Диалог
智谱_glm
Будет снята с использования (30 июня 2025 г.)
glm-4
128k
4k
Поддерживается
Диалог
智谱_glm
Старая флагманская версия: выпущена 16 января 2024 г., в настоящее время заменена GLM-4-0520.
glm-4-0520
128k
4k
Поддерживается
Диалог
智谱_glm
Модель высокого интеллекта: подходит для обработки очень сложных и разнообразных задач.
glm-4-air
128k
4k
Поддерживается
Диалог
智谱_glm
Высокая экономичность: модель с наилучшим балансом между способностью к выводу и ценой.
glm-4-airx
8k
4k
Поддерживается
Диалог
智谱_glm
Сверхбыстрый вывод: обладает экстремально высокой скоростью вывода и мощными возможностями рассуждений.
glm-4-flash
128k
4k
Поддерживается
Диалог
智谱_glm
Высокая скорость при низкой стоимости: сверхбыстрый вывод.
glm-4-flashx
128k
4k
Поддерживается
Диалог
智谱_glm
Высокая скорость при низкой стоимости: улучшенная Flash‑версия для сверхбыстрого вывода.
glm-4-long
1m
4k
Поддерживается
Диалог
智谱_glm
Сверхдлинный ввод: разработана для обработки очень длинных текстов и задач с памяттю.
glm-4-plus
128k
4k
Поддерживается
Диалог
智谱_glm
Флагман высокой интеллектуальности: полное улучшение производительности, значительно усилены возможности для длинных текстов и сложных задач.
glm-4v
2k
-
Не поддерживается
Диалог, распознавание изображений
智谱_glm
Понимание изображений: обладает способностями к пониманию и рассуждению по изображениям.
glm-4v-flash
2k
1k
Не поддерживается
Диалог, распознавание изображений
智谱_glm
Бесплатная модель: обладает мощными возможностями понимания изображений.
Последнее обновление
Это было полезно?