仅本页所有页面
由 GitBook 提供支持
1 / 86

Русский

Cherry Studio

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Базовое руководство

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Руководство по базе знаний

Loading...

Loading...

Loading...

Loading...

Продвинутое руководство

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Вклад в проект

Loading...

Loading...

Вопросы и отзывы

Loading...

Loading...

Loading...

Loading...

Контакты

Loading...

Loading...

О проекте

Loading...

Прочее

Loading...

Loading...

Настройки горячих клавиш

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Настройка горячих клавиш

На этом интерфейсе можно включить/отключить и настроить горячие клавиши для определенных функций. Для настройки следуйте указаниям на экране.

Настройка серверов моделей

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Конфигурация сервиса моделей

Искусство рисования

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Рисование

Функция рисования в настоящее время поддерживает рисовальные модели DMXAPI, TokenFlux, AiHubMix и 硅基流动. Вы можете зарегистрировать аккаунт на 硅基流动 и добавить его как поставщика для использования.

При возникновении вопросов о параметрах наведите курсор на значок ? в соответствующей области, чтобы просмотреть описание.

В будущем мы добавим больше поставщиков услуг. Оставайтесь с нами!

OneAPI и форки

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

OneAPI и связанные проекты

# OneAPI и его форки

Настройки

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Настройки

OpenAI

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

# OpenAI

## Получение API-ключа

* На официальной странице [API Key](https://platform.openai.com/api-keys) нажмите <mark style="background-color:green;">`+ Create new secret key`</mark>

<img src="../../.gitbook/assets/file.excalidraw (1).svg" alt="" class="gitbook-drawing">

* Скопируйте сгенерированный ключ и откройте [настройки провайдеров](broken-reference) в CherryStudio
* Найдите провайдера OpenAI и вставьте полученный ключ

<figure><img src="../../.gitbook/assets/image (9).png" alt=""><figcaption></figcaption></figure>

* Нажмите "Управление" или "Добавить" внизу страницы, добавьте поддерживаемые модели и активируйте переключатель провайдера в правом верхнем углу для начала использования.

{% hint style="info" %}
- Прямой доступ к сервисам OpenAI недоступен в регионах Китая (кроме Тайваня). Требуется самостоятельное решение вопроса с прокси;
- Необходим положительный баланс счёта.
{% endhint %}

Персонализация

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Настройки персонализации

Установочное руководство

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Учебное пособие по установке

MCP руководство

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Учебное пособие по MCP

Файлы

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Файлы

На странице файлов отображаются все документы, связанные с диалогами, рисованием, базой знаний и другим содержимым. Здесь можно сосредоточенно управлять и просматривать файлы.

Мини-приложения

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Мини-программы

На странице мини-программ вы можете использовать веб-версии ИИ-сервисов от крупных провайдеров непосредственно в клиенте. В настоящее время кастомное добавление и удаление пока не поддерживается.

Бесплатный интернет-режим

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Бесплатный режим работы в сети

Настройки данных

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Настройка данных

Windows

Windows 版本安装教程

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Windows

Открыть официальный сайт

Внимание: Windows 7 не поддерживает установку Cherry Studio.

Нажмите, чтобы скачать подходящую версию

Открыть официальный сайт

Ожидание завершения загрузки

Браузер Edge загружает файл

Если браузер предупреждает, что файл не является доверенным, выберите "Сохранить"

Выбрать "Сохранить" → Доверять Cherry-Studio

Открыть файл

Список загрузок в Edge

Установка

Интерфейс установки ПО

Google Gemini

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Google Gemini

Получение API-ключа

  • Перед получением API-ключа для Gemini у вас должен быть проект Google Cloud (если он уже есть, этот шаг можно пропустить)

  • Перейдите в Google Cloud, создайте проект, введите название проекта и нажмите "Создать проект"

  • На официальной странице API-ключа нажмите 密钥 创建API密钥 (Создать API-ключ)

  • Скопируйте сгенерированный ключ и откройте настройки провайдеров в CherryStudio

  • Найдите провайдера Gemini и введите полученный ключ

  • Нажмите "Управление" или "Добавить" внизу, подключите поддерживаемые модели и активируйте переключатель провайдера в правом верхнем углу для начала использования.

  • В Китае (кроме Тайваня) сервис Google Gemini недоступен напрямую — требуется самостоятельно решить вопрос с прокси;

Данные базы знаний

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Описание хранения данных

Все данные, добавленные в базу знаний Cherry Studio, хранятся локально. В процессе добавления создается копия документа в каталоге хранения данных Cherry Studio.

Схема обработки базы знаний

Векторная база данных: https://turso.tech/libsql

После добавления документа в базу знаний Cherry Studio файл разбивается на несколько фрагментов, которые затем обрабатываются моделью эмбеддинга.

При использовании большой модели для ответов на вопросы система запрашивает связанные с вопросом текстовые фрагменты и передает их языковой модели для обработки.

Если есть требования к конфиденциальности данных, рекомендуется использовать локальную базу данных эмбеддингов и локальную большую языковую модель.

Alibaba Cloud Bailian

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Alibaba Cloud Bailian

  1. Войдите в . Если у вас нет учётной записи Alibaba Cloud, необходимо зарегистрироваться.

  2. Нажмите кнопку 创建我的 API-KEY в правом верхнем углу.

  1. В открывшемся окне выберите пространство по умолчанию (или создайте своё), при необходимости заполните описание.

  1. Нажмите кнопку 确定 в правом нижнем углу.

  2. В списке появится новая запись, нажмите кнопку 查看 справа.

  3. Нажмите кнопку 复制.

  4. Перейдите в Cherry Studio, в разделе 设置 → 模型服务 → 阿里云百炼 найдите поле API 密钥, вставьте скопированный ключ.

  5. Настройте параметры согласно инструкции в разделе , после чего сервис будет готов к использованию.

Если в списке моделей отсутствуют модели Alibaba Cloud Bailian, убедитесь, что вы добавили модели согласно инструкции в разделе и включили этого провайдера.

GitHub Copilot

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

GitHub Copilot

Для использования GitHub Copilot необходимо иметь учётную запись GitHub и подписку на сервис GitHub Copilot. Подойдёт и бесплатная версия подписки (free), однако она не поддерживает новейшую модель Claude 3.7. Подробности смотрите на .

Получение Device Code

Нажмите «Войти в GitHub», чтобы получить Device Code и скопируйте его.

Ввод Device Code и авторизация в браузере

После успешного получения Device Code перейдите по ссылке в браузере, войдите в учётную запись GitHub, введите Device Code и подтвердите доступ.

После успешной авторизации вернитесь в Cherry Studio, нажмите «Подключить GitHub». При успешном подключении отобразятся имя пользователя и аватар GitHub.

Получение списка моделей через кнопку «Управление»

Нажмите кнопку «Управление» внизу экрана — автоматически загрузится список поддерживаемых моделей.

Часто задаваемые вопросы

Не удалось получить Device Code, повторите попытку

В настоящее время для отправки запросов используется Axios, который не поддерживает socks-прокси. Рекомендуем использовать системный прокси или HTTP-прокси. Либо отключите настройки прокси в Cherry Studio и используйте глобальный прокси. Убедитесь, что ваше сетевое соединение стабильно, чтобы избежать ошибок при получении Device Code.

OneAPI

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

OneAPI

  • Войдите и перейдите на страницу токенов

  • Создайте новый токен (также можно использовать токен default↑)

  • Скопируйте токен

  • Откройте настройки поставщиков CherryStudio, в конце списка поставщиков нажмите Добавить

  • Введите имя для заметки, выберите поставщика OpenAI, нажмите OK

  • Вставьте скопированный ключ

  • Вернитесь на страницу получения API Key, скопируйте базовый адрес из адресной строки браузера, например:

  • Для адресов типа IP+порт укажите http://IP:порт, например: http://127.0.0.1:3000

  • Четко различайте http и https - если SSL не активирован, не используйте https

  • Добавьте модели (нажмите "Управление" для автоимпорта или введите вручную), активируйте переключатель в правом верхнем углу для использования.

Интерфейс в других темах OneAPI может отличаться, но порядок добавления идентичен вышеописанному.

NewAPI

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

NewAPI

  • Войдите и откройте страницу токенов

  • Нажмите "Добавить токен"

  • Введите имя токена и нажмите "Отправить" (при необходимости настройте другие параметры)

  • Откройте настройки поставщиков CherryStudio и нажмите Добавить внизу списка поставщиков

  • Введите название, выберите провайдера "OpenAI", нажмите "ОК"

  • Вставьте скопированный ключ

  • Вернитесь на страницу получения API-ключа и скопируйте базовый адрес из адресной строки браузера, например:

  • Для адресов вида IP+порт используйте http://IP:порт (например: http://127.0.0.1:3000)

  • Четко различайте http и https — если SSL не активирован, не используйте https

  • Добавьте модели (нажмите "Управление" для автоимпорта или введите вручную), активируйте переключатель в правом верхнем углу для использования.

Настройки моделей по умолчанию

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Настройки моделей по умолчанию

Модель ассистента по умолчанию

Когда для ассистента не задана модель по умолчанию, в новых диалогах по умолчанию будет использоваться модель, настроенная здесь.

Эта же модель используется для оптимизации подсказок и функций помощника при выделении текста.

Модель наименования тем

После каждого диалога вызывается модель для генерации названия темы. Здесь задается модель, используемая для наименования.

Модель перевода

Модель перевода, используемая для функции перевода в диалогах, полях ввода рисования и интерфейсе перевода, задается здесь.

Модель быстрого ассистента

Модель, используемая для функций быстрого помощника. Подробнее см. в разделе

Чёрный список веб-поиска

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Конфигурация чёрного списка для веб-поиска

Cherry Studio поддерживает настройку чёрного списка двумя способами: вручную и через добавление источников подписок. Правила настройки можно найти в .

Ручная настройка

Вы можете добавлять правила для результатов поиска или щёлкать по иконке на панели инструментов, чтобы блокировать определённые сайты. Правила можно указывать с помощью (например: *://*.example.com/*) или с использованием (например: /example\\.(net|org)/).

Настройка через источники подписок

Вы также можете подписываться на публичные наборы правил. Некоторые подписки перечислены на сайте: https://iorate.github.io/ublacklist/subscriptions

Ниже приведены некоторые рекомендуемые источники подписок:

Название
Ссылка
Тип

Vertex AI

暂时不支持Claude模型

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Vertex AI

Обзор учебного руководства

1. Получение API-ключа

  • Перед получением API-ключа для Gemini необходимо иметь проект Google Cloud (если уже имеется, этот шаг можно пропустить)

  • Перейдите в для создания проекта: укажите название проекта и нажмите "Создать проект"

  • Откройте

  • В созданном проекте активируйте

2. Настройка прав доступа API

  • Откройте интерфейс управления и создайте сервисный аккаунт

  • На странице управления сервисными аккаунтами найдите созданный аккаунт, нажмите Ключи и создайте новый ключ в формате JSON

  • После создания ключ автоматически сохранится на компьютер в виде JSON-файла — обязательно сохраните его

3. Настройка Vertex AI в Cherry Studio

  • Выберите провайдера Vertex AI

  • Заполните соответствующие поля данными из JSON-файла

Нажмите "Добавить ", чтобы начать использование!

FAQ

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Часто задаваемые вопросы

1. mcp-server-time

Решение

В разделе "Параметры" укажите:

Интеллектуальные агенты

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Агенты

Страница агентов является площадкой для ассистентов, где вы можете выбрать или найти нужный предустановленный модель. При нажатии на карточку ассистент добавляется в список помощников на странице диалога.

Вы также можете редактировать и создавать собственных помощников на этой странице.

  • Нажмите 我的, затем 创建智能体, чтобы начать создание своего помощника.

Кнопка в правом верхнем углу поля ввода промптов – это кнопка оптимизации промптов с помощью ИИ. При нажатии она перезапишет исходный текст. Используемая модель – .

Быстрый помощник
глобальная модель ассистента по умолчанию
Alibaba Cloud Bailian
Модельные сервисы
Модельные сервисы
Создание API-ключа в Alibaba Cloud Bailian
Окно создания API-ключа в Alibaba Cloud Bailian
Просмотр API-ключа в Alibaba Cloud Bailian
Копирование API-ключа в Alibaba Cloud Bailian
Добавление API-ключа в Cherry Studio
официальном сайте GitHub Copilot
Пример получения Device Code
Получение Device Code
Пример авторизации GitHub
Авторизация GitHub
Пример успешного подключения GitHub
Успешное подключение GitHub
Пример получения списка моделей
Получение списка моделей
Пример ошибки получения Device Code
Ошибка получения Device Code
Копируйте только https://xxx.xxx.com, содержимое после "/" не требуется
Скопируйте только https://xxx.xxx.com — часть после "/" не нужна

uBlacklist subscription compilation

https://git.io/ublacklist

Китайский

uBlockOrigin-HUGE-AI-Blocklist

https://raw.githubusercontent.com/laylavish/uBlockOrigin-HUGE-AI-Blocklist/main/list_uBlacklist.txt

Генерируемый ИИ

ublacklist
шаблонов соответствия
регулярных выражений
Настройка источников подписок
Google Cloud
консоль Vertex AI
Vertex AI API
сервисными аккаунтами
модель
mcp-server-time
--local-timezone
<ваш стандартный часовой пояс, например: Asia/Shanghai>
Скриншот ошибки

Настройки данных

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

В этом интерфейсе можно выполнять резервное копирование и восстановление данных локально и в облаке, просматривать локальный каталог данных и очищать кеш, настраивать экспорт, а также подключаться к сторонним приложениям.

Резервное копирование данных

В настоящее время резервное копирование данных поддерживает три способа: локальное резервное копирование, резервное копирование через WebDAV и резервное копирование в хранилище, совместимое с S3 (объектное хранилище). Подробные инструкции и руководства см. в следующих документах:

  • Руководство по резервному копированию WebDAV

  • Резервное копирование в хранилище, совместимое с S3

Настройки экспорта

В настройках экспорта можно настроить параметры экспорта, отображаемые в меню экспорта, а также установить путь по умолчанию для экспорта в Markdown, стиль отображения и т.д.

Подключение сторонних приложений

Подключение сторонних приложений позволяет настроить соединение Cherry Studio со сторонними приложениями для быстрого экспорта содержимого диалогов в знакомые вам приложения для управления знаниями. В настоящее время поддерживаются следующие приложения: Notion, Obsidian, SiYuan Notes, YuQue, Joplin. Подробные инструкции по настройке см. в следующих документах:

  • Руководство по настройке Notion

  • Руководство по настройке Obsidian

  • Руководство по настройке SiYuan Notes

Конфигурация в памяти

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Встроенные конфигурации MCP

@cherry/mcp-auto-install

Автоматическая установка службы MCP (бета-версия)

@cherry/memory

Базовая реализация постоянной памяти на основе локальной графовой базы знаний. Это позволяет модели запоминать информацию о пользователе между разными диалогами.

MEMORY_FILE_PATH=/path/to/your/file.json

@cherry/sequentialthinking

Реализация MCP-сервера, предоставляющая инструменты для динамического решения задач через структурированный мыслительный процесс с возможностью рефлексии.

@cherry/brave-search

Реализация MCP-сервера с интеграцией API Brave Search, поддерживающая как веб-поиск, так и локальный поиск.

BRAVE_API_KEY=YOUR_API_KEY

@cherry/fetch

MCP-сервер для извлечения содержимого веб-страниц по URL.

@cherry/filesystem

Node.js сервер, реализующий протокол Model Context Protocol (MCP) для операций файловой системы.

Помощь в разработке

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Вклад в код

Мы приветствуем вклад в Cherry Studio! Вы можете участвовать следующими способами:

1. Разработка кода: Создание новых функций или оптимизация существующего кода. 2. Исправление ошибок: Отправка исправлений для найденных вами багов. 3. Поддержка вопросов: Помощь в управлении GitHub Issues. 4. Дизайн продукта: Участие в дискуссиях о дизайне. 5. Написание документации: Улучшение пользовательских руководств и инструкций. 6. Участие в сообществе: Присоединение к обсуждениям и помощь пользователям. 7. Продвижение: Распространение информации о Cherry Studio.

Способы участия

Отправьте письмо по адресу [email protected]

Тема письма: Заявка на участие в качестве разработчика Содержание письма: Обоснование заявки

Помощь с документацией

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Вклад в документацию

Свяжитесь по электронной почте [email protected], чтобы получить права редактора.

Заголовок: Запрос прав редактора для Cherry Studio Docs

Текст письма: Укажите причину запроса

Предобработка документов

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Для предварительной обработки документов базы знаний необходимо обновить Cherry Studio до версии v1.4.8 или выше.

Настройка провайдера OCR-услуг

После нажатия «Получить API KEY» в браузере откроется страница запроса. Нажмите «Немедленно подать заявку», заполните форму, получите API KEY и введите его в соответствующее поле.

Настройка предварительной обработки документов базы знаний

Выполните указанные выше настройки в созданной базе знаний, чтобы завершить конфигурацию предварительной обработки документов.

Загрузка документов

Результаты работы базы знаний можно проверить через поиск в правом верхнем углу

Использование в диалогах

Советы по использованию базы знаний: При работе с моделью с более высокой производительностью измените режим поиска в базе знаний на распознавание намерений для более точных и широких формулировок запросов.

Активация распознавания намерений в базе знаний

Настройка SiYuan Notes

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Учебное пособие по настройке Siyuan Notes

Поддерживается экспорт тем и сообщений в Siyuan Notes.

Шаг 1

Откройте Siyuan Notes и создайте блокнот

Нажмите "Создать блокнот"

Шаг 2

Откройте настройки блокнота и скопируйте ID блокнота

Откройте настройки блокнота
Нажмите кнопку копирования ID блокнота

Шаг 3

Вставьте скопированный ID блокнота в настройки Cherry Studio

Введите ID блокнота в разделе настроек данных

Шаг 4

Укажите адрес вашего Siyuan Notes

  • Локальный Обычно: http://127.0.0.1:6806

  • Собственное развертывание Ваш домен: http://note.domain.com

Введите адрес вашего Siyuan Notes

Шаг 5

Скопируйте API Token из Siyuan Notes

Скопируйте токен Siyuan Notes

Вставьте его в настройки Cherry Studio и проверьте подключение

Введите ID базы данных и нажмите "Проверить"

Шаг 6

Поздравляем! Настройка Siyuan Notes завершена ✅ Теперь вы можете экспортировать содержимое Cherry Studio в ваши Siyuan Notes

Экспортировать в Siyuan Notes
Просмотреть результаты экспорта

macOS

macOS 版本安装教程

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

macOS

  1. Перейдите на официальную страницу загрузки и нажмите "Загрузить для Mac", либо воспользуйтесь прямой ссылкой ниже

Обратите внимание, что нужно скачать версию чипа, соответствующую вашему Mac

Если вы не знаете, какую версию чипа следует выбрать для вашего Mac:

  • Нажмите на меню  в левом верхнем углу Mac

  • В раскрывающемся меню выберите "Об этом Mac"

  • В появившемся окне проверьте информацию о процессоре

Если указан процессор Intel, скачайте установочный пакет для Intel

Если указан процессор Apple M*, скачайте установочный пакет для чипов Apple

  1. После завершения загрузки нажмите здесь

  1. Перетащите значок для установки

Найдите значок Cherry Studio в Launchpad и нажмите на него. Если откроется главный интерфейс Cherry Studio, значит установка прошла успешно.

База знаний Dify

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Настройка базы знаний Dify

Для работы с базой знаний Dify MCP требуется обновить Cherry Studio до версии v1.2.9 или выше.

Добавление сервера базы знаний Dify MCP

  1. Откройте функцию Поиск MCP.

  2. Добавьте сервер dify-knowledge.

Настройка базы знаний Dify

Требуется настройка параметров и переменных окружения

  1. Ключ базы знаний Dify можно получить следующим способом

Использование базы знаний Dify MCP

Введение в проект

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Следите за нашими социальными аккаунтами: , , , ,

Присоединяйтесь к нашим сообществам: , , ,


Cherry Studio — универсальная платформа-ассистент на основе ИИ, объединяющая многомодельные диалоги, управление базами знаний, ИИ-рисование, перевод и другие функции. Высоко настраиваемый дизайн Cherry Studio, мощные возможности расширения и удобный интерфейс делают его идеальным выбором для профессиональных пользователей и энтузиастов ИИ. Независимо от того, являетесь ли вы новичком или разработчиком, вы найдете подходящие ИИ-функции в Cherry Studio для повышения эффективности работы и творческого потенциала.


Основные функции и особенности

1. Базовые функции диалога

  • Один вопрос — несколько ответов: Поддержка генерации ответов от нескольких моделей одновременно для сравнения их работы. Подробнее в разделе .

  • Автоматическая группировка: Записи диалогов каждого помощника автоматически группируются для удобства поиска.

  • Экспорт диалогов: Экспорт полных или частичных диалогов в различные форматы (Markdown, Word и другие).

  • Расширенные настройки параметров: Поддержка пользовательских параметров для персонализации.

  • Магазин ассистентов: Тысячи специализированных помощников для перевода, программирования, написания текстов и других областей.

  • Разноформатная визуализация: Поддержка рендеринга Markdown, математических формул и предварительного просмотра HTML в реальном времени.

2. Интеграция уникальных функций

  • ИИ-рисование: Специальная панель для генерации изображений по текстовому описанию.

  • ИИ-миниприложения: Бесплатные онлайн-инструменты ИИ без необходимости переключения браузера.

  • Функции перевода: Специализированные решения для панели перевода, диалогового перевода и перевода промптов.

  • Управление файлами: Централизованная классификация файлов диалогов, рисунков и баз знаний.

  • Глобальный поиск: Быстрый поиск по истории и базам знаний.

3. Унифицированное управление провайдерами

  • Агрегация моделей: Поддержка моделей от OpenAI, Gemini, Anthropic, Azure и других основных провайдеров.

  • Автоматическое получение моделей: Полный список моделей без ручной настройки.

  • Ротация ключей: Использование нескольких API-ключей для обхода ограничений скорости.

  • Персонализация аватаров: Автоматически подобранные аватары для каждой модели.

  • Кастомные провайдеры: Поддержка сторонних провайдеров, совместимых с OpenAI, Gemini и Anthropic.

4. Гибкая настройка интерфейса

  • Кастомизация CSS: Глобальная настройка стилей интерфейса.

  • Адаптируемая структура диалогов: Виды списка/пузырьков с возможностью изменения стиля сообщений.

  • Пользовательские аватары: Установка аватаров для ПО и помощников.

  • Настройка бокового меню: Скрытие и упорядочивание функций по необходимости.

5. Локальная система баз знаний

  • Множество форматов: Поддержка PDF, DOCX, PPTX, XLSX, TXT, MD и других файлов.

  • Разнообразные источники данных: Локальные файлы, веб-ссылки, карты сайта и ручной ввод.

  • Экспорт знаний: Возможность экспортировать обработанные базы знаний.

  • Поиск и проверка: Тестирование обработки документов в реальном времени.

6. Особые функции фокусировки

  • Быстрые ответы: Быстрые решения вопросов в любом контексте (браузер, WeChat и т.д.).

  • Экспресс-перевод: Быстрый перевод слов или текста в других приложениях.

  • Суммаризация: Краткое содержание длинных текстов.

  • Объяснение: Простое объяснение сложных вопросов без использования промптов.

7. Защита данных

  • Стратегии бэкапов: Локальное резервное копирование, WebDAV и запланированные бэкапы.

  • Безопасность данных: Полностью локальное использование с местными LLM для предотвращения утечек.


Преимущества проекта

  1. Простота использования: Низкий порог входа для новичков.

  2. Полная документация: Подробные руководства и справочники по часто задаваемым вопросам.

  3. Постоянное развитие: Активная доработка функционала на основе обратной связи.

  4. Открытый код и расширяемость: Возможность кастомизации через исходный код.


Области применения

  • Управление знаниями: Быстрое создание и поиск в специализированных базах знаний.

  • Многомодельные диалоги и генерация контента: Одновременная работа с несколькими моделями.

  • Перевод и автоматизация: Решения для языковых коммуникаций и обработки документов.

  • ИИ-рисование и дизайн: Генерация изображений по текстовым описаниям.

Star History

Следите за нашими социальными аккаунтами

Добавление сервера ModelScope MCP

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Добавление сервера ModelScope MCP

Для работы с серверами ModelScope MCP требуется обновить Cherry Studio до версии v1.2.9 или выше.

В версии v1.2.9 Cherry Studio официально интегрирована с ModelScope MCP (魔搭), что значительно упрощает добавление серверов MCP, исключает ошибки конфигурации и предоставляет доступ к огромному количеству MCP-серверов в сообществе ModelScope. Давайте рассмотрим пошаговый процесс синхронизации MCP-серверов ModelScope в Cherry Studio.

Шаги выполнения

Точка синхронизации:

В настройках MCP-серверов выберите Синхронизировать серверы

Обнаружение MCP-сервисов:

Выберите ModelScope и просмотрите доступные MCP-сервисы

Просмотр деталей MCP-сервера

Зарегистрируйтесь/войдите в ModelScope и изучите детали MCP-сервиса;

Подключение к серверу

В деталях MCP-сервиса выберите подключение;

Получение и вставка API-токена

Нажмите Получить API токен в Cherry Studio, перейдите на сайт ModelScope, скопируйте API-токен и вставьте его обратно в Cherry Studio.

Успешная синхронизация

В списке MCP-серверов Cherry Studio вы увидите подключённые сервисы ModelScope и сможете использовать их в диалогах.

Инкрементное обновление

Для подключения новых MCP-серверов с сайта ModelScope просто нажмите Синхронизировать серверы для их добавления.

Вы освоили простую синхронизацию MCP-серверов ModelScope в Cherry Studio. Этот процесс устраняет сложности ручной настройки и предоставляет доступ к огромным ресурсам сообщества ModelScope.

Начните использовать эти мощные MCP-сервисы для расширения возможностей работы с Cherry Studio!

Настройки сервера моделей

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Настройки поставщиков

На этой странице представлен обзор функций интерфейса. Руководство по настройке можно найти в разделе базового учебника.

  • При использовании встроенных поставщиков достаточно просто указать соответствующий секретный ключ.

  • Разные поставщики могут использовать различные термины для секретного ключа: ключ, API-ключ, токен и т.д. — все они обозначают одно и то же.

API Секретный ключ

В Cherry Studio один поставщик поддерживает циклическое использование нескольких ключей. Ротация происходит последовательно по списку слева направо.

  • Добавляйте несколько ключей через запятую на английском языке. Пример:

Обязательно используйте запятую на английском языке.

API Адрес

При работе со встроенными поставщиками обычно не требуется указывать API-адрес. Если необходима корректировка, строго следуйте официальной документации.

Если поставщик предоставляет адрес вида https://xxx.xxx.com/v1/chat/completions, укажите только базовый адрес (https://xxx.xxx.com).

Cherry Studio автоматически добавит конечный путь (/v1/chat/completions). Неправильное заполнение может привести к неработоспособности.

Примечание: Большинство поставщиков используют стандартную структуру API-путей, поэтому обычно не требуется дополнительных действий. При нестандартных путях:

  • При завершении адреса / добавляется только "chat/completions"

  • При завершении # адрес используется без изменений

Добавление моделей

Нажмите кнопку Управление в нижнем левом углу страницы настроек поставщика. В открывшемся списке поддерживаемых моделей нажмите + для добавления в список доступных моделей.

Нажатие кнопки Управление автоматически не добавляет все модели. Для появления в списке выбора необходимо добавить конкретные модели через +.

Проверка подключения

Нажмите кнопку проверки рядом с полем ввода API-ключа для тестирования конфигурации.

Тестирование использует последнюю добавленную диалоговую модель из списка. При ошибках проверьте наличие неподдерживаемых моделей.

После успешной настройки обязательно активируйте переключатель в правом верхнем углу. Иначе провайдер останется неактивным, а его модели недоступными.

Настройка и использование MCP

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Настройка и использование MCP

  1. Откройте настройки Cherry Studio.

  2. Найдите опцию MCP 服务器.

  3. Нажмите 添加服务器.

  4. Заполните параметры MCP Server (). Возможные поля для заполнения:

    • Имя: произвольное имя, например fetch-server

    • Тип: выберите STDIO

    • Команда: введите uvx

    • Параметры: введите mcp-server-fetch

    • (могут быть другие параметры в зависимости от сервера)

  5. Нажмите 保存.

После настройки Cherry Studio автоматически скачает необходимый MCP Server - fetch server. После завершения загрузки можно начать использование! Примечание: при неудачной настройке mcp-server-fetch попробуйте перезагрузить компьютер.

Активация службы MCP в чате

  • Убедитесь, что сервер MCP успешно добавлен в настройках MCP 服务器

Демонстрация работы

Как показано выше, благодаря функции fetch MCP, Cherry Studio лучше понимает запросы пользователей, находит релевантную информацию в сети и предоставляет более точные и полные ответы.

Сброс CSS

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Очистка настроек CSS

Этот метод очистки настроек CSS следует использовать при установке некорректного CSS или если после настройки CSS невозможно войти в интерфейс настроек.

  • Откройте консоль разработчика: в окне CherryStudio нажмите комбинацию клавиш Ctrl+Shift+I (для MacOS: command+option+I).

  • В открывшейся консоли перейдите на вкладку Console (Консоль).

  • Вручную введите команду document.getElementById('user-defined-custom-css').remove() - копирование и вставка скорее всего не сработают.

  • После ввода нажмите Enter для выполнения команды. Это очистит настройки CSS, после чего вы сможете снова войти в настройки отображения CherryStudio и удалить проблемный CSS-код.

Как грамотно задавать вопросы

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Эффективные методы задавания вопросов

Cherry Studio — это бесплатный проект с открытым исходным кодом. По мере роста проекта увеличивается и рабочая нагрузка команды. Чтобы снизить коммуникационные издержки и эффективно решать ваши вопросы, мы просим перед обращением соблюдать следующие шаги — это позволит команде больше времени уделять поддержке и разработке проекта. Благодарим за понимание!

1. Поиск в документации

Большинство базовых вопросов можно решить, внимательно изучив документацию:

  • Функционал ПО и вопросы использования описаны в документации ;

  • Частые вопросы собраны на странице — проверьте наличие решения там;

  • Сложные проблемы можно решить через поиск или задав вопрос в поисковой строке;

  • Обязательно читайте подсказки во всех документах — это поможет избежать многих проблем;

  • Проверяйте наличие схожих вопросов и решений на странице в GitHub.

2. Поиск в сети и обращение к ИИ

Вопросы, не связанные с функциями клиента (ошибки моделей, некорректные ответы, настройки параметров и т.д.) рекомендуется сначала искать в интернете или описывать проблему ИИ для поиска решений.

3. Обращение в официальные сообщества или создание Issue на GitHub

Если первые два шага не помогли, обратитесь в , или QQ-группу. Подробно опишите проблему.

  1. Для ошибок модели приложите полный скриншот интерфейса и сообщения об ошибке из консоли. Конфиденциальные данные можно замаскировать, но название модели, параметры и текст ошибки должны быть видны. Метод просмотра ошибок консоли: .

  2. При ошибках ПО укажите конкретное описание и подробные . Если ошибка случайна — максимально детально опишите контекст, настройки и условия возникновения. Также укажите платформу (Windows, Mac, Linux) и версию ПО.

Запрос документации или предложения Свяжитесь с @Wangmouuu в Telegram, QQ (1355873789) или напишите на почту: [email protected].

SiliconCloud

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Silicon Flow

1. Настройка модельного сервиса SiliconCloud

1.2 Нажмите настройки в левом нижнем углу и выберите【Silicon Flow】в разделе модельных сервисов

1.2 Перейдите по ссылке для получения API-ключа SiliconCloud

  1. Войдите в (при первом входе система автоматически зарегистрирует аккаунт)

  2. Перейдите в раздел , чтобы создать новый или скопировать существующий ключ

1.3 Нажмите "Управление" для добавления моделей

2. Использование модельного сервиса

  1. Нажмите кнопку "Диалог" в левом меню

  2. Введите текст в поле ввода, чтобы начать чат

  3. Модель можно сменить, выбрав её название в верхнем меню

Коммерческое сотрудничество

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Бизнес-сотрудничество

Контакты: г-н Ван 📮: [email protected] 📱: 18954281942 (не служба поддержки)

По вопросам использования:

  1. Присоединяйтесь к пользовательскому чату через кнопку в подвале главной страницы

  2. Пишите на [email protected]

  3. Создавайте issues:

Для получения экспертной поддержки присоединяйтесь к нашему

Детали коммерческой лицензии:

Обзор функций
Часто задаваемые вопросы
Issue
tg-канал
Discord-канал
нажмите здесь
ссылка для справки
Пример кнопки MCP в поле ввода
Пример настройки сервера MCP
https://github.com/CherryHQ/cherry-studio/issues
Knowledge Planet
https://docs.cherry-ai.com/contact-us/questions/cherrystudio-xu-ke-xie-yi
sk-xxxx1,sk-xxxx2,sk-xxxx3,sk-xxxx4
Настройка поставщиков

Резервное копирование S3

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Резервное копирование данных Cherry Studio поддерживается через S3-совместимое хранилище (объектное хранилище). Распространённые S3-совместимые сервисы: AWS S3, Cloudflare R2, Alibaba Cloud OSS, Tencent Cloud COS и MinIO.

На основе S3-совместимого хранилища можно реализовать синхронизацию данных между устройствами по схеме: Компьютер A →резервное копирование\xrightarrow{\text{резервное копирование}}резервное копирование​ S3-хранилище →восстановление\xrightarrow{\text{восстановление}}восстановление​ Компьютер B.

Настройка S3-совместимого хранилища

  1. Создайте бакет (Bucket) объектного хранилища и запишите его имя. Настоятельно рекомендуется установить для бакета режим приватного чтения/записи для предотвращения утечки резервных данных!

  2. Обратитесь к документации вашего облачного провайдера, чтобы получить в консоли управления следующие параметры S3-хранилища: Access Key ID, Secret Access Key, Endpoint, Bucket, Region.

    • Endpoint: Адрес доступа к S3-хранилищу, обычно в формате https://<bucket-name>.<region>.amazonaws.com или https://<ACCOUNT_ID>.r2.cloudflarestorage.com.

    • Region: Регион расположения бакета, например us-west-1, ap-southeast-1. Для Cloudflare R2 укажите auto.

    • Bucket: Имя бакета.

    • Access Key ID и Secret Access Key: Учётные данные для аутентификации.

    • Root Path: Опциональный параметр, указывает корневой путь для резервных копий в бакете (по умолчанию пустой).

    • Документация

      • AWS S3: Получение Access Key ID и Secret Access Key

      • Cloudflare R2: Получение Access Key ID и Secret Access Key

      • Alibaba Cloud OSS: Получение Access Key ID и Access Key Secret

      • Tencent Cloud COS: Получение SecretId и SecretKey

  3. Введите полученные данные в настройках резервного копирования S3. Нажмите "Backup" для создания резервной копии или "Manage" для просмотра и управления файлами резервных копий.

Функции

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Обзор функций

Лицензионное соглашение Cherry Studio

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Лицензионное соглашение Cherry Studio

Используя или распространяя любую часть или элементы материалов Cherry Studio, вы признаёте и принимаете условия настоящего Соглашения, которое вступает в силу немедленно.

1. Определения

  1. Настоящее Лицензионное соглашение Cherry Studio (далее – "Соглашение") регулирует условия использования, копирования, распространения и модификации Материалов.

  2. "Мы" (или "Лицензиар") означает компанию Shanghai Qianhui Technology Co., Ltd. (上海千彗科技有限公司).

  3. "Вы" (или "Лицензиат") означает физическое или юридическое лицо, использующее Материалы на условиях настоящего Соглашения.

  4. "Третья сторона" означает лицо, не связанное отношениями контроля с Нами или Вами.

  5. "Cherry Studio" означает программный комплекс, включающий (но не ограничиваясь): ядро, редакторы, плагины, примеры проектов, исходный код, документацию и сопутствующие элементы.

  6. "Материалы" означает проприетарные разработки Cherry Studio и документацию, предоставляемую по настоящему Соглашению.

  7. "Исходная форма" означает предпочитаемую форму для внесения изменений, включая исходный код, файлы документации и конфигурации.

  8. "Компилированная форма" означает любую форму, полученную механической трансформацией Исходной формы (включая скомпилированный код, сгенерированную документацию).

  9. "Коммерческое использование" означает прямое или косвенное извлечение коммерческой выгоды, включая продажи, лицензирование, подписки, рекламу, обучение, консалтинг и т.д.

  10. "Модификация" означает любое изменение Исходной формы, включая адаптацию названия, логотипа, кода, функционала, интерфейса и т.д.

2. Предоставляемые права

  1. Бесплатное коммерческое использование (немодифицированный код): Мы предоставляем Вам неисключительную, всемирную, непередаваемую, безвозмездную лицензию на использование, копирование и распространение немодифицированных Материалов для коммерческих целей при соблюдении условий Соглашения.

  2. Коммерческая лицензия (требуемые случаи): В ситуациях, описанных в Разделе 3 "Коммерческая лицензия", для реализации прав по настоящему Соглашению требуется получение письменной коммерческой лицензии от Нас.

3. Коммерческая лицензия

Использование Материалов Cherry Studio требует письменной коммерческой лицензии в следующих случаях:

  1. Модификация и производные работы: Внесение изменений в Материалы или создание производных работ (включая изменения названия, логотипа, кода, функционала, интерфейса и т.д.).

  2. Корпоративные сервисы: Внутреннее использование или предоставление услуг на основе Cherry Studio корпоративным клиентам с поддержкой ≥ 10 пользователей.

  3. Продажа оборудования: Предустановка или интеграция Cherry Studio в аппаратные продукты для продажи в комплекте.

  4. Крупные закупки: Использование в рамках масштабных государственных или образовательных закупок, особенно в сферах безопасности и защиты данных.

  5. Публичные облачные сервисы: Предоставление общедоступных облачных сервисов на базе Cherry Studio.

4. Перераспространение

Вы можете распространять копии немодифицированных Материалов в Исходной или Компилированной форме при соблюдении условий:

  1. Предоставление копии настоящего Соглашения всем получателям Материалов.

  2. Сохранение во всех распространяемых копиях уведомления: `"Cherry Studio is licensed under the Cherry Studio LICENSE AGREEMENT, Copyright (c) 上海千彗科技有限公司. All Rights Reserved."`

5. Правила использования

  1. Материалы могут подпадать под экспортный контроль. Используйте их в соответствии с применимым законодательством.

  2. При использовании Материалов для создания ПО/моделей рекомендуется указать в документации: "Built with Cherry Studio" или "Powered by Cherry Studio".

6. Интеллектуальная собственность

  1. Мы сохраняем все права на Материалы и производные работы. Правообладание модификациями, созданными Вами без коммерческой лицензии, остается за Нами.

  2. Настоящим Соглашением не предоставляются права на использование товарных знаков Лицензиара.

  3. Любые лицензии прекращаются при предъявлении Вами претензий о нарушении прав на Материалы.

7. Отказ от гарантий и ограничение ответственности

  1. Мы не обязаны поддерживать, обновлять или развивать Материалы.

  2. Материалы предоставляются "как есть" без гарантий пригодности, безопасности или отсутствия нарушений прав третьих лиц.

  3. Мы не несем ответственность за любой ущерб, возникший при использовании Материалов.

  4. Вы обязуетесь возместить Нам убытки по претензиям третьих сторон, связанным с Вашим использованием Материалов.

8. Срок действия и расторжение

  1. Соглашение вступает в силу при начале использования Материалов.

  2. При нарушении Вами условий Соглашение может быть расторгнуто. После расторжения Вы обязаны прекратить использование Материалов. Разделы 7, 9 и "2. Предоставляемые права" сохраняют силу после расторжения.

9. Применимое право и юрисдикция

  1. Соглашение регулируется законодательством Китайской Народной Республики.

  2. Споры подлежат исключительной юрисдикции судов г. Шанхая.

Общие настройки

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Общие настройки

На этой странице вы можете установить язык интерфейса программного обеспечения, настроить прокси и другие параметры.

X (бывший Twitter)
Xiaohongshu
Weibo
Bilibili
Douyin
Группа QQ (575014769)
Telegram
Discord
WeChat Group (кликните для просмотра)
"Интерфейс диалога"
Star History
Cover

Cover

Cover

Cover

Cover

SiliconCloud
API-ключи

Настройка Notion

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Руководство по настройке Notion

Cherry Studio поддерживает импорт тем в базу данных Notion.

Шаг 1

Откройте сайт Notion Integrations для создания приложения

Нажмите значок "+" для создания приложения

Шаг 2

Создайте приложение

Заполните информацию о приложении

Имя: Cherry Studio

Тип: Выберите первый вариант

Иконка: Сохраните это изображение

Шаг 3

Скопируйте секретный ключ и вставьте его в настройки Cherry Studio

Нажмите "Скопировать ключ"
Вставьте ключ в раздел настроек данных

Шаг 4

Откройте сайт Notion, создайте новую страницу, выберите тип "База данных", укажите название "Cherry Studio" и подключите по инструкции

Создайте новую страницу и выберите тип "База данных"
Введите название страницы и выберите "Подключить приложение"

Шаг 5

Скопируйте ID базы данных

Если URL вашей базы данных Notion выглядит так:

https://www.notion.so/<long_hash_1>?v=<long_hash_2>

то ID базы данных Notion - это часть <long_hash_1>

Введите ID базы данных и нажмите "Проверить"

Шаг 6

Укажите 页面标题字段名 (название поля заголовка страницы):

Если интерфейс на английском - введите Name Если интерфейс на китайском - введите 名称

Заполните название поля заголовка страницы

Шаг 7

Поздравляем! Настройка Notion завершена ✅ Теперь вы можете экспортировать контент Cherry Studio в базу данных Notion

Экспорт в Notion
Просмотр результатов экспорта

Перевод

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Перевод

Функция перевода Cherry Studio предоставляет быстрые и точные услуги по переводу текста, поддерживая взаимный перевод между множеством языков.

Обзор интерфейса

Интерфейс перевода состоит из следующих основных разделов:

  1. Выбор исходного языка:

    • Любой язык: Cherry Studio автоматически распознает исходный язык и выполнит перевод.

  2. Выбор целевого языка:

    • Выпадающее меню: выберите язык, на который нужно перевести текст.

  3. Кнопка настроек:

    • При нажатии переходит к настройкам моделей по умолчанию.

  4. Синхронизация прокрутки:

    • Переключает синхронизацию прокрутки (при прокрутке в любой области вторая область будет синхронно прокручиваться).

  5. Поле ввода текста (слева):

    • Введите или вставьте текст для перевода.

  6. Поле результата перевода (справа):

    • Отображает переведенный текст.

    • Кнопка копирования: копирует результат перевода в буфер обмена.

  7. Кнопка перевода:

    • Нажмите эту кнопку, чтобы начать перевод.

  8. История переводов (вверху слева):

    • Позволяет просмотреть историю переводов.

Шаги использования

  1. Выберите целевой язык:

    • В разделе выбора целевого языка укажите нужный язык.

  2. Введите или вставьте текст:

    • Введите или вставьте текст в левое поле ввода.

  3. Начните перевод:

    • Нажмите кнопку Перевести.

  4. Просмотр и копирование результата:

    • Результат появится в правом поле.

    • Нажмите кнопку копирования, чтобы сохранить перевод в буфер обмена.

Часто задаваемые вопросы (FAQ)

  • В: Что делать, если перевод неточен?

    • О: ИИ-перевод мощный, но не идеален. Для профессиональных текстов или сложных контекстов рекомендуется ручная проверка. Также можно попробовать сменить модель.

  • В: Какие языки поддерживаются?

    • О: Cherry Studio поддерживает множество основных языков. Полный список доступен на официальном сайте или в справке приложения.

  • В: Можно ли перевести целый файл?

    • О: Текущий интерфейс предназначен для перевода текста. Для перевода файлов используйте страницу диалогов Cherry Studio.

  • В: Что делать, если перевод медленный?

    • О: Скорость зависит от сети, длины текста и нагрузки серверов. Убедитесь в стабильности соединения и проявите терпение.

ByteDance (Doubao)

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

ByteDance (Doubao)

  • Войдите в VolcEngine

  • Или сразу перейдите по этой ссылке

Получение API-ключа

  • В боковом меню выберите раздел Управление API-ключами

  • Создайте новый API-ключ

  • После создания кликните на значок глаза 🔍 рядом с ключом для просмотра и скопируйте его

  • Вставьте скопированный API-ключ в CherryStudio и активируйте переключатель провайдера

Активация и добавление моделей

  • В разделе Управление активациями боковой панели активируйте нужные модели (серия Doubao, DeepSeek и др.)

  • В документе со списком моделей найдите ID нужной модели

  • В настройках CherryStudio откройте раздел Модели провайдеров → VolcEngine

  • Нажмите "Добавить" и вставьте ID модели в соответствующее поле

  • Повторите процедуру для добавления всех необходимых моделей

Адрес API

Доступно два варианта записи адреса API:

  1. Стандартный в клиенте: https://ark.cn-beijing.volces.com/api/v3/

  2. Альтернативный: https://ark.cn-beijing.volces.com/api/v3/chat/completions#

Оба варианта функционально идентичны. Рекомендуется использовать значение по умолчанию. Разница между окончаниями / и # объясняется в разделе Настройки провайдеров

Пример cURL из официальной документации

Infinigence-AI

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Infinity AI

Вы сталкивались с этим? Сохранили 26 полезных статей в WeChat, но больше никогда не открывали. На компьютере разбросаны 10+ файлов в папке "Учебные материалы". Хотите найти теорию, которую читали полгода назад, но помните лишь пару ключевых слов. Когда ежедневный объём информации превышает возможности мозга, 90% ценных знаний забываются за 72 часа. С помощью API платформы больших моделей Infinity AI + Cherry Studio вы можете создать личную базу знаний, превращающую пылящиеся статьи из WeChat и разрозненные учебные материалы в структурированные знания для точного доступа.

1. Создание личной базы знаний

1. Сервис API Infinity AI: "Мыслительный центр" базы знаний, удобный и стабильный

Как "мыслящий центр" базы знаний, платформа больших моделей Infinity AI предоставляет такие версии моделей, как полная версия DeepSeek R1, и стабильные API-услуги. Сейчас после регистрации использование бесплатно без ограничений. Поддерживает популярные модели внедрения bge и jina для построения базы знаний. Платформа постоянно обновляет стабильные новейшие и мощные сервисы моделей с открытым исходным кодом, включая изображения, видео, аудио и другие модальности.

2. Cherry Studio: создание базы знаний без кода

Cherry Studio — это простой в использовании ИИ-инструмент. По сравнению с разработкой базы знаний RAG, которая требует 1-2 месяца на развёртывание, этот инструмент поддерживает операции без кода. Позволяет одним щелчком импортировать форматы Markdown/PDF/веб-страницы, обрабатывая 40 МБ файлов за 1 минуту. Также можно добавлять локальные папки компьютера, ссылки на статьи из избранного WeChat и заметки курсов.

2. Три шага для создания вашего личного помощника знаний

Шаг 1: Подготовка

  1. Посетите официальный сайт Cherry Studio и скачайте подходящую версию (https://cherry-ai.com/)

  2. Зарегистрируйте аккаунт: войдите в платформу больших моделей Infinity AI (https://cloud.infini-ai.com/genstudio/model?cherrystudio)

  • Получение API-ключа: в разделе "Модельная площадь" выберите deepseek-r1, нажмите "Создать", получите APIKEY и скопируйте название модели

Шаг 2: В настройках CherryStudio выберите сервис Infinity AI в разделе моделей, введите API-ключ и активируйте сервис моделей Infinity AI

После выполнения этих шагов при взаимодействии выберите нужную большую модель для использования API-сервисов Infinity AI в CherryStudio. Для удобства здесь можно установить "Модель по умолчанию".

Шаг 3: Добавление базы знаний

Выберите любую версию модели внедрения серии bge или jina из платформы больших моделей Infinity AI

3. Тестирование в реальных пользовательских сценариях

  • После импорта учебных материалов введите: "Проанализируйте вывод ключевых формул из третьей главы «Машинное обучение»"

Прилагается сгенерированное изображение результата

Установка среды MCP

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Установка окружения MCP

MCP (Model Context Protocol) — это открытый протокол, предназначенный для стандартизированной передачи контекстной информации крупным языковым моделям (LLM). Подробнее о MCP см. в разделе

Использование MCP в Cherry Studio

Ниже на примере функции fetch показано, как использовать MCP в Cherry Studio. Подробности можно найти в документации.

Подготовка: установка uv и bun

Cherry Studio использует только встроенные uv и bun, не переиспользуя системные версии этих инструментов.

В разделе Настройки → MCP-сервер нажмите кнопку Установить, чтобы автоматически загрузить и установить компоненты. Поскольку загрузка идёт напрямую с GitHub, скорость может быть низкой с высокой вероятностью сбоев. Успешность установки определяется наличием файлов в папках, указанных ниже.

Каталоги установки исполняемых файлов:

Windows: C:\Users\Имя_пользователя\.cherrystudio\bin

macOS/Linux: ~/.cherrystudio/bin

Каталог bin

При проблемах с установкой:

  1. Создайте символические ссылки на системные исполняемые файлы в указанных каталогах. При отсутствии каталогов — создайте их вручную.

  2. Либо загрузите файлы вручную:

    • Bun: https://github.com/oven-sh/bun/releases

    • UV: https://github.com/astral-sh/uv/releases и разместите исполняемые файлы в соответствующем каталоге.

Huawei Cloud

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Huawei Cloud

  1. Создайте учётную запись и войдите на Huawei Cloud

  2. Перейдите в консоль ModelArts, нажав на эту ссылку

  3. Авторизация

Шаги авторизации (пропустите, если уже авторизованы)
  1. После перехода по ссылке из шага 2, следуйте подсказкам на странице авторизации (нажмите IAM Sub-user → Create Delegation → Common User)

  1. После создания вернитесь на страницу по ссылке из шага 2

  2. При появлении сообщения о недостаточных правах доступа нажмите "Click Here" в уведомлении

  3. Добавьте существующую авторизацию и подтвердите

Примечание: Этот метод подходит для новичков — не нужно изучать много информации, просто следуйте подсказкам. Если вам удалось успешно авторизоваться с первого раза, действуйте по своему усмотрению.

  1. В боковой панели перейдите в "Authentication Management", создайте и скопируйте API Key (секретный ключ)

Затем создайте нового поставщика в CherryStudio

После создания вставьте секретный ключ

  1. В боковой панели перейдите в "Model Deployment" и активируйте все предложения

  1. Нажмите "Call"

Скопируйте адрес из места ①, вставьте его в поле адреса поставщика в CherryStudio и добавьте в конце символ "#"

И добавьте в конце символ "#"

И добавьте в конце символ "#"

И добавьте в конце символ "#"

И добавьте в конце символ "#"

Зачем добавлять "#"? Смотрите здесь

Конечно, можно не смотреть, просто следуйте инструкциям;

Также можно использовать метод удаления v1/chat/completions при заполнении — делайте как удобно, но если не уверены, строго следуйте инструкциям.

Затем скопируйте название модели из места ②, в CherryStudio нажмите "+Add" для создания новой модели

Введите название модели без изменений и без кавычек, как показано в примере.

Нажмите "Add Model", чтобы завершить добавление.

В Huawei Cloud каждый модель имеет уникальный адрес, поэтому для каждой модели необходимо создать отдельного поставщика, повторив описанные шаги.

Регистрация Tavily

如何注册tavily?

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Tavily Руководство по регистрации и входу через интернет

1. Официальный сайт Tavily

https://app.tavily.com/home

Некоторым пользователям доступ может быть медленным. Если у вас есть прокси, можете использовать его.

2. Подробные шаги регистрации Tavily

Перейдите по указанному выше официальному сайту или в Cherry Studio: Настройки → Поиск в Интернете → нажмите "Получить ключ", чтобы перейти непосредственно на страницу входа/регистрации Tavily.

Если вы используете впервые, сначала зарегистрируйте аккаунт (Sign up), прежде чем войти (Log in). По умолчанию отображается страница входа.

  1. Нажмите "Зарегистрировать аккаунт", введите свою основную электронную почту или используйте аккаунт Google/GitHub. Затем на следующем шаге создайте пароль - стандартная процедура.

Регистрация аккаунта
  1. 🚨🚨🚨【Критический шаг】 После успешной регистрации потребуется динамическая верификация: отсканируйте QR-код для получения одноразового кода.

Многие пользователи застревают на этом этапе... Не паникуйте

Есть два варианта решения:

  1. Установите приложение для аутентификации от Microsoft — Authenticator 【сложнее】

  2. Используйте мини-программу WeChat: Tencent Authenticator 【проще, рекомендуется】

  1. Откройте мини-программу WeChat, найдите: Tencent Authenticator

Мини-программа WeChat — поиск — запуск
Отсканируйте QR-код со страницы Tavily
Получение цифрового кода
Введите код на странице Tavily
Скопируйте код в безопасное место (рекомендуется)

3. 🎉Регистрация завершена🎉

После выполнения всех шагов вы увидите следующий интерфейс — это подтверждает успешную регистрацию. Скопируйте ключ в Cherry Studio и начинайте использовать платформу.

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Учебное пособие

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Руководство по Базе Знаний

В версии 0.9.1 CherryStudio представил долгожданную функцию базы знаний.

Ниже пошагово представлено подробное руководство по использованию CherryStudio.

Добавление модели встраивания

  1. Найдите модель в сервисе управления моделями, используя фильтр "Модели встраивания" для быстрого поиска;

  2. Выберите нужную модель и добавьте её в "Мои модели".

Создание базы знаний

  1. Доступ к базе знаний: В левой панели инструментов CherryStudio нажмите значок базы знаний, чтобы перейти на страницу управления;

  2. Добавление базы знаний: Нажмите "Добавить", чтобы начать создание базы знаний;

  3. Наименование: Введите название базы знаний и добавьте модель встраивания (например, bge-m3), чтобы завершить создание.

Добавление файлов и их векторизация

  1. Добавление файлов: Нажмите кнопку "Добавить файлы" для выбора файлов;

  2. Выбор файлов: Выберите поддерживаемые форматы (pdf, docx, pptx, xlsx, txt, md, mdx и др.) и откройте их;

  3. Векторизация: Система автоматически выполнит векторизацию. При появлении зелёной галочки (✓) процесс завершён.

Добавление данных из различных источников

CherryStudio поддерживает несколько способов добавления данных:

  1. Папка каталога: Добавьте целую папку — поддерживаемые файлы автоматически векторизуются;

  2. Веб-ссылка: Поддерживает URL-адреса, например ;

  3. Карта сайта: Поддерживает XML-карты сайта, например ;

  4. Простой текст: Поддерживает ввод пользовательского текста.

Примечания:

  1. Изображения в документах, импортированных в базу знаний, пока не поддерживают автоматическую векторизацию — их нужно вручную преобразовывать в текст;

  2. Использование веб-ссылок как источников не всегда успешно: некоторые сайты имеют строгие защитные механизмы (или требуют авторизации). После создания проверьте поиском;

  3. Большинство сайтов предоставляют карту сайта (sitemap), например карта CherryStudio: . Обычно доступна по адресу домен/sitemap.xml;

  4. Если сайт не предоставляет sitemap, создайте XML-файл самостоятельно. Используйте публично доступные прямые ссылки (локальные файлы не поддерживаются).

  1. Используйте ИИ для генерации sitemap или создания инструмента-генератора;

  2. Для прямых ссылок используйте OSS или облачные хранилища. Можно воспользоваться бесплатным инструментом загрузки на .

Поиск в базе знаний

После завершения векторизации можно выполнять запросы:

  1. Нажмите кнопку "Поиск в базе знаний" внизу страницы;

  2. Введите запрос;

  3. Просмотрите результаты;

  4. Оценка релевантности отображается для каждого результата.

Использование базы знаний в диалогах

  1. Создайте новый диалог. В панели инструментов нажмите "База знаний" → выберите нужную базу;

  2. Введите вопрос — модель сгенерирует ответ на основе полученных данных;

  3. Источники данных отображаются под ответом для быстрого просмотра.

Резервное копирование WebDAV

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Cherry Studio поддерживает резервное копирование данных через WebDAV. Вы можете выбрать подходящий сервис WebDAV для облачного резервного копирования.

С помощью WebDAV можно синхронизировать данные между несколькими устройствами по схеме: Компьютер A WebDAV Компьютер B.

Пример использования Nutstore

  1. Войдите в Nutstore, нажмите на имя пользователя в правом верхнем углу и выберите «Информация об аккаунте»:

  1. Выберите «Настройки безопасности» и нажмите «Добавить приложение»

  1. Введите название приложения, сгенерируется случайный пароль;

  1. Скопируйте и сохраните пароль;

  1. Получите адрес сервера, учетную запись и пароль;

  1. В настройках Cherry Studio → настройках данных заполните информацию WebDAV;

  1. Выберите резервное копирование или восстановление данных, а также можно настроить периодичность автоматического резервного копирования.

Сервисы WebDAV с низким порогом входа — это, как правило, облачные хранилища:

  • (требуется подписка)

  • (требуется покупка)

  • (бесплатно предоставляется 10 ГБ, ограничение на размер одного файла — 250 МБ.)

  • (Dropbox предоставляет 2 ГБ бесплатно, можно приглашать друзей для увеличения до 16 ГБ.)

  • (бесплатно предоставляется 10 ГБ, также можно получить дополнительно 5 ГБ за приглашения.)

  • (бесплатным пользователям предоставляется 10 ГБ.)

Кроме того, есть сервисы, которые требуют самостоятельного развертывания:

PPIO Cloud

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

PPIO Pai Ou Cloud

Cherry Studio интеграция с PPIO LLM API

Обзор обучения

Cherry Studio — это мультиплатформенный десктопный клиент, поддерживающий установку на Windows, Linux и MacOS. Он объединяет основные LLM-модели и предоставляет сценарную поддержку. Пользователи могут повысить эффективность работы через интеллектуальное управление диалогами, кастомизацию с открытым исходным кодом и мультитематические интерфейсы.

Cherry Studio теперь глубоко интегрирован с высокопроизводительным API-каналом PPIO — благодаря гарантиям корпоративного уровня вычислений достигается высокая скорость отклика DeepSeek-R1/V3 и доступность сервиса 99.9%, обеспечивая быстрый и плавный опыт.

В руководстве ниже представлена полная схема подключения (включая настройку ключей). Активируйте продвинутый режим «Умная маршрутизация Cherry Studio + Высокопроизводительный API PPIO» за 3 минуты.

1. Войдите в CherryStudio, добавьте «PPIO» как провайдера моделей

Сначала скачайте Cherry Studio с официального сайта: (Если не открывается, используйте ссылку на Quark Disk: )

(1) Нажмите настройки в левом нижнем углу, укажите имя провайдера: PPIO, нажмите «ОК»

(2) Перейдите в , щёлкните на [аватар пользователя] → [Управление API-ключами]

Нажмите [+ Создать] для генерации нового ключа API. Укажите имя ключа. Ключ отображается только при создании — обязательно скопируйте и сохраните его, чтобы не прерывать дальнейшее использование

(3) Вставьте ключ в CherryStudio: выберите [PPIO Pai Ou Cloud], введите API-ключ с сайта, нажмите [Проверить]

(4) Выберите модель: например, deepseek/deepseek-r1/community. Для смены модели просто выберите другую.

DeepSeek R1 и V3 community — пробные версии. Это полнофункциональные модели со всеми параметрами, без разницы в стабильности и эффективности. Для массового использования пополните счёт и переключитесь на не-community версию.

2. Настройка использования моделей

(1) После успешной [Проверки] можно использовать сервис

(2) Нажмите [@], выберите модель DeepSeek R1 от PPIO и начинайте общение~

[Источник материалов: ]

3. Видеоруководство по PPIO × Cherry Studio

Если предпочитаете визуальное обучение — на Bilibili есть видеоурок. Пошагово поможем освоить настройку «PPIO API + Cherry Studio». Перейдите по ссылке →

[Источник видео: sola]

Изменение места хранения

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Стандартное расположение хранения данных

Данные Cherry Studio сохраняются согласно системным стандартам и автоматически размещаются в пользовательском каталоге. Точные пути следующие:

macOS: /Users/username/Library/Application Support/CherryStudioDev

Windows: C:\Users\username\AppData\Roaming\CherryStudio

Linux: /home/username/.config/CherryStudio

Также можно посмотреть расположение здесь:

Изменение места хранения данных (справочно)

Способ 1: Создайте символическую ссылку. Завершите работу приложения, переместите данные в нужное расположение, затем создайте ссылку из оригинального пути к новому местоположению.

Подробные инструкции смотрите здесь:

Способ 2: Используйте особенности приложений Electron и измените путь через параметры запуска.

--user-data-dir Пример: Cherry-Studio-*-x64-portable.exe --user-data-dir="%user_data_dir%"

Пример реализации:

init_cherry_studio.bat (кодировка: ANSI)

Структура каталога user-data-dir после инициализации:

Автоматическая установка MCP

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Автоматическая установка MCP

Для автоматической установки MCP требуется обновление Cherry Studio до версии v1.1.18 или выше.

Обзор возможностей

Помимо ручной установки, Cherry Studio включает инструмент @mcpmarket/mcp-auto-install — более простой способ установки сервера MCP. Для использования достаточно ввести соответствующую команду в диалоге с LLM-моделью, поддерживающей сервисы MCP.

Важно на этапе тестирования:

  • @mcpmarket/mcp-auto-install находится в бета-версии

  • Результат зависит от «интеллекта» LLM-модели: параметры могут добавляться автоматически, но в некоторых случаях потребуется ручная настройка параметров MCP

  • Поиск источников выполняется в @modelcontextprotocol, но можно настроить кастомные параметры (см. ниже)

Инструкция по использованию

Например, введите команду:

Система автоматически определит требования и выполнит установку через @mcpmarket/mcp-auto-install. Инструмент поддерживает различные типы серверов MCP, включая:

  • filesystem (файловая система)

  • fetch (HTTP-запросы)

  • sqlite (база данных)

  • и другие...

Переменная MCP_PACKAGE_SCOPES позволяет кастомизировать источники поиска сервисов MCP. Значение по умолчанию: @modelcontextprotocol.

Описание библиотеки @mcpmarket/mcp-auto-install

Конфигурация по умолчанию:

@mcpmarket/mcp-auto-install — npm-пакет с открытым исходным кодом. Подробную документацию можно найти в . @mcpmarket — официальная коллекция сервисов MCP от Cherry Studio.

База знаний

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

База знаний

Для использования базы знаний можно обратиться к в разделе расширенных руководств.

Рекомендуемые шрифты

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Рекомендации по шрифтам

руководству по базе знаний
https://docs.siliconflow.cn/introduction
https://docs.siliconflow.cn/sitemap.xml
sitemap
ocoolAI
→резервное копирование\xrightarrow{\text{резервное копирование}}резервное копирование​
→восстановление\xrightarrow{\text{восстановление}}восстановление​
Nutstore
123 Pan
Aliyun Disk
Box
Dropbox
TeraCloud
Yandex Disk
Alist
Cloudreve
sharelist
帮我安装一个 filesystem mcp server
// `axun-uUpaWEdMEMU8C61K` - пользовательский ID сервиса
"axun-uUpaWEdMEMU8C61K": {
  "name": "mcp-auto-install",
  "description": "Automatically install MCP services (Beta version)",
  "isActive": false,
  "registryUrl": "https://registry.npmmirror.com",
  "command": "npx",
  "args": [
    "-y",
    "@mcpmarket/mcp-auto-install",
    "connect",
    "--json"
  ],
  "env": {
    "MCP_REGISTRY_PATH": "详情见https://www.npmjs.com/package/@mcpmarket/mcp-auto-install"
  },
  "disabledTools": []
}
официальном репозитории npm
Ввод команды для установки сервера MCP
Интерфейс конфигурации сервера MCP

Monaspace

Английский шрифт Коммерческое использование

GitHub представил семейство шрифтов Monaspace с открытым исходным кодом, доступное в пяти стилях: Neon (современный стиль), Argon (гуманитарный стиль), Xenon (стиль с засечками), Radon (рукописный стиль), Krypton (механический стиль).

MiSans Global

Многоязычный Коммерческое использование

MiSans Global — проект по созданию шрифтов для глобальных языков, инициированный Xiaomi совместно с Monotype и HanYi.

Это обширное семейство шрифтов охватывает более 20 систем письма и поддерживает более 600 языков.

Пример списка ID моделей VolcEngine
PS D:\CherryStudio> dir


    目录: D:\CherryStudio


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:05                user-data-dir
-a----         2025/4/14     23:05       94987175 Cherry-Studio-1.2.4-x64-portable.exe
-a----         2025/4/18     14:05            701 init_cherry_studio.bat
@title CherryStudio Initialization
@echo off

set current_path_dir=%~dp0
@echo Текущий путь:%current_path_dir%
set user_data_dir=%current_path_dir%user-data-dir
@echo Путь к данным CherryStudio:%user_data_dir%

@echo Поиск Cherry-Studio-*-portable.exe в текущей директории
setlocal enabledelayedexpansion

for /f "delims=" %%F in ('dir /b /a-d "Cherry-Studio-*-portable*.exe" 2^>nul') do ( # Этот код совместим с версиями с GitHub и с официального сайта; для других версий измените самостоятельно
    set "target_file=!cd!\%%F"
    goto :break
)
:break
if defined target_file (
    echo Найден файл: %target_file%
) else (
    echo Совпадающие файлы не найдены, выход из скрипта
    pause
    exit
)

@echo Подтвердите действие
pause

@echo Запуск CherryStudio
start %target_file% --user-data-dir="%user_data_dir%"

@echo Операция завершена
@echo on
exit
PS D:\CherryStudio> dir .\user-data-dir\


    目录: D:\CherryStudio\user-data-dir


Mode                 LastWriteTime         Length Name
----                 -------------         ------ ----
d-----         2025/4/18     14:29                blob_storage
d-----         2025/4/18     14:07                Cache
d-----         2025/4/18     14:07                Code Cache
d-----         2025/4/18     14:07                Data
d-----         2025/4/18     14:07                DawnGraphiteCache
d-----         2025/4/18     14:07                DawnWebGPUCache
d-----         2025/4/18     14:07                Dictionaries
d-----         2025/4/18     14:07                GPUCache
d-----         2025/4/18     14:07                IndexedDB
d-----         2025/4/18     14:07                Local Storage
d-----         2025/4/18     14:07                logs
d-----         2025/4/18     14:30                Network
d-----         2025/4/18     14:07                Partitions
d-----         2025/4/18     14:29                Session Storage
d-----         2025/4/18     14:07                Shared Dictionary
d-----         2025/4/18     14:07                WebStorage
-a----         2025/4/18     14:07             36 .updaterId
-a----         2025/4/18     14:29             20 config.json
-a----         2025/4/18     14:07            434 Local State
-a----         2025/4/18     14:29             57 Preferences
-a----         2025/4/18     14:09           4096 SharedStorage
-a----         2025/4/18     14:30            140 window-state.json
https://github.com/CherryHQ/cherry-studio/issues/621#issuecomment-2588652880
Xiaohongshu
Bilibili
Weibo
Douyin
X (бывший Twitter)
​
​
https://cherry-ai.com/download
https://pan.quark.cn/s/c8533a1ec63e#/list/share
Управление API-ключами Pai Ou Cloud
​
Чэнь Энь
​
《Все ещё бесит, когда DeepSeek бесконечно грузится? Pai Ou Cloud + DeepSeek Full Version = 0 задержек, мгновенный старт》

Пользовательские провайдеры

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Пользовательские поставщики услуг

Cherry Studio не только интегрирует ведущие сервисы ИИ-моделей, но и предоставляет мощные возможности настройки. С помощью функции Пользовательские поставщики ИИ-услуг вы можете легко подключить любую необходимую ИИ-модель.

Зачем нужны пользовательские поставщики ИИ?

  • Гибкость: Больше не ограничивайтесь предустановленным списком поставщиков, свободно выбирайте наиболее подходящие ИИ-модели.

  • Разнообразие: Пробуйте ИИ-модели с разных платформ, открывая их уникальные преимущества.

  • Контроль: Управляйте своими API-ключами и адресами доступа напрямую, обеспечивая безопасность и конфиденциальность.

  • Кастомизация: Интегрируйте приватно развернутые модели для специфических бизнес-задач.

Как добавить пользовательского поставщика ИИ?

Всего несколько шагов, чтобы добавить своего поставщика в Cherry Studio:

  1. Откройте настройки: В левой панели Cherry Studio нажмите «Настройки» (значок шестерёнки).

  2. Перейдите к моделям: На странице настроек выберите вкладку «Модели».

  3. Добавьте поставщика: В разделе «Модели» нажмите кнопку «+ Добавить» под списком поставщиков.

  4. Заполните данные: В открывшемся окне укажите:

    • Название поставщика: Присвойте узнаваемое имя (например: MyCustomOpenAI).

    • Тип поставщика: Выберите из выпадающего списка поддерживаемые типы:

      • OpenAI

      • Gemini

      • Anthropic

      • Azure OpenAI

  5. Сохраните: Нажмите «Добавить» для сохранения конфигурации.

Настройка пользовательского поставщика ИИ

После добавления найдите поставщика в списке и настройте детали:

  1. Статус активации: Переключатель справа в списке включает/выключает службу.

  2. API-ключ:

    • Введите ключ API, полученный от поставщика.

    • Кнопка «Проверить» справа тестирует валидность ключа.

  3. API-адрес:

    • Укажите базовый URL для доступа к API.

    • Сверьтесь с документацией поставщика для корректного адреса.

  4. Управление моделями:

    • Нажмите «+ Добавить», чтобы вручную добавить ID модели (например gpt-3.5-turbo, gemini-pro).

    * Для названий моделей обратитесь к документации поставщика. * Кнопка «Управление» позволяет редактировать или удалять добавленные модели.

Начало использования

После настройки выберите своего поставщика и модель в чат-интерфейсе Cherry Studio для начала работы!

Использование vLLM как пользовательского поставщика

vLLM — быстрая и удобная библиотека вывода LLM, аналогичная Ollama. Этапы интеграции с Cherry Studio:

  1. Установите vLLM: Следуйте официальной инструкции (https://docs.vllm.ai/en/latest/getting_started/quickstart.html).

    pip install vllm # если используете pip
    uv pip install vllm # если используете uv
  2. Запустите vLLM: Активируйте сервис через OpenAI-совместимый интерфейс двумя способами:

    • Через vllm.entrypoints.openai.api_server

    python -m vllm.entrypoints.openai.api_server --model gpt2
    • Через uvicorn

    vllm --model gpt2 --served-model-name gpt2

Сервис запустится на порту 8000 (или указанном через --port).

  1. Добавьте vLLM в Cherry Studio:

    • Создайте нового поставщика по инструкции выше.

    • Название: vLLM

    • Тип: OpenAI

  2. Настройте vLLM:

    • API-ключ: Оставьте пустым или введите любое значение.

    • API-адрес: Укажите http://localhost:8000/ (или ваш порт).

    • Управление моделями: Введите название запущенной модели (например gpt2).

  3. Начните диалог: Выберите vLLM и модель в чат-интерфейсе для общения!

Рекомендации

  • Изучите документацию: Перед добавлением проверьте у поставщика параметры API-ключей, адресов и моделей.

  • Проверяйте ключи: Используйте кнопку проверки для валидации API-ключей.

  • Следите за адресами: У разных поставщиков и моделей могут отличаться API-адреса.

  • Добавляйте нужные модели: Включайте только используемые модели, чтобы избежать перегрузки.

Отзывы и предложения

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Обратная связь и предложения

Telegram группа обсуждений

Участники группы делятся опытом использования и помогают решать проблемы

Присоединяйтесь к Telegram группе для получения помощи:

QQ группа

Участники QQ группы помогают друг другу и делятся ссылками для скачивания

GitHub Issues

Подходит для фиксации идей, чтобы разработчики не забыли, или для участия в обсуждениях

GitHub Issues:

Email

Если другие каналы связи недоступны, напишите разработчикам напрямую

Свяжитесь с разработчиками по почте: [email protected]

https://t.me/CherryStudioAI
QQ группа (1025067911)
https://github.com/CherryHQ/cherry-studio/issues/new/choose

Планирование проекта

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

План проекта

Список задач

Пояснения:

  1. Сохранил маркеры списка [x]/[ ] в оригинальном формате

  2. Технические термины и названия (SSO, JavaScript, iOS, Android) оставлены без перевода

  3. Для 多模型回答对比 использован термин "многомодельное сравнение ответов"

  4. 全部模型支持联网 переведено как "режим 'Поиск в Интернете' для всех моделей"

  5. 推出第一个正式版 переведено как "выпуск первой стабильной версии"

  6. Для AI 通话 использован термин "AI-звонки" (AI-calls)

Политика конфиденциальности

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Политика конфиденциальности

Добро пожаловать в Cherry Studio (далее "Программное обеспечение" или "Мы"). Мы придаем большое значение защите вашей конфиденциальности. Настоящая Политика конфиденциальности объясняет, как мы обрабатываем и защищаем ваши личные данные. Пожалуйста, внимательно ознакомьтесь с настоящим соглашением перед использованием программного обеспечения:

I. Собираемая информация

Для оптимизации пользовательского опыта и улучшения качества программного обеспечения мы можем анонимно собирать следующие не персонифицированные данные:

• Информация о версии ПО; • Частота и активность использования функций ПО; • Анонимные логи ошибок и сбоев.

Эта информация полностью анонимна, не содержит идентифицирующих данных и не может быть связана с вами.

II. Информация, которую мы НЕ собираем

Для максимальной защиты вашей конфиденциальности мы категорически заявляем:

• Не собираем, не храним, не передаем и не обрабатываем ваши API Keys для сервисов моделей; • Не собираем, не храним, не передаем и не обрабатываем какие-либо данные диалогов, включая контент чатов, инструкции, данные базы знаний, векторные данные или пользовательский контент; • Не собираем, не храним, не передаем и не обрабатываем любые идентифицирующие личные данные.

III. Обработка данных

Программное обеспечение использует предоставленные вами API Keys сторонних провайдеров моделей для выполнения вызовов и диалоговых функций. Сервисы моделей (например, Large Language Models, API) предоставляются выбранными вами провайдерами. Cherry Studio выступает исключительно как локальный инструмент для взаимодействия с API.

Таким образом:

• Все данные диалогов между вами и сервисами моделей не относятся к Cherry Studio: мы не храним и не передаем эти данные; • Вам необходимо самостоятельно ознакомиться и принять политики конфиденциальности ваших провайдеров моделей на их официальных сайтах.

IV. Политики конфиденциальности сторонних провайдеров

Вы самостоятельно несете риски конфиденциальности, связанные с использованием сервисов моделей. За политики обработки данных, меры безопасности и ответственность отвечают исключительно провайдеры сервисов. Мы не несем за это ответственности.

V. Обновление соглашения

Настоящее соглашение может обновляться с выходом новых версий ПО. При внесении существенных изменений мы уведомим вас соответствующим образом.

VI. Связь с нами

Если у вас возникли вопросы относительно настоящего соглашения или мер защиты конфиденциальности в Cherry Studio, свяжитесь с нами.

Благодарим за выбор и доверие к Cherry Studio. Мы продолжим обеспечивать безопасные и надежные продукты.

{% hint style="danger" %}
Внимание: Для генерации изображений Gemini требуется использовать интерфейс чата, поскольку Gemini обеспечивает мультимодальное интерактивное создание изображений и не поддерживает регулировку параметров.
{% endhint %}

FAQ

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Часто задаваемые вопросы

Распространенные коды ошибок

  • 4xx (коды ошибок клиента): Обычно возникают из-за синтаксических ошибок в запросе, неудачной аутентификации или проверки подлинности.

  • 5xx (коды ошибок сервера): Обычно вызваны проблемами на стороне сервера, такими как сбой сервера, превышение времени обработки запроса.

Код ошибки
Возможные причины
Решение

400

Неверный формат тела запроса

Проверьте содержимое ошибки в ответе или просмотрите сообщение об ошибке в . Действуйте согласно подсказке.

[Тип 1]: Для моделей Gemini может потребоваться привязка карты; [Тип 2]: Превышение размера данных (особенно для визуальных моделей); [Тип 3]: Использование неподдерживаемых параметров. Проверьте с чистым ассистентом; [Тип 4]: Превышение лимита контекста. Очистите контекст или уменьшите количество сообщений.

401

Ошибка аутентификации: модель не поддерживается или аккаунт заблокирован

Свяжитесь с поставщиком услуги для проверки статуса аккаунта

403

Нет прав на запрашиваемое действие

Проверьте сообщение об ошибке в диалоге или

404

Запрашиваемый ресурс не найден

Проверьте путь запроса

422

Корректный формат, но семантическая ошибка

Ошибки обработки данных (например: пустые значения; ожидалась строка, но передано число/булево значение)

429

Превышена скорость запросов

Подождите некоторое время перед повторным запросом

500

Внутренняя ошибка сервера

При постоянном возникновении обратитесь к поставщику услуги

501

Сервер не поддерживает запрашиваемую функцию

502

Неверный ответ от вышестоящего сервера

503

Сервер временно недоступен из-за перегрузки или обслуживания

504

Превышено время ожидания ответа от сервера


Как просмотреть ошибки в консоли

  • Нажмите на окно клиента Cherry Studio и используйте горячие клавиши: Ctrl + Shift + I (Mac: Command + Option + I)

  • Для вызова консоли активным окном должно быть клиентское окно Cherry Studio;

  • Необходимо открыть консоль перед отправкой запроса для сбора информации.

  • В открывшемся окне консоли перейдите в Network → Выберите последний элемент с красным × (для диалогов: completions; для рисования: generations) → Нажмите Response для просмотра полного ответа (область ④ на изображении).

Если причина ошибки неясна, отправьте скриншот этого окна в официальном чате.

Этот метод работает не только для диалогов, но и для тестирования моделей, добавления базы знаний, рисования и других операций. Всегда открывайте консоль перед запросом.

Названия в колонке Name (② на изображении) могут различаться:

Диалоги/перевод/проверка моделей: completions Рисование: generations Создание базы знаний: embeddings


Проблемы с отображением формул

  • Если формула отображается как код, проверьте наличие разделителей:

Синтаксис разделителей Встроенные формулы

  • Одинарный доллар: $formula$

  • Или \(formula\)

Отдельные блоки формул

  • Двойной доллар: $$formula$$

  • Или \[formula\]

  • Пример: $$\sum_{i=1}^n x_i$$ ∑i=1nxi\sum_{i=1}^n x_i∑i=1n​xi​

  • Ошибки рендеринга/искаженный текст часто возникают при использовании китайских символов. Попробуйте переключить движок формул на KateX.


Проблемы с созданием базы знаний / Не удается получить размерность встраивания

  1. Статус модели недоступен

Убедитесь, что модель поддерживается провайдером и активна.

  1. Использована модель без функции встраивания

Выберите специализированную модель для встраивания.


Модель не распознает изображения / Не удается загрузить или выбрать изображение

Проверьте, поддерживает ли модель распознавание изображений. В Cherry Studio модели со значком глаза поддерживают эту функцию.

Если функция не работает:

  1. В списке моделей провайдера найдите нужную модель

  2. Нажмите значок настроек рядом с названием

  3. Активируйте опцию "Изображения"

Модели без поддержки изображений не будут работать даже с активированной опцией. Проверьте документацию провайдера.

Кастомный CSS

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Пользовательский CSS

С помощью пользовательского CSS вы можете изменить внешний вид программы, чтобы он лучше соответствовал вашим предпочтениям, например:

Пользовательский CSS
:root {
  --color-background: #1a462788;
  --color-background-soft: #1a4627aa;
  --color-background-mute: #1a462766;
  --navbar-background: #1a4627;
  --chat-background: #1a4627;
  --chat-background-user: #28b561;
  --chat-background-assistant: #1a462722;
}

#content-container {
  background-color: #2e5d3a !important;
}

Встроенные переменные

:root {
  font-family: "汉仪唐美人" !important; /* Шрифт */
}

/* Цвет текста при раскрытии глубокого размышления */
.ant-collapse-content-box .markdown {
  color: red;
}

/* Переменные темы */
:root {
  --color-black-soft: #2a2b2a; /* Темный цвет фона */
  --color-white-soft: #f8f7f2; /* Светлый цвет фона */
}

/* Темная тема */
body[theme-mode="dark"] {
  /* Цвета */
  --color-background: #2b2b2b; /* Темный цвет фона */
  --color-background-soft: #303030; /* Светлый цвет фона */
  --color-background-mute: #282c34; /* Нейтральный цвет фона */
  --navbar-background: var(-–color-black-soft); /* Цвет фона панели навигации */
  --chat-background: var(–-color-black-soft); /* Цвет фона чата */
  --chat-background-user: #323332; /* Цвет фона сообщений пользователя */
  --chat-background-assistant: #2d2e2d; /* Цвет фона сообщений ассистента */
}

/* Специфичные стили для темной темы */
body[theme-mode="dark"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* Цвет фона контейнера контента */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* Цвет фона сообщений */
  }

  .inputbar-container {
    background-color: #3d3d3a; /* Цвет фона поля ввода */
    border: 1px solid #5e5d5940; /* Цвет границы поля ввода */
    border-radius: 8px; /* Скругление границ поля ввода */
  }

  /* Стили кода */
  code {
    background-color: #e5e5e20d; /* Цвет фона кода */
    color: #ea928a; /* Цвет текста кода */
  }

  pre code {
    color: #abb2bf; /* Цвет текста в предварительно отформатированном коде */
  }
}

/* Светлая тема */
body[theme-mode="light"] {
  /* Цвета */
  --color-white: #ffffff; /* Белый цвет */
  --color-background: #ebe8e2; /* Светлый цвет фона */
  --color-background-soft: #cbc7be; /* Светлый цвет фона */
  --color-background-mute: #e4e1d7; /* Нейтральный цвет фона */
  --navbar-background: var(-–color-white-soft); /* Цвет фона панели навигации */
  --chat-background: var(-–color-white-soft); /* Цвет фона чата */
  --chat-background-user: #f8f7f2; /* Цвет фона сообщений пользователя */
  --chat-background-assistant: #f6f4ec; /* Цвет фона сообщений ассистента */
}

/* Специфичные стили для светлой темы */
body[theme-mode="light"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* Цвет фона контейнера контента */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* Цвет фона сообщений */
  }

  .inputbar-container {
    background-color: #ffffff; /* Цвет фона поля ввода */
    border: 1px solid #87867f40; /* Цвет границы поля ввода */
    border-radius: 8px; /* Скругление границ поля ввода, настройте по вкусу */
  }

  /* Стили кода */
  code {
    background-color: #3d39290d; /* Цвет фона кода */
    color: #7c1b13; /* Цвет текста кода */
  }

  pre code {
    color: #000000; /* Цвет текста в предварительно отформатированном коде */
  }
}

Для получения дополнительных переменных темы обратитесь к исходному коду: https://github.com/CherryHQ/cherry-studio/tree/main/src/renderer/src/assets/styles

Рекомендации

Тематическая библиотека Cherry Studio: https://github.com/boilcy/cherrycss

Коллекция тем для Cherry Studio в китайском стиле: https://linux.do/t/topic/325119/129

Быстрые помощники

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Быстрый помощник

Быстрый помощник — это удобный инструмент, предоставляемый Cherry Studio, который позволяет вам быстро обращаться к функциям искусственного интеллекта из любого приложения для мгновенных операций: вопросов, переводов, обобщений и объяснений.

Активация быстрого помощника

  1. Откройте настройки: Перейдите в Настройки → Сочетания клавиш → Быстрый помощник.

  2. Активируйте переключатель: Найдите и включите переключатель Быстрый помощник.

  1. Настройте сочетание клавиш (опционально):

    • Для Windows по умолчанию: Ctrl + E.

    • Для macOS по умолчанию: ⌘ + E.

    • Вы можете настроить свое сочетание, чтобы избежать конфликтов или адаптировать его под ваши привычки.

Использование быстрого помощника

  1. Вызов: В любом приложении нажмите заданное сочетание (или комбинацию по умолчанию) для открытия быстрого помощника.

  2. Взаимодействие: В окне быстрого помощника доступны функции:

    • Быстрые вопросы: Задайте любой вопрос ИИ.

    • Перевод текста: Введите текст для перевода.

    • Обобщение контента: Введите длинный текст для сжатия.

    • Пояснение: Введите концепт или термин для объяснения.

  3. Закрытие: Нажмите ESC или щелкните вне окна помощника.

Быстрый помощник использует .

Советы и рекомендации

  • Конфликты сочетаний: При конфликтах с другими приложениями измените сочетание.

  • Дополнительные функции: Помимо указанных функций, помощник может генерировать код, изменять стили текста и т.д. — изучайте возможности во время использования.

  • Обратная связь: При проблемах или предложениях направляйте .

Настройки отображения

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Настройки отображения

На этой странице вы можете настроить цветовую тему программы, макет страницы или для персонализации.

Выбор темы

Здесь можно установить цветовую схему интерфейса по умолчанию (светлая, тёмная или в соответствии с системой).

Настройки тем

Эти настройки определяют макет интерфейса беседы.

Расположение тем

Автоматическое переключение на тему

При включении этой настройки щелчок по имени ассистента автоматически переключит страницу на соответствующую тему.

Отображение времени темы

При включении под темой будет отображаться время её создания.

Кастомизация CSS

Эта настройка позволяет гибко изменять интерфейс под индивидуальные предпочтения. Подробные инструкции см. в раздела продвинутых настроек.

модель по умолчанию
фидбэк команде
Схема активации быстрого помощника
Интерфейс быстрого помощника
кастомизировать CSS
Пользовательский CSS
Познавательные материалы
консоли
консоли

Интернет-режим

如何在 Cherry Studio 使用联网模式

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Интернет-режим

Примеры ситуаций, требующих подключения к интернету:

  • Актуальная информация: например, цены на фьючерсы золота за сегодня/на этой неделе/только что.

  • Динамические данные: например, погода, курсы валют и другие меняющиеся показатели.

  • Новые знания: например, о новых явлениях, концепциях, технологиях и т.д.

1. Как включить интернет-режим

В окне запроса Cherry Studio нажмите значок 【🌐】, чтобы активировать подключение.

Нажмите значок планеты – включите интернет
Индикатор – интернет-режим активирован

2. Важное примечание: два режима работы

Режим 1: Встроенная функция подключения у поставщиков моделей

Если модель изначально поддерживает интернет, после активации можно сразу использовать онлайн-функции.

Проверить поддержку подключения можно по значку 🌐 рядом с названием модели в интерфейсе чата.

Этот метод также работает на странице управления моделями для быстрой идентификации поддержки сети.

Поставщики моделей с поддержкой интернета в Cherry Studio

  • Google Gemini

  • OpenRouter (все модели)

  • Tencent Hunyuan

  • Zhipu AI

  • Alibaba Cloud Bailian

Особый случай: Даже без значка 🌐 некоторые модели могут работать в сети, как описано в руководстве ниже.


Режим 2: Использование сервиса Tavily для моделей без встроенной поддержки

Если модель не имеет значка 🌐, но требует обработки актуальных данных, используется сервис поиска Tavily.

При первом использовании Tavily появится окно настройки – следуйте инструкциям.

Нажмите: «Настроить»
Нажмите «Получить ключ»

После нажатия откроется страница регистрации на официальном сайте Tavily. Зарегистрируйтесь, создайте API-ключ и вставьте его в Cherry Studio.

Инструкция по регистрации доступна в документации Tavily в этом каталоге.

Руководство по регистрации Tavily:

Интерфейс ниже подтверждает успешную регистрацию.

Скопируйте ключ
Вставьте ключ – настройка завершена

Тест работы: результаты показывают успешный поиск (по умолчанию выбрано 5 источников).

Внимание: Tavily имеет месячные бесплатные ограничения, превышение требует оплаты~

P.S.: При обнаружении ошибок обращайтесь в любое время.

Познавательные материалы

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Научные знания

Что такое токены?

Токены — это базовые единицы обработки текста в AI-моделях, которые можно рассматривать как минимальные "мыслительные" элементы модели. Они не полностью эквивалентны символам или словам в человеческом понимании, а представляют собой особый способ разделения текста, используемый самой моделью.

1. Токенизация китайского языка

  • Один иероглиф обычно кодируется в 1-2 токена

  • Например: "你好" ≈ 2-4 токена

2. Токенизация английского языка

  • Распространенные слова обычно составляют 1 токен

  • Длинные или редкие слова разбиваются на несколько токенов

  • Например:

    • "hello" = 1 токен

    • "indescribable" = 4 токена

3. Специальные символы

  • Пробелы, пунктуация и другие символы также занимают токены

  • Символ новой строки обычно составляет 1 токен

У разных провайдеров токенизаторы разные, и даже у разных моделей одного провайдера могут быть различия. Эта информация предназначена только для понимания концепции токенов.


Что такое токенизатор?

Токенизатор (Tokenizer) — это инструмент AI-модели для преобразования текста в токены. Он определяет, как входной текст разбивается на минимальные единицы, понятные модели.

Почему токенизаторы различаются у разных моделей?

1. Разные обучающие данные

  • Разные корпуса данных приводят к разным оптимизациям

  • Разный уровень поддержки многоязычности

  • Специальная оптимизация для конкретных областей (медицина, юриспруденция и т.д.)

2. Разные алгоритмы токенизации

  • BPE (Byte Pair Encoding) - OpenAI GPT series

  • WordPiece - Google BERT

  • SentencePiece - оптимален для многоязычных сценариев

3. Разные цели оптимизации

  • Одни фокусируются на эффективности сжатия

  • Другие на сохранении семантики

  • Третьи на скорости обработки

Практическое влияние

Один и тот же текст может иметь разное количество токенов в разных моделях:


Что такое модели эмбеддингов (Embedding Model)?

Базовое понятие: Модель эмбеддингов — это технология преобразования высокоразмерных дискретных данных (текст, изображения и т.д.) в низкоразмерные непрерывные векторы. Этот процесс позволяет машинам лучше понимать и обрабатывать сложные данные. Представьте, что сложный пазл упрощается до простой координатной точки, сохраняющей ключевые характеристики оригинала. В экосистеме больших моделей эмбеддинги выступают "переводчиками", преобразующими информацию, понятную человеку, в числовую форму, понятную ИИ.

Принцип работы: В обработке естественного языка модели эмбеддингов сопоставляют слова с определенными позициями в векторном пространстве. В этом пространстве семантически близкие слова автоматически группируются. Например:

  • Векторы "король" и "королева" будут близки

  • Слова для домашних животных, такие как "кот" и "собака", также окажутся рядом

  • Семантически несвязанные слова, например "автомобиль" и "хлеб", будут далеки друг от друга

Основные сценарии применения:

  • Анализ текста: классификация документов, анализ тональности

  • Рекомендательные системы: персонализированные предложения контента

  • Обработка изображений: поиск похожих изображений

  • Поисковые системы: оптимизация семантического поиска

Ключевые преимущества:

  1. Снижение размерности: упрощение сложных данных до управляемой векторной формы

  2. Сохранение семантики: сохранение ключевой смысловой информации исходных данных

  3. Вычислительная эффективность: значительное ускорение обучения и вывода моделей машинного обучения

Технологическая ценность: Модели эмбеддингов являются фундаментальным компонентом современных AI-систем, обеспечивая высококачественное представление данных для задач машинного обучения, и служат ключевой технологией для развития обработки естественного языка и компьютерного зрения.


Принцип работы моделей эмбеддингов при поиске знаний

Базовый рабочий процесс:

  1. Этап предобработки базы знаний

  • Разделение документов на фрагменты (chunks) подходящего размера

  • Преобразование каждого фрагмента в вектор с помощью модели эмбеддингов

  • Сохранение векторов и исходного текста в векторной базе данных

  1. Этап обработки запроса

  • Преобразование пользовательского вопроса в вектор

  • Поиск похожего контента в векторной базе

  • Передача найденного релевантного контента LLM в качестве контекста


Что такое MCP (Model Context Protocol)?

MCP — это открытый протокол, предназначенный для стандартизированной передачи контекстной информации крупным языковым моделям (LLM).

  • Аналогия: MCP можно представить как "USB-флешку" для мира ИИ. Мы знаем, что флешка хранит различные файлы и при подключении к компьютеру сразу готова к использованию. Аналогично, на MCP Server можно "подключать" различные "плагины", предоставляющие контекст. LLM могут запрашивать эти плагины при необходимости, получая более богатый контекст для усиления своих возможностей.

  • Сравнение с Function Tool: Традиционные Function Tools (функциональные инструменты) также предоставляют LLM внешние функции, но MCP представляет собой более высокоуровневую абстракцию. Function Tools в основном ориентированы на конкретные задачи, тогда как MCP предлагает универсальный модульный механизм получения контекста.

Ключевые преимущества MCP

  1. Стандартизация: MCP предоставляет унифицированный интерфейс и формат данных, обеспечивая бесшовное взаимодействие между различными LLM и поставщиками контекста.

  2. Модульность: Позволяет разработчикам разбивать контекстную информацию на независимые модули (плагины), упрощая управление и повторное использование.

  3. Гибкость: LLM могут динамически выбирать нужные контекстные плагины, обеспечивая более интеллектуальное и персонализированное взаимодействие.

  4. Масштабируемость: Конструкция MCP поддерживает добавление новых типов контекстных плагинов, открывая безграничные возможности для расширения функциональности LLM.


Ollama

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Ollama

Ollama — это превосходный инструмент с открытым исходным кодом, позволяющий легко запускать и управлять различными большими языковыми моделями (LLMs) на локальном устройстве. Cherry Studio теперь поддерживает интеграцию с Ollama, что даёт возможность взаимодействовать с локально развёрнутой LLM через знакомый интерфейс без зависимости от облачных сервисов!

Что такое Ollama?

Ollama — это инструмент для упрощённого развёртывания и использования больших языковых моделей (LLM). Его ключевые особенности:

  • Локальный запуск: Модели работают полностью на вашем локальном компьютере без подключения к интернету, обеспечивая конфиденциальность и безопасность данных.

  • Простота использования: Загрузка, запуск и управление моделями осуществляется простыми командами терминала.

  • Богатый выбор моделей: Поддерживает популярные модели с открытым исходным кодом: Llama 2, Deepseek, Mistral, Gemma и другие.

  • Кросс-платформенность: Работает в macOS, Windows и Linux.

  • Открытый API: Совместим с OpenAI API, что позволяет интегрировать его с другими инструментами.

Зачем использовать Ollama в Cherry Studio?

  • Без облачных сервисов: Свободно используйте возможности локальных LLM без ограничений квот и платы за облачные API.

  • Конфиденциальность данных: Все диалоговые данные остаются на вашем устройстве.

  • Работа офлайн: Взаимодействуйте с моделями без интернет-соединения.

  • Кастомизация: Выбирайте и настраивайте LLM, наиболее соответствующие вашим задачам.

Настройка Ollama в Cherry Studio

1. Установка и запуск Ollama

Сначала установите и запустите Ollama на вашем компьютере:

  • Скачивание Ollama: Перейдите на и скачайте установщик для вашей ОС. В Linux установку можно выполнить командой:

  • Установка Ollama: Следуйте инструкциям установщика.

  • Загрузка модели: В терминале скачайте нужную модель командой ollama run. Например, для модели Llama 3:

    Ollama автоматически скачает и запустит модель.

  • Поддержка работы: Обеспечьте непрерывную работу Ollama во время взаимодействия с Cherry Studio.

2. Добавление Ollama как провайдера в Cherry Studio

Добавьте Ollama в качестве пользовательского AI-провайдера:

  • Откройте настройки: В левой панели Cherry Studio нажмите "Настройки" (иконка шестерёнки).

  • Перейдите в "Модели": В настройках выберите вкладку "Модельные сервисы".

  • Добавьте провайдера: Выберите Ollama в списке.

3. Конфигурация Ollama

Настройте добавленного провайдера Ollama:

  1. Статус активности:

    • Активируйте переключатель справа от Ollama.

  2. API-ключ:

    • Для Ollama не требуется API-ключ. Оставьте поле пустым или введите любое значение.

  3. API-адрес:

    • Укажите локальный адрес Ollama. Стандартное значение:

      (измените порт при необходимости).

  4. Время активности: Укажите время (в минутах), через которое Cherry Studio автоматически разорвёт соединение с Ollama при отсутствии активности.

  5. Управление моделями:

    • Нажмите "+ Добавить" для ручного ввода названия скачанной модели.

    • Например, для модели llama3.2, скачанной командой ollama run llama3.2, введите llama3.2.

    • Используйте кнопку "Управление" для редактирования или удаления моделей.

Начало работы

После настройки выберите Ollama как провайдера и нужную модель в интерфейсе чата Cherry Studio для взаимодействия с локальной LLM!

Советы

  • Первый запуск модели: При первом запуске Ollama скачивает файлы модели — это может занять время.

  • Список моделей: Команда ollama list в терминале покажет скачанные модели.

  • Аппаратные требования: Убедитесь, что ваше устройство соответствует системным требованиям LLM (CPU, RAM, GPU).

  • Документация Ollama: Используйте ссылку Просмотр документации и моделей Ollama в настройках для быстрого перехода на официальный сайт.

Ввод: "Hello, world!"
GPT-3: 4 токена
BERT: 3 токена
Claude: 3 токена
curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3.2
http://localhost:11434/
официальный сайт
Интеграция Volcengine
Регистрация Tavily

Описание embedding-моделей

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Справочная информация о моделях внедрения (Embedding Models)

Во избежание ошибок, в данном документе значения max input для некоторых моделей указаны не как предельные. Например: когда официально указано максимальное входное значение 8k (без точного указания конкретного числа), в этом документе приведены справочные значения вроде 8191 или 8000. (Если непонятно, игнорируйте это и просто используйте справочные значения из документа)

Volcano-Doubao

Официальная справочная информация по моделям

Название
max input

Doubao-embedding

4095

Doubao-embedding-vision

8191

Doubao-embedding-large

4095

Alibaba

Официальная справочная информация по моделям

Название
max input

text-embedding-v3

8192

text-embedding-v2

2048

text-embedding-v1

2048

text-embedding-async-v2

2048

text-embedding-async-v1

2048

OpenAI

Официальная справочная информация по моделям

Название
max input

text-embedding-3-small

8191

text-embedding-3-large

8191

text-embedding-ada-002

8191

Baidu

Официальная справочная информация по моделям

Название
max input

Embedding-V1

384

tao-8k

8192

Zhipu

Официальная справочная информация по моделям

Название
max input

embedding-2

1024

embedding-3

2048

Hunyuan

Официальная справочная информация по моделям

Название
max input

hunyuan-embedding

1024

Baichuan

Официальная справочная информация по моделям

Название
max input

Baichuan-Text-Embedding

512

Together

Официальная справочная информация по моделям

Название
max input

M2-BERT-80M-2K-Retrieval

2048

M2-BERT-80M-8K-Retrieval

8192

M2-BERT-80M-32K-Retrieval

32768

UAE-Large-v1

512

BGE-Large-EN-v1.5

512

BGE-Base-EN-v1.5

512

Jina

Официальная справочная информация по моделям

Название
max input

jina-embedding-b-en-v1

512

jina-embeddings-v2-base-en

8191

jina-embeddings-v2-base-zh

8191

jina-embeddings-v2-base-de

8191

jina-embeddings-v2-base-code

8191

jina-embeddings-v2-base-es

8191

jina-colbert-v1-en

8191

jina-reranker-v1-base-en

8191

jina-reranker-v1-turbo-en

8191

jina-reranker-v1-tiny-en

8191

jina-clip-v1

8191

jina-reranker-v2-base-multilingual

8191

reader-lm-1.5b

256000

reader-lm-0.5b

256000

jina-colbert-v2

8191

jina-embeddings-v3

8191

SiliconFlow

Официальная справочная информация по моделям

Название
max input

BAAI/bge-m3

8191

netease-youdao/bce-embedding-base_v1

512

BAAI/bge-large-zh-v1.5

512

BAAI/bge-large-en-v1.5

512

Pro/BAAI/bge-m3

8191

Gemini

Официальная справочная информация по моделям

Название
max input

text-embedding-004

2048

Nomic

Официальная справочная информация по моделям

Название
max input

nomic-embed-text-v1

8192

nomic-embed-text-v1.5

8192

gte-multilingual-base

8192

Console

Официальная справочная информация по моделям

Название
max input

embedding-query

4000

embedding-passage

4000

Cohere

Официальная справочная информация по моделям

Название
max input

embed-english-v3.0

512

embed-english-light-v3.0

512

embed-multilingual-v3.0

512

embed-multilingual-light-v3.0

512

embed-english-v2.0

512

embed-english-light-v2.0

512

embed-multilingual-v2.0

256

Диалоговый интерфейс

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Интерфейс диалога

Помощники и темы

Помощники

Помощник - это персонализированные настройки для выбранной модели, такие как предустановки промптов и параметров, которые позволяют адаптировать модель под ваши ожидания в работе.

Системный помощник по умолчанию содержит универсальные параметры (без промпта). Вы можете использовать его напрямую или найти нужные предустановки на .

Темы

Помощник является родительским элементом для тем. Под одним помощником можно создавать несколько тем (диалогов). Все темы используют одинаковые параметры помощника: настройки модели, промпты и др.

Кнопки в диалоговом окне

Новая тема - создать новую тему в текущем помощнике.

Загрузить изображение/документ - загрузка изображений требует поддержки модели; документы автоматически преобразуются в текст как контекст для модели.

Поиск в интернете - требуется настройка в параметрах; результаты передаются модели как контекст. Подробнее в .

База знаний - активация базы знаний. Подробнее в .

Сервер MCP - активация функции сервера MCP. Подробнее в .

Создать изображение - по умолчанию скрыто; для моделей с поддержкой генерации изображений (например Gemini) требуется ручная активация.

Из-за технических ограничений необходимо вручную активировать кнопку для генерации изображений; она будет удалена после оптимизации функции.

Выбрать модель - переключение модели для последующих сообщений с сохранением контекста.

Быстрые фразы - пресеты часто используемых фраз, вызываемые здесь; поддерживают переменные.

Очистить сообщения - удалить всё содержимое темы.

Развернуть - увеличение диалогового окна для длинных сообщений.

Очистить контекст - обрезает доступный для модели контекст без удаления содержимого ("забывание" предыдущих сообщений).

Оценка количества токенов - отображает: текущий контекст, максимальный контекст (∞ - без ограничений), символы в поле ввода, оценочные токены.

Функция только оценивает токены; фактическое количество зависит от модели. Сверяйтесь с данными поставщика модели.

Перевод - переводит содержимое поля ввода на английский.

Настройки диалога

Настройки модели

Синхронизируются с параметрами Настройки модели в помощнике. Подробнее в .

В настройках диалога только параметры модели применяются к текущему помощнику; остальные — глобально. Например, при смене стиля сообщений на "пузырьки" он применяется ко всем темам.

Настройки сообщений

Разделитель сообщений:

Отделяет текст сообщений от панели действий.

Шрифт с засечками:

Переключение стиля шрифта. Альтернатива: .

Нумерация строк в коде:

Отображение номеров строк в блоках кода.

Сворачиваемые блоки кода:

Автоматическое сворачивание длинных блоков кода.

Перенос строк в коде:

Перенос длинных строк кода при выходе за границы окна.

Автосворачивание размышлений:

Модели с поддержкой "размышлений" автоматически сворачивают процесс мышления.

Стиль сообщений:

Переключение между стилями "пузырьки" или "список".

Стиль кода:

Изменение визуального оформления блоков кода.

Математические формулы:

  • KaTeX - быстрая рендеринг, оптимизирована для производительности;

  • MathJax - медленнее, но поддерживает больше символов и команд.

Размер шрифта сообщений:

Изменение размера шрифта в интерфейсе диалога.

Настройки ввода

Отображать оценку токенов:

Показывает оценочное количество токенов для вводимого текста (не фактическое потребление контекста, справочно).

Длинный текст как файл:

При вставке длинного текста автоматически отображается как файл, чтобы снизить помехи при вводе.

Рендеринг Markdown во вводе:

При выключении рендерится только ответ модели, не сообщения пользователя.

Перевод тройным пробелом:

Троекратное нажатие пробела переводит введённый текст на английский.

Внимание: заменяет оригинальный текст.

Язык перевода:

Настройка целевого языка для перевода (кнопка и тройной пробел).

Настройки помощника

Выберите имя помощника → правая кнопка мыши → соответствующие настройки

Редактирование помощника

Настройки применяются ко всем темам помощника.

Настройки промптов

Имя:

Пользовательское имя для идентификации помощника.

Промпт:

Текст промпта. Можно использовать в качестве образца промпты со страницы агентов.

Настройки модели

Модель по умолчанию:

Фиксированная стартовая модель для помощника. Если не задано, используется .

Приоритеты моделей: настройки помощника > глобальные настройки.

Автосброс модели:

При включении: переключение модели в теме сбрасывается на модель помощника при создании новой темы. При выключении: новая тема сохраняет последнюю использованную модель.

Пример: помощник настроен на gpt-3.5-turbo, в теме1 переключились на gpt-4o.

  • Автосброс включен: тема2 стартует с gpt-3.5-turbo

  • Автосброс выключен: тема2 стартует с gpt-4o

Температура (Temperature):

Контролирует случайность/креативность вывода (умолч. 0.7):

  • Низкая (0-0.3): предсказуемый вывод, для кода/данных

  • Средняя (0.4-0.7): баланс для диалогов

  • Высокая (0.8-1.0): креативность, возможны потери логики

Top P (Ядерная выборка):

Управляет разнообразием лексики (умолч. 1):

  • Низкое (0.1-0.3): консервативный вывод

  • Среднее (0.4-0.6): баланс

  • Высокое (0.7-1.0): богатая лексика

  • Параметры можно комбинировать

  • Экспериментируйте для оптимального результата

  • Диапазоны приблизительны, актуальные значения уточняйте у поставщиков моделей.

Контекст (Context Window)

Количество хранимых сообщений в контексте:

  • 5-10: стандартные диалоги

  • 10: сложные задачи (генерация длинных текстов)

  • Увеличение = больше токенов

Ограничение длины ответа (MaxToken)

Максимальное количество токенов на ответ.

Пример: тестирование подключения модели требует короткого ответа → MaxToken=1

Большинство моделей поддерживают до 32K токенов (уточняйте в спецификациях).

Рекомендации:

  • Диалог: 500-800

  • Короткий текст: 800-2000

  • Код: 2000-3600

  • Длинный текст: 4000+ (требует поддержки модели)

При достижении лимита ответ может обрезаться. Требуется индивидуальная настройка.

Потоковый вывод (Stream)

Постепенная отправка сгенерированных данных:

  • Включено: посимвольный вывод ("эффект пишущей машинки")

  • Выключено: полный ответ одним сообщением

Отключайте для моделей без поддержки потока (например o1-mini на ранних версиях).

Пользовательские параметры

Дополнительные параметры запроса (например presence_penalty). Используется редко.

Параметры top-p, maxtokens и stream относятся к этой категории.

Формат: Имя-Тип(текст/число)-Значение. Примеры:

  • Пользовательские параметры переопределяют встроенные

  • Исключение параметра: <param_name>:undefined

  • Уникальные параметры зависят от поставщика модели.

странице агентов
Интернет-режиме
руководстве по базе знаний
руководстве MCP
Редактировании помощника
кастомизация CSS
глобальная модель по умолчанию
документация

Загрузка клиента

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Текущая последняя стабильная версия: v1.4.11

Прямые ссылки для скачивания

Версия для Windows

Внимание: Windows 7 не поддерживает установку Cherry Studio.

Установочная версия (Setup)

Версия x64

Основные ссылки:

【Официальный сайт Cherry Studio】 【GitHub】

Запасные ссылки:

【Ссылка 1】 【Ссылка 2】 【Ссылка 3】

Версия ARM64

Основные ссылки:

【Официальный сайт Cherry Studio】 【GitHub】

Запасные ссылки:

【Ссылка 1】 【Ссылка 2】 【Ссылка 3】

Портативная версия (Portable)

Версия x64

Основные ссылки:

【Официальный сайт Cherry Studio】 【GitHub】

Запасные ссылки:

【Ссылка 1】 【Ссылка 2】 【Ссылка 3】

Версия ARM64

Основные ссылки:

【Официальный сайт Cherry Studio】 【GitHub】

Запасные ссылки:

【Ссылка 1】 【Ссылка 2】 【Ссылка 3】


Версия для macOS

Версия для процессоров Intel (x64)

Основные ссылки:

【Официальный сайт Cherry Studio】 【GitHub】

Запасные ссылки:

【Ссылка 1】 【Ссылка 2】 【Ссылка 3】

Версия для Apple Silicon (ARM64, чипы серии M)

Основные ссылки:

【Официальный сайт Cherry Studio】 【GitHub】

Запасные ссылки:

【Ссылка 1】 【Ссылка 2】 【Ссылка 3】


Версия для Linux

Версия x86_64

Основные ссылки:

【Официальный сайт Cherry Studio】 【GitHub】

Запасные ссылки:

【Ссылка 1】 【Ссылка 2】 【Ссылка 3】

Версия ARM64

Основные ссылки:

【Официальный сайт Cherry Studio】 【GitHub】

Запасные ссылки:

【Ссылка 1】 【Ссылка 2】 【Ссылка 3】


Скачивание через облачные хранилища

Quark

Сведения о моделях

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Общая справочная информация о моделях

  • Приведенная информация предназначена только для справки; при обнаружении ошибок можно связаться для исправления. Размер контекста и параметры модели могут отличаться у разных поставщиков.

  • При вводе данных в клиенте конвертируйте "k" в фактические значения (теоретически 1k = 1024 токена; 1m = 1024k токенов). Например, 8k равно 8×1024=8192 токенов. Рекомендуется на практике умножать на 1000 во избежание ошибок, например 8k = 8×1000=8000, 1m=1×1000000=1000000.

  • Знак "-" в столбце "Максимальный вывод" означает отсутствие официально подтвержденной информации о максимальном выводе для данной модели.

Название модели
Максимальный ввод
Максимальный вывод
Вызов функций
Возможности модели
Провайдер
Описание

360gpt-pro

8k

-

не поддерживается

диалог

360AI_360gpt

Лучшая модель серии 360 ZhiNao с миллиардами параметров, подходит для сложных задач в различных областях.

360gpt-turbo

7k

-

не поддерживается

диалог

360AI_360gpt

Баланс производительности и эффективности модели с миллиардами параметров, подходит для сценариев с высокими требованиями к производительности/стоимости.

360gpt-turbo-responsibility-8k

8k

-

не поддерживается

диалог

360AI_360gpt

Баланс производительности и эффективности модели с миллиардами параметров, подходит для сценариев с высокими требованиями к производительности/стоимости.

360gpt2-pro

8k

-

не поддерживается

диалог

360AI_360gpt

Лучшая модель серии 360 ZhiNao с миллиардами параметров, подходит для сложных задач в различных областях.

claude-3-5-sonnet-20240620

200k

16k

не поддерживается

диалог, распознавание изображений

Anthropic_claude

Версия от 20 июня 2024 года. Claude 3.5 Sonnet обеспечивает баланс производительности и скорости, поддерживает мультимодальный ввод.

claude-3-5-haiku-20241022

200k

16k

не поддерживается

диалог

Anthropic_claude

Версия от 22 октября 2024 года. Claude 3.5 Haiku улучшен в кодировании, использовании инструментов и рассуждении. Самая быстрая модель Anthropic, подходит для чат-ботов и автодополнения кода.

claude-3-5-sonnet-20241022

200k

8K

не поддерживается

диалог, распознавание изображений

Anthropic_claude

Версия от 22 октября 2024 года. Claude 3.5 Sonnet превосходит Opus по возможностям и быстрее Sonnet, сохраняя ту же цену. Особенно силен в программировании, науке о данных и визуальной обработке.

claude-3-5-sonnet-latest

200K

8k

не поддерживается

диалог, распознавание изображений

Anthropic_claude

Всегда указывает на последнюю версию Claude 3.5 Sonnet. Силен в программировании, науке о данных, визуальной обработке и агентских задачах.

claude-3-haiku-20240307

200k

4k

не поддерживается

диалог, распознавание изображений

Anthropic_claude

Самая быстрая и компактная модель Claude 3 с точным направленным выполнением.

claude-3-opus-20240229

200k

4k

не поддерживается

диалог, распознавание изображений

Anthropic_claude

Самая мощная модель Anthropic для решения сложных задач. Превосходная производительность, интеллект, плавность и понимание.

claude-3-sonnet-20240229

200k

8k

не поддерживается

диалог, распознавание изображений

Anthropic_claude

Версия от 29 февраля 2024 года. Особенно силен в: - Кодировании: написание, редактирование и выполнение кода с рассуждениями - Науке о данных: работа с неструктурированными данными - Визуальной обработке: интерпретация диаграмм, графиков и изображений - Агентских задачах: взаимодействие с системами

google/gemma-2-27b-it

8k

-

не поддерживается

диалог

Google_gamma

Легкие современные открытые модели от Google на основе технологий Gemini. Подходят для генерации текста, вопросов, суммаризации.

google/gemma-2-9b-it

8k

-

не поддерживается

диалог

Google_gamma

Легкие современные открытые модели от Google. Модель на 9B параметров обучена на 8 триллионах токенов.

gemini-1.5-pro

2m

8k

не поддерживается

диалог

Google_gemini

Последняя стабильная версия Gemini 1.5 Pro. Обрабатывает до 60 тысяч строк кода или 2000 страниц текста. Подходит для сложных задач.

gemini-1.0-pro-001

33k

8k

не поддерживается

диалог

Google_gemini

Стабильная версия Gemini 1.0 Pro для обработки текста и кода. Прекращение поддержки 15 февраля 2025 года.

gemini-1.0-pro-002

32k

8k

не поддерживается

диалог

Google_gemini

Стабильная версия Gemini 1.0 Pro для обработки текста и кода. Прекращение поддержки 15 февраля 2025 года.

gemini-1.0-pro-latest

33k

8k

не поддерживается

диалог, устаревшая или скоро устареет

Google_gemini

Последняя версия Gemini 1.0 Pro. Прекращение поддержки 15 февраля 2025 года.

gemini-1.0-pro-vision-001

16k

2k

не поддерживается

диалог

Google_gemini

Визуальная версия Gemini 1.0 Pro. Прекращение поддержки 15 февраля 2025 года.

gemini-1.0-pro-vision-latest

16k

2k

не поддерживается

распознавание изображений

Google_gemini

Последняя визуальная версия Gemini 1.0 Pro. Прекращение поддержки 15 февраля 2025 года.

gemini-1.5-flash

1m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Стабильная версия Gemini 1.5 Flash. Сбалансированная мультимодальная модель, обрабатывающая аудио, изображения, видео и текст.

gemini-1.5-flash-001

1m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Стабильная версия с фиксированными характеристиками для производственных сред.

gemini-1.5-flash-002

1m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Стабильная версия с фиксированными характеристиками для производственных сред.

gemini-1.5-flash-8b

1m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Gemini 1.5 Flash-8B — мультимодальная модель Google на 8 млрд параметров. Оптимизирована для скорости и экономической эффективности с удвоенными ограничениями скорости.

gemini-1.5-flash-exp-0827

1m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Экспериментальная версия Gemini 1.5 Flash, подходит для тестирования, не рекомендуется для производства.

gemini-1.5-flash-latest

1m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Самая передовая версия Gemini 1.5 Flash, подходит для тестирования, не рекомендуется для производства.

gemini-1.5-pro-001

2m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Стабильная версия Gemini 1.5 Pro для производственных сред.

gemini-1.5-pro-002

2m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Стабильная версия Gemini 1.5 Pro для производственных сред.

gemini-1.5-pro-exp-0801

2m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Экспериментальная версия Gemini 1.5 Pro. Обрабатывает до 60 тысяч строк кода или 2000 страниц текста.

gemini-1.5-pro-exp-0827

2m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Экспериментальная версия Gemini 1.5 Pro. Обрабатывает до 60 тысяч строк кода или 2000 страниц текста.

gemini-1.5-pro-latest

2m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Последняя версия, указывает на последнюю снимок версии.

gemini-2.0-flash

1m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Gemini 2.0 Flash от Google предлагает улучшенную скорость первого токена и качество, превосходящее Gemini Pro 1.5.

gemini-2.0-flash-exp

100k

8k

поддерживается

диалог, распознавание изображений

Google_gemini

Представляет мультимодальный API, улучшенную скорость, производительность и функции генерации изображений.

gemini-2.0-flash-lite-preview-02-05

1M

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Gemini 2.0 Flash-Lite предлагает лучшее качество при той же скорости, что и 1.5 Flash, с окном контекста в 1 млн токенов и упрощенной ценовой политикой.

gemini-2.0-flash-thinking-exp

40k

8k

не поддерживается

диалог, рассуждение

Google_gemini

Экспериментальная модель, генерирующая процесс "мышления" для улучшенных рассуждений.

gemini-2.0-flash-thinking-exp-01-21

1m

64k

не поддерживается

диалог, рассуждение

Google_gemini

Модель от Google с усиленными возможностями рассуждений в математике и программировании при контексте в 1 млн токенов.

gemini-2.0-flash-thinking-exp-1219

40k

8k

не поддерживается

диалог, рассуждение, распознавание изображений

Google_gemini

Экспериментальная модель, генерирующая процесс "мышления" для улучшенных рассуждений.

gemini-2.0-pro-exp-01-28

2m

64k

не поддерживается

диалог, распознавание изображений

Google_gemini

Предзагрузка модели, еще не доступна

gemini-2.0-pro-exp-02-05

2m

8k

не поддерживается

диалог, распознавание изображений

Google_gemini

Экспериментальная модель от февраля 2024 года с

Настройка Obsidian

数据设置→Obsidian配置

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Учебное руководство по настройке Obsidian

Cherry Studio поддерживает интеграцию с Obsidian, позволяя экспортировать как полные диалоги, так и отдельные сообщения в ваше хранилище Obsidian.

Для этого не требуется установка дополнительных плагинов Obsidian. Однако поскольку механизм экспорта Cherry Studio в Obsidian аналогичен принципу работы Obsidian Web Clipper, мы рекомендуем пользователям обновить Obsidian до последней версии (текущая версия должна быть не ниже 1.7.2), чтобы избежать сбоев импорта при экспорте длинных диалогов.

Новое руководство

По сравнению со старым методом экспорта в Obsidian, новая функция автоматически определяет путь к хранилищу, избавляя от необходимости вручную вводить название хранилища и папки.

Шаг 1: Настройка Cherry Studio

Откройте Cherry Studio → Настройки → Настройки данных → Конфигурация Obsidian. В выпадающем списке автоматически отобразятся все открытые на вашем компьютере хранилища Obsidian. Выберите целевое хранилище:

Шаг 2: Экспорт диалогов

Экспорт полного диалога

В интерфейсе диалогов Cherry Studio щелкните правой кнопкой мыши по диалогу, выберите Экспортировать → Экспортировать в Obsidian:

Откроется окно для настройки свойств заметки, местоположения папки в Obsidian и метода обработки:

  • Хранилище: выберите другое хранилище из выпадающего меню

  • Путь: выберите папку для экспортируемой заметки

  • Свойства заметки в Obsidian (Properties):

    • Теги (tags)

    • Дата создания (created)

    • Источник (source)

  • Методы обработки при экспорте в Obsidian:

    • Создать (перезаписать при наличии): создает новую заметку в указанной папке, перезаписывая существующую

    • Добавить в начало: добавляет содержимое диалога в начало существующей заметки

    • Добавить в конец: добавляет содержимое диалога в конец существующей заметки

Свойства (Properties) экспортируются только при первом методе обработки.

Настройка свойств заметки
Выбор пути
Выбор метода обработки

После выбора всех параметров нажмите "ОК" для экспорта диалога в указанную папку хранилища Obsidian.

Экспорт отдельного сообщения

Для экспорта отдельного сообщения нажмите на меню с тремя полосками под сообщением, выберите Экспортировать → Экспортировать в Obsidian:

Экспорт отдельного сообщения

Откроется аналогичное окно для настройки свойств и метода обработки, как при экспорте полного диалога. Действуйте по инструкции выше.

Успешный экспорт

🎉 Поздравляем! Вы завершили настройку интеграции Cherry Studio с Obsidian и выполнили полный процесс экспорта. Наслаждайтесь!

Экспорт в Obsidian
Просмотр результата экспорта

Старое руководство (для Cherry Studio<v1.1.13)

Шаг 1: Подготовка Obsidian

Откройте хранилище Obsidian и создайте папку для экспортируемых диалогов (в примере используется папка Cherry Studio):

Запомните название хранилища, выделенное в нижнем левом углу.

Шаг 2: Настройка Cherry Studio

В Cherry Studio → Настройки → Настройки данных → Конфигурация Obsidian введите полученные на Шаге 1 название хранилища и папки:

Поле Глобальные теги необязательно – здесь можно указать теги для всех экспортируемых заметок.

Шаг 3: Экспорт диалогов

Экспорт полного диалога

В интерфейсе диалогов щелкните правой кнопкой мыши по диалогу, выберите Экспортировать → Экспортировать в Obsidian.

Экспорт полного диалога

В открывшемся окне настройте свойства заметки и выберите метод обработки:

  • Создать (перезаписать при наличии): создает новую заметку в указанной папке

  • Добавить в начало: добавляет контент в начало существующей заметки

  • Добавить в конец: добавляет контент в конец существующей заметки

Настройка свойств заметки

Свойства (Properties) экспортируются только при первом методе обработки.

Экспорт отдельного сообщения

Нажмите на меню с тремя полосками под сообщением, выберите Экспортировать → Экспортировать в Obsidian.

Экспорт отдельного сообщения

Действуйте по инструкции выше для настройки свойств и метода обработки.

Успешный экспорт

🎉 Поздравляем! Вы завершили настройку интеграции Cherry Studio с Obsidian. Наслаждайтесь возможностями!

Экспорт в Obsidian
Просмотр результата экспорта

Локальное развёртывание SearXNG

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Развертывание и настройка SearXNG

CherryStudio поддерживает веб-поиск через SearXNG — проект с открытым исходным кодом, который можно развернуть локально или на сервере, что отличается от других конфигураций, требующих API-провайдеров.

Ссылка на проект SearXNG: SearXNG

Преимущества SearXNG

  • Открытый исходный код, бесплатный, не требует API

  • Относительно высокая конфиденциальность

  • Высокая степень кастомизации

Локальное развертывание

I. Прямое развертывание через Docker

Поскольку SearXNG не требует сложной настройки окружения, можно обойтись без docker compose. Достаточно просто предоставить свободный порт. Самый быстрый способ — использовать Docker для загрузки и развертывания образа.

1. Установка и настройка docker

После установки выберите путь для хранения образов:

2. Поиск и загрузка образа SearXNG

Введите в поиск searxng:

Загрузите образ:

3. Запуск образа

После успешной загрузки перейдите на вкладку Images:

Выберите загруженный образ и нажмите "Run":

Откройте настройки для конфигурации:

В качестве примера используем порт 8085:

После успешного запуска нажмите на ссылку для открытия интерфейса SearXNG:

Появление этой страницы означает успешное развертывание:

Развертывание на сервере

Учитывая, что установка Docker в Windows — довольно сложный процесс, пользователи могут развернуть SearXNG на сервере, чтобы предоставить к нему доступ другим. К сожалению, SearXNG пока не поддерживает аутентификацию, из-за чего злоумышленники могут сканировать и злоупотреблять вашим экземпляром.

Поэтому Cherry Studio теперь поддерживает HTTP Basic Authentication (RFC7617). Если вы развертываете SearXNG в публичной сети, обязательно настройте HTTP Basic Auth через обратный прокси (например, Nginx). Далее приведен краткий гайд, требующий базовых знаний администрирования Linux.

Развертывание SearXNG

Аналогично используем Docker для развертывания. Предположим, что вы установили последнюю версию Docker CE по официальной инструкции. Команды ниже подходят для свежей установки на Debian:

sudo apt update
sudo apt install git -y

# Клонируем официальный репозиторий
cd /opt
git clone https://github.com/searxng/searxng-docker.git
cd /opt/searxng-docker

# Установите false, если у сервера низкая пропускная способность
export IMAGE_PROXY=true

# Редактируем конфиг
cat <<EOF > /opt/searxng-docker/searxng/settings.yml
# see https://docs.searxng.org/admin/settings/settings.html#settings-use-default-settings
use_default_settings: true
server:
  # base_url is defined in the SEARXNG_BASE_URL environment variable, see .env and docker-compose.yml
  secret_key: $(openssl rand -hex 32)
  limiter: false  # can be disabled for a private instance
  image_proxy: $IMAGE_PROXY
ui:
  static_use_hash: true
redis:
  url: redis://redis:6379/0
search:
  formats:
    - html
    - json
EOF

Если нужно изменить порт или использовать локальный nginx, отредактируйте docker-compose.yaml:

version: "3.7"

services:
# Удалите блок ниже, если используете локальный Nginx вместо Caddy
  caddy:
    container_name: caddy
    image: docker.io/library/caddy:2-alpine
    network_mode: host
    restart: unless-stopped
    volumes:
      - ./Caddyfile:/etc/caddy/Caddyfile:ro
      - caddy-data:/data:rw
      - caddy-config:/config:rw
    environment:
      - SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}
      - SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}
    cap_drop:
      - ALL
    cap_add:
      - NET_BIND_SERVICE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"
# Удалите блок выше, если используете локальный Nginx вместо Caddy
  redis:
    container_name: redis
    image: docker.io/valkey/valkey:8-alpine
    command: valkey-server --save 30 1 --loglevel warning
    restart: unless-stopped
    networks:
      - searxng
    volumes:
      - valkey-data2:/data
    cap_drop:
      - ALL
    cap_add:
      - SETGID
      - SETUID
      - DAC_OVERRIDE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

  searxng:
    container_name: searxng
    image: docker.io/searxng/searxng:latest
    restart: unless-stopped
    networks:
      - searxng
    # По умолчанию пробрасывается на порт 8080 хоста. Для порта 8000 измените на "127.0.0.1:8000:8080"
    ports:
      - "127.0.0.1:8080:8080"
    volumes:
      - ./searxng:/etc/searxng:rw
    environment:
      - SEARXNG_BASE_URL=https://${SEARXNG_HOSTNAME:-localhost}/
      - UWSGI_WORKERS=${SEARXNG_UWSGI_WORKERS:-4}
      - UWSGI_THREADS=${SEARXNG_UWSGI_THREADS:-4}
    cap_drop:
      - ALL
    cap_add:
      - CHOWN
      - SETGID
      - SETUID
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

networks:
  searxng:

volumes:
# Удалите блок ниже, если используете локальный Nginx
  caddy-data:
  caddy-config:
# Удалите блок выше, если используете локальный Nginx
  valkey-data2:

Запустите через docker compose up -d. Логи можно посмотреть командой docker compose logs -f searxng.

Настройка Nginx обратного прокси и HTTP Basic Auth

При использовании панелей управления (например, Baota или 1Panel) обратитесь к их документации по добавлению сайта и настройке Nginx. Затем найдите раздел конфигурации и внесите изменения:

server
{
    listen 443 ssl;

    # Укажите ваше доменное имя
    server_name search.example.com;

    # index index.html;
    # root /data/www/default;

    # Для SSL необходимы эти строки
    ssl_certificate    /path/to/your/cert/fullchain.pem;
    ssl_certificate_key    /path/to/your/cert/privkey.pem;

    # HSTS
    # add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload";

    # Обратный прокси
    location / {
        # Добавьте эти две строки
        auth_basic "Please enter your username and password";
        auth_basic_user_file /etc/nginx/conf.d/search.htpasswd;

        proxy_http_version 1.1;
        proxy_set_header Connection "";
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Forwarded-For $proxy_protocol_addr;
        proxy_pass http://127.0.0.1:8000;
        client_max_body_size 0;
    }

    # access_log  ...;
    # error_log  ...;
}

Предположим, конфиги Nginx хранятся в /etc/nginx/conf.d. Сохраните там же файл паролей.

Выполните команду (замените example_name и example_password):

echo "example_name:$(openssl passwd -5 'example_password')" > /etc/nginx/conf.d/search.htpasswd

Перезагрузите Nginx (или перечитайте конфиги).

Откройте страницу — должна появиться запрос на аутентификацию. Введите указанные учетные данные для проверки.

Настройка в Cherry Studio

После успешного развертывания SearXNG перейдите к настройкам CherryStudio.

В разделе настроек веб-поиска выберите Searxng:

При вводе локального адреса может появиться ошибка проверки — это нормально:

Стандартная конфигурация не поддерживает формат JSON, поэтому данные не могут быть получены. Требуется изменить конфиг.

В Docker перейдите на вкладку Files и найдите папку с тегами:

Прокрутите вниз до другой папки с тегами:

Найдите файл конфигурации settings.yml:

Откройте редактор:

На строке 78 виден только один тип данных html:

Добавьте тип json, сохраните и перезапустите образ:

Повторно проверьте в Cherry Studio — проверка пройдена:

Адрес можно указать локальный: http://localhost:порт Или Docker: http://host.docker.internal:порт

Для серверной конфигурации с обратным прокси и включенным форматом json, при проверке с включенной HTTP Basic Auth будет возвращена ошибка 401:

Добавьте HTTP Basic Auth в клиенте, введя ранее установленные учетные данные:

Проверка должна завершиться успешно.

Дополнительные настройки

Теперь SearXNG может выполнять веб-поиск. Для кастомизации поисковых систем потребуется ручная настройка:

Эти настройки не влияют на интеграцию с крупными языковыми моделями:

Чтобы настроить интеграцию с языковыми моделями, измените конфигурационный файл:

Пример языкового конфига:

Для редактирования больших блоков скопируйте содержимое в локальный редактор, а затем вставьте обратно.

Распространенные причины сбоя проверки

Не добавлен формат JSON

Добавьте json в настройках:

Неправильная настройка поисковой системы

Cherry Studio по умолчанию использует движки, поддерживающие web и general. Google недоступен в некоторых регионах. Чтобы принудительно использовать Baidu, добавьте конфиг:

use_default_settings:
  engines:
    keep_only:
      - baidu
engines:
  - name: baidu
    engine: baidu 
    categories: 
      - web
      - general
    disabled: false

Слишком высокая частота запросов

Ограничитель в SearXNG блокирует API. Установите limiter в false:

Cherry Studio - 全能的AI助手Cherry Studio
Cherry Studio - 全能的AI助手Cherry Studio

Бенчмарки моделей

Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.

Это автоматически генерируемая таблица лидеров на основе данных Chatbot Arena (lmarena.ai).

Последнее обновление данных: 2025-07-14 11:44:01 UTC / 2025-07-14 19:44:01 CST (Пекинское время)

Нажмите на название модели в таблице лидеров, чтобы перейти на её страницу с подробностями или попробовать демо.

Таблица лидеров

Рейтинг(UB)
Рейтинг(StyleCtrl)
Название модели
Баллы
Диапазон достоверности
Голосов
Провайдер
Лицензия
Конец знаний

1

1

1477

+5/-5

15,769

Google

Proprietary

Нет данных

2

2

1446

+4/-5

13,997

Google

Proprietary

Нет данных

3

3

1429

+4/-4

24,237

OpenAI

Proprietary

Нет данных

3

2

1427

+3/-4

21,965

OpenAI

Proprietary

Нет данных

3

6

1425

+4/-5

12,847

DeepSeek

MIT

Нет данных

3

7

1422

+3/-4

25,763

xAI

Proprietary

Нет данных

5

6

1418

+4/-4

21,209

Google

Proprietary

Нет данных

6

4

1414

+5/-4

15,271

OpenAI

Proprietary

Нет данных

9

7

1398

+5/-5

17,002

Google

Proprietary

Нет данных

9

11

1392

+5/-4

15,758

Alibaba

Apache 2.0

Нет данных

11

6

1384

+3/-4

18,275

OpenAI

Proprietary

Нет данных

11

12

1382

+3/-3

21,008

DeepSeek

MIT

Нет данных

11

17

1380

+6/-5

8,247

Tencent

Proprietary

Нет данных

11

11

1376

+6/-6

8,058

MiniMax

Apache 2.0

Нет данных

13

12

1374

+3/-5

19,430

DeepSeek

MIT

Нет данных

14

19

1370

+4/-4

19,980

Mistral

Proprietary

Нет данных

14

6

1370

+4/-4

20,056

Anthropic

Proprietary

Нет данных

15

23

1367

+4/-4

14,597

Alibaba

Apache 2.0

Нет данных

16

11

1366

+2/-3

29,038

OpenAI

Proprietary

2023/10

16

11

1363

+4/-4

17,974

OpenAI

Proprietary

Нет данных

17

23

1363

+3/-3

32,074

Alibaba

Proprietary

Нет данных

18

25

1363

+3/-3

36,915

Google

Proprietary

Нет данных

18

31

1359

+6/-5

10,561

xAI

Proprietary

Нет данных

19

25

1360

+3/-3

26,443

Google

Gemma

Нет данных

24

31

1344

+12/-7

4,074

Alibaba

Apache 2.0

Нет данных

25

19

1351

+3/-4

33,177

OpenAI

Proprietary

2023/10

25

12

1343

+4/-5

16,050

Anthropic

Proprietary

Нет данных

26

25

1340

+4/-4

19,404

OpenAI

Proprietary

Нет данных

26

32

1337

+7/-8

3,976

Google

Gemma

Нет данных

26

23

1337

+5/-4

17,292

OpenAI

Proprietary

Нет данных

26

31

1334

+4/-4

22,841

DeepSeek

DeepSeek

Нет данных

26

31

1332

+13/-13

2,061

Mistral

Apache 2.0

Нет данных

28

38

1333

+4/-5

18,386

Alibaba

Apache 2.0

Нет данных

29

36

1327

+8/-6

6,028

Zhipu

Proprietary

Нет данных

30

31

1329

+4/-4

26,104

Google

Proprietary

Нет данных

30

56

1327

+5/-7

7,517

Amazon

Proprietary

Нет данных

30

32

1326

+7/-6

6,055

Alibaba

Proprietary

Нет данных

30

31

1321

+10/-11

2,656

Nvidia

Nvidia Open Model

Нет данных

32

32

1326

+3/-3

24,524

Cohere

CC-BY-NC-4.0

Нет данных

33

42

1323

+4/-4

14,229

Alibaba

Apache 2.0

Нет данных

33

38

1321

+7/-8

5,126

StepFun

Proprietary

Нет данных

33

31

1318

+8/-10

2,452

Tencent

Proprietary

Нет данных

34

39

1312

+11/-12

2,371

Nvidia

Nvidia

Нет данных

35

39

1320

+2/-2

54,951

OpenAI

Proprietary

2023/10

35

32

1319

+3/-3

36,971

OpenAI

Proprietary

Нет данных

38

32

1318

+2/-2

58,645

Google

Proprietary

Нет данных

38

33

1312

+8/-10

2,510

Tencent

Proprietary

Нет данных

41

18

1313

+4/-4

25,955

Anthropic

Proprietary

Нет данных

43

58

1307

+7/-8

7,379

Google

Gemma

Нет данных

44

21

1306

+4/-3

30,677

Anthropic

Proprietary

Нет данных

47

48

1304

+2/-2

67,084

xAI

Proprietary

2024/3

47

50

1303

+4/-3

28,968

01 AI

Proprietary

Нет данных

48

35

1301

+2/-2

117,747

OpenAI

Proprietary

2023/10

48

63

1298

+4/-6

10,715

Alibaba

Proprietary

Нет данных

50

25

1299

+2/-2

77,905

Anthropic

Proprietary

2024/4

50

55

1295

+6/-6

7,243

DeepSeek

DeepSeek

Нет данных

52

74

1292

+8/-9

4,321

Google

Gemma

Нет данных

55

43

1292

+4/-4

18,010

Meta

Llama 4

Нет данных

55

64

1291

+3/-3

26,074

NexusFlow

NexusFlow

Нет данных

55

60

1290

+3/-3

27,788

Zhipu AI

Proprietary

Нет данных

55

49

1288

+8/-7

3,856

Tencent

Proprietary

Нет данных

55

56

1287

+6/-8

6,302

OpenAI

Proprietary

Нет данных

56

70

1287

+3/-3

37,021

Google

Proprietary

Нет данных

56

79

1284

+5/-7

7,577

Nvidia

Llama 3.1

2023/12

57

61

1288

+2/-2

72,473

OpenAI

Proprietary

2023/10

59

41

1285

+2/-3

43,788

Meta

Llama 3.1 Community

2023/12

60

36

1284

+2/-2

86,159

Anthropic

Proprietary

2024/4

60

42

1283

+2/-2

63,038

Meta

Llama 3.1 Community

2023/12

61

41

1282

+3/-2

52,144

Google

Proprietary

Online

61

60

1277

+8/-10

4,014

Tencent

Proprietary

Нет данных

62

79

1282

+2/-3

55,442

xAI

Proprietary

2024/3

62

43

1281

+2/-2

47,973

OpenAI

Proprietary

2023/10

63

63

1279

+3/-4

17,432

Alibaba

Qwen

Нет данных

63

56

1277

+6/-6

7,451

Meta

Llama

Нет данных

71

79

1271

+7/-6

7,367

Mistral

Apache 2.0

Нет данных

72

57

1276

+2/-2

82,435

Google

Proprietary

2023/11

72

74

1274

+3/-3

26,344

DeepSeek

DeepSeek

Нет данных

72

61

1273

+3/-3

47,631

Meta

Llama-3.3

Нет данных

72

79

1273

+3/-3

41,519

Alibaba

Qwen

2024/9

73

56

1272

+2/-2

102,133

OpenAI

Proprietary

2023/12

78

86

1260

+10/-10

3,010

Ai2

Llama 3.1

Нет данных

79

64

1267

+2/-2

48,217

Mistral

Mistral Research

2024/7

79

79

1266

+4/-3

20,580

NexusFlow

CC-BY-NC-4.0

2024/7

79

61

1266

+2/-2

103,748

OpenAI

Proprietary

2023/4

79

79

1265

+3/-3

29,633

Mistral

MRL

Нет данных

79

62

1258

+9/-8

4,287

Mistral

Proprietary

Нет данных

80

86

1264

+2/-2

58,637

Meta

Llama 3.1 Community

2023/12

81

58

1263

+2/-1

202,641

Anthropic

Proprietary

2023/8

83

87

1261

+3/-3

26,371

Amazon

Proprietary

Нет данных

83

65

1261

+2/-2

97,079

OpenAI

Proprietary

2023/12

89

60

1254

+2/-2

49,399

Anthropic

Propretary

Нет данных

89

86

1251

+6/-7

7,948

Reka AI

Proprietary

Нет данных

89

88

1246

+7/-10

4,210

Tencent

Proprietary

Нет данных

92

90

1243

+2/-2

65,661

Google

Proprietary

2023/11

93

88

1237

+4/-6

9,125

AI21 Labs

Jamba Open

2024/3

93

96

1233

+8/-6

5,730

Alibaba

Apache 2.0

Нет данных

94

89

1236

+2/-2

79,538

Google

Gemma license

2024/6

94

98

1233

+4/-4

15,321

Mistral

Apache 2.0

Нет данных

94

106

1233

+3/-4

20,646

Amazon

Proprietary

Нет данных

94

90

1232

+5/-5

10,548

Princeton

MIT

2024/7

94

86

1228

+9/-10

3,889

Nvidia

Llama 3.1

2023/12

95

94

1231

+4/-6

10,535

Cohere

CC-BY-NC-4.0

2024/8

96

110

1228

+3/-3

37,697

Google

Proprietary

Нет данных

97

106

1222

+9/-11

3,460

Allen AI

Apache-2.0

Нет данных

99

105

1225

+3/-3

28,768

Cohere

CC-BY-NC-4.0

Нет данных

99

96

1225

+3/-4

20,608

Nvidia

NVIDIA Open Model

2023/6

99

99

1222

+5/-5

10,221

Zhipu AI

Proprietary

Нет данных

101

96

1221

+5/-5

8,132

Reka AI

Proprietary

Нет данных

102

110

1221

+4/-4

25,213

Microsoft

MIT

Нет данных

103

97

1222

+2/-1

163,629

Meta

Llama 3 Community

2023/12

106

96

1217

+2/-2

113,067

Anthropic

Proprietary

2023/8

109

119

1214

+3/-3

20,654

Amazon

Proprietary

Нет данных

111

120

1205

+10/-10

2,901

Tencent

Proprietary

Нет данных

112

121

1201

+10/-9

3,074

Ai2

Llama 3.1

Нет данных

113

109

1208

+2/-2

57,197

Google

Gemma license

2024/2

113

106

1206

+2/-2

80,846

Cohere

CC-BY-NC-4.0

2024/3

114

109

1203

+3/-2

38,872

Alibaba

Qianwen LICENSE

2024/6

114

92

1202

+2/-3

55,962

OpenAI

Proprietary

2021/9

114

119

1198

+7/-6

5,111

Mistral

MRL

Нет данных

115

121

1196

+7/-4

10,391

Cohere

CC-BY-NC-4.0

Нет данных

116

110

1196

+4/-5

10,851

Cohere

CC-BY-NC-4.0

2024/8

117

111

1195

+2/-2

122,309

Anthropic

Proprietary

2023/8

117

105

1194

+4/-4

15,753

DeepSeek AI

DeepSeek License

2024/6

117

120

1192

+5/-5

9,274

AI21 Labs

Jamba Open

2024/3

118

136

1192

+2/-2

52,578

Meta

Llama 3.1 Community

2023/12

126

105

1179

+2/-2

91,614

OpenAI

Proprietary

2021/9

126

121

1177

+3/-3

27,430

Alibaba

Qianwen LICENSE

2024/4

126

153

1169

+11/-10

3,410

Alibaba

Apache 2.0

Нет данных

127

136

1173

+4/-3

25,135

01 AI

Apache-2.0

2024/5

127

120

1173

+2/-2

64,926

Mistral

Proprietary

Нет данных

127

121

1172

+4/-5

16,027

Reka AI

Proprietary

Online

130

131

1168

+2/-2

109,056

Meta

Llama 3 Community

2023/3

130

143

1165

+4/-5

10,599

InternLM

Other

2024/8

131

125

1164

+2/-3

56,398

Cohere

CC-BY-NC-4.0

2024/3

131

131

1164

+3/-3

35,556

Mistral

Proprietary

Нет данных

131

124

1163

+3/-2

53,751

Mistral

Apache 2.0

2024/4

131

127

1163

+4/-4

25,803

Reka AI

Proprietary

2023/11

131

125

1163

+3/-2

40,658

Alibaba

Qianwen LICENSE

2024/2

131

128

1159

+8/-11

3,289

IBM

Apache 2.0

Нет данных

133

143

1160

+2/-3

48,892

Google

Gemma license

2024/7

140

124

1147

+4/-4

18,800

Google

Proprietary

2023/4

140

134

1143

+8/-7

4,854

HuggingFace

Apache 2.0

2024/4

141

137

1141

+3/-4

22,765

Alibaba

Qianwen LICENSE

2024/2

141

145

1135

+8/-10

3,380

IBM

Apache 2.0

Нет данных

142

143

1139

+4/-3

26,105

Microsoft

MIT

2023/10

142

154

1135

+3/-5

16,676

Nexusflow

Apache-2.0

2024/3

145

143

1130

+2/-2

76,126

Mistral

Apache 2.0

2023/12

145

149

1127

+4/-6

15,917

01 AI

Yi License

2023/6

145

133

1126

+6/-7

6,557

Google

Proprietary

2023/4

146

147

1125

+4/-4

18,687

Alibaba

Qianwen LICENSE

2024/2

147

147

1122

+6/-7

8,383

Microsoft

Llama 2 Community

2023/8

148

133

1122

+2/-2

68,867

OpenAI

Proprietary

2021/9

148

143

1119

+3/-3

33,743

Databricks

DBRX LICENSE

2023/12

148

151

1119

+7/-6

8,390

Meta

Llama 3.2

2023/12

148

151

1118

+4/-4

18,476

Microsoft

MIT

2023/10

149

152

1115

+6/-6

6,658

AllenAI/UW

AI2 ImpACT Low-risk

2023/11

152

143

1109

+8/-6

7,002

IBM

Apache 2.0

Нет данных

156

162

1109

+3/-3

39,595

Meta

Llama 2 Community

2023/7

156

149

1107

+4/-5

12,990

OpenChat

Apache-2.0

2024/1

156

156

1107

+4/-4

22,936

LMSYS

Non-commercial

2023/8

157

149

1106

+3/-3

34,173

Snowflake

Apache 2.0

2024/4

157

160

1104

+4/-5

10,415

UC Berkeley

CC-BY-NC-4.0

2023/11

157

166

1100

+7/-9

3,836

NousResearch

Apache-2.0

2024/1

158

151

1100

+4/-4

25,070

Google

Gemma license

2024/2

158

165

1097

+9/-9

3,636

Nvidia

Llama 2 Community

2023/11

162

151

1093

+9/-8

4,988

DeepSeek AI

DeepSeek License

2023/11

162

151

1092

+7/-6

8,106

OpenChat

Apache-2.0

2023/11

163

153

1090

+7/-8

5,088

NousResearch

Apache-2.0

2023/11

163

158

1090

+8/-7

7,191

IBM

Apache 2.0

Нет данных

164

169

1088

+4/-3

20,067

Mistral

Apache-2.0

2023/12

164

168

1087

+4/-5

12,808

Microsoft

MIT

2023/10

164

169

1086

+9/-7

4,872

Alibaba

Qianwen LICENSE

2024/2

164

165

1078

+14/-14

1,714

Cognitive Computations

Apache-2.0

2023/10

165

145

1083

+4/-4

17,036

OpenAI

Proprietary

2021/9

166

168

1078

+9/-9

4,286

Upstage AI

CC-BY-NC-4.0

2023/11

167

173

1082

+3/-4

21,097

Microsoft

MIT

2023/10

169

174

1079

+4/-4

19,722

Meta

Llama 2 Community

2023/7

172

169

1075

+7/-7

7,176

Microsoft

Llama 2 Community

2023/7

175

179

1070

+7/-6

8,523

Meta

Llama 3.2

2023/12

176

178

1069

+6/-4

11,321

HuggingFace

MIT

2023/10

176

172

1062

+11/-11

2,375

HuggingFace

Apache 2.0

Нет данных

176

169

1061

+11/-12

2,644

MosaicML

CC-BY-NC-SA-4.0

2023/6

176

177

1057

+15/-15

1,192

Meta

Llama 2 Community

2024/1

177

173

1056

+12/-13

1,811

HuggingFace

MIT

2023/10

180

178

1059

+6/-7

7,509

Meta

Llama 2 Community

2023/7

180

168

1050

+15/-15

1,327

TII

Falcon-180B TII License

2023/9

181

172

1058

+4/-4

19,775

LMSYS

Llama 2 Community

2023/7

181

178

1053

+4/-6

9,176

Google

Gemma license

2024/2

181

178

1053

+5/-5

21,622

Microsoft

MIT

2023/10

181

193

1053

+5/-5

14,532

Meta

Llama 2 Community

2023/7

181

171

1051

+8/-8

5,065

Alibaba

Qianwen LICENSE

2023/8

181

181

1049

+11/-11

2,996

UW

Non-commercial

2023/5

190

182

1037

+6/-5

11,351

Google

Gemma license

2024/2

191

185

1033

+7/-10

5,276

Together AI

Apache 2.0

2023/12

191

199

1031

+8/-7

6,503

Allen AI

Apache-2.0

2024/2

194

192

1023

+5/-5

9,142

Mistral

Apache 2.0

2023/9

194

193

1021

+6/-8

7,017

LMSYS

Llama 2 Community

2023/7

194

182

1019

+7/-5

8,713

Google

Proprietary

2021/6

199

197

1005

+8/-9

4,918

Google

Gemma license

2024/2

199

194

1004

+5/-7

7,816

Alibaba

Qianwen LICENSE

2024/2

201

200

980

+8/-6

7,020

UC Berkeley

Non-commercial

2023/4

201

201

971

+7/-9

4,763

Tsinghua

Apache-2.0

2023/10

202

201

948

+16/-16

1,788

Nomic AI

Non-commercial

2023/3

203

201

944

+9/-9

3,997

MosaicML

CC-BY-NC-SA-4.0

2023/5

203

206

940

+10/-10

2,713

Tsinghua

Apache-2.0

2023/6

203

206

937

+9/-8

4,920

RWKV

Apache 2.0

2023/4

207

201

917

+9/-7

5,864

Stanford

Non-commercial

2023/3

207

207

909

+9/-7

6,368

OpenAssistant

Apache 2.0

2023/4

208

209

895

+8/-10

4,983

Tsinghua

Non-commercial

2023/3

209

209

884

+9/-9

4,288

LMSYS

Apache 2.0

2023/4

211

212

856

+11/-11

3,336

Stability AI

CC-BY-NC-SA-4.0

2023/4

211

209

838

+10/-10

3,480

Databricks

MIT

2023/4

212

210

815

+14/-9

2,446

Meta

Non-commercial

2023/2

Объяснение

  • Рейтинг(UB): Рейтинг, рассчитанный на основе модели Брэдли-Терри. Отражает общую производительность модели на арене и предоставляет оценку верхней границы рейтинга Elo, помогая понять её потенциальную конкурентоспособность.

  • Рейтинг(StyleCtrl): Рейтинг с контролем стиля диалога. Минимизирует предвзятость, связанную со стилем ответов модели (например, краткость или многословность), более чисто оценивая базовые способности модели.

  • Название модели: Название большой языковой модели (LLM). Ссылки в столбце ведут на страницы моделей.

  • Баллы: Рейтинг Elo модели на основе голосов пользователей. Более высокий балл указывает на лучшую производительность. Рейтинг динамично меняется и отражает текущую относительную силу модели.

  • Диапазон достоверности: 95%-ный доверительный интервал балла Elo (например: +6/-6). Меньший интервал указывает на стабильность оценки, больший может означать недостаток данных или нестабильную производительность.

  • Голосов: Общее количество голосов, полученных моделью. Большее количество голосов обычно означает более высокую статистическую надёжность оценки.

  • Провайдер: Организация или компания, предоставляющая модель.

  • Лицензия: Тип лицензии модели, например: проприетарная (Proprietary), Apache 2.0, MIT и т.д.

  • Конец знаний: Обновление знаний модели. Нет данных означает отсутствие информации.

Источники

Gemini-2.5-Pro
Gemini-2.5-Pro-Preview-05-06
ChatGPT-4o-latest (2025-03-26)
o3-2025-04-16
DeepSeek-R1-0528
Grok-3-Preview-02-24
Gemini-2.5-Flash
GPT-4.5-Preview
Gemini-2.5-Flash-Preview-04-17
Qwen3-235B-A22B-no-thinking
GPT-4.1-2025-04-14
DeepSeek-V3-0324
Hunyuan-Turbos-20250416
Minimax-M1
DeepSeek-R1
Mistral Medium 3
Claude Opus 4 (20250514)
Qwen3-235B-A22B
o1-2024-12-17
o4-mini-2025-04-16
Qwen2.5-Max
Gemini-2.0-Flash-001
Grok-3-Mini-beta
Gemma-3-27B-it
Qwen3-32B
o1-preview
Claude Sonnet 4 (20250514)
o3-mini-high
Gemma-3-12B-it
GPT-4.1-mini-2025-04-14
DeepSeek-V3
Mistral-Small-2506
QwQ-32B
GLM-4-Plus-0111
Gemini-2.0-Flash-Lite
Amazon-Nova-Experimental-Chat-05-14
Qwen-Plus-0125
Llama-3.1-Nemotron-Ultra-253B-v1
Command A (03-2025)
Qwen3-30B-A3B
Step-2-16K-Exp
Hunyuan-TurboS-20250226
Llama-3.3-Nemotron-Super-49B-v1
o1-mini
o3-mini
Gemini-1.5-Pro-002
Hunyuan-Turbo-0110
Claude 3.7 Sonnet (thinking-32k)
Gemma-3n-e4b-it
Claude 3.7 Sonnet
Grok-2-08-13
Yi-Lightning
GPT-4o-2024-05-13
Qwen2.5-plus-1127
Claude 3.5 Sonnet (20241022)
Deepseek-v2.5-1210
Gemma-3-4B-it
Llama-4-Maverick-17B-128E-Instruct
Athene-v2-Chat-72B
GLM-4-Plus
Hunyuan-Large-2025-02-10
GPT-4.1-nano-2025-04-14
Gemini-1.5-Flash-002
Llama-3.1-Nemotron-70B-Instruct
GPT-4o-mini-2024-07-18
Meta-Llama-3.1-405B-Instruct-bf16
Claude 3.5 Sonnet (20240620)
Meta-Llama-3.1-405B-Instruct-fp8
Gemini Advanced App (2024-05-14)
Hunyuan-Standard-2025-02-10
Grok-2-Mini-08-13
GPT-4o-2024-08-06
Qwen-Max-0919
Llama-4-Scout-17B-16E-Instruct
Mistral-Small-3.1-24B-Instruct-2503
Gemini-1.5-Pro-001
Deepseek-v2.5
Llama-3.3-70B-Instruct
Qwen2.5-72B-Instruct
GPT-4-Turbo-2024-04-09
Llama-3.1-Tulu-3-70B
Mistral-Large-2407
Athene-70B
GPT-4-1106-preview
Mistral-Large-2411
magistral-medium-2506
Meta-Llama-3.1-70B-Instruct
Claude 3 Opus
Amazon Nova Pro 1.0
GPT-4-0125-preview
Claude 3.5 Haiku (20241022)
Reka-Core-20240904
Hunyuan-Large-Vision
Gemini-1.5-Flash-001
Jamba-1.5-Large
Qwen2.5-Coder-32B-Instruct
Gemma-2-27B-it
Mistral-Small-24B-Instruct-2501
Amazon Nova Lite 1.0
Gemma-2-9B-it-SimPO
Llama-3.1-Nemotron-51B-Instruct
Command R+ (08-2024)
Gemini-1.5-Flash-8B-001
OLMo-2-0325-32B-Instruct
Aya-Expanse-32B
Nemotron-4-340B-Instruct
GLM-4-0520
Reka-Flash-20240904
Phi-4
Llama-3-70B-Instruct
Claude 3 Sonnet
Amazon Nova Micro 1.0
Hunyuan-Standard-256K
Llama-3.1-Tulu-3-8B
Gemma-1.1-7B-it
Command R+ (04-2024)
Qwen2-72B-Instruct
GPT-4-0314
Ministral-8B-2410
Aya-Expanse-8B
Command R (08-2024)
Claude 3 Haiku
DeepSeek-Coder-V2-Instruct
Jamba-1.5-Mini
Meta-Llama-3.1-8B-Instruct
GPT-4-0613
Qwen1.5-110B-Chat
QwQ-32B-Preview
Yi-1.5-34B-Chat
Mistral-Large-2402
Reka-Flash-21B-online
Llama-3-8B-Instruct
InternLM2.5-20B-chat
Command R (04-2024)
Mistral Medium
Mixtral-8x22b-Instruct-v0.1
Reka-Flash-21B
Qwen1.5-72B-Chat
Granite-3.1-8B-Instruct
Gemma-2-2b-it
Gemini-1.0-Pro-001
Zephyr-ORPO-141b-A35b-v0.1
Qwen1.5-32B-Chat
Granite-3.1-2B-Instruct
Phi-3-Medium-4k-Instruct
Starling-LM-7B-beta
Mixtral-8x7B-Instruct-v0.1
Yi-34B-Chat
Gemini Pro
Qwen1.5-14B-Chat
WizardLM-70B-v1.0
GPT-3.5-Turbo-0125
DBRX-Instruct-Preview
Meta-Llama-3.2-3B-Instruct
Phi-3-Small-8k-Instruct
Tulu-2-DPO-70B
Granite-3.0-8B-Instruct
Llama-2-70B-chat
OpenChat-3.5-0106
Vicuna-33B
Snowflake Arctic Instruct
Starling-LM-7B-alpha
Nous-Hermes-2-Mixtral-8x7B-DPO
Gemma-1.1-7B-it
NV-Llama2-70B-SteerLM-Chat
DeepSeek-LLM-67B-Chat
OpenChat-3.5
OpenHermes-2.5-Mistral-7B
Granite-3.0-2B-Instruct
Mistral-7B-Instruct-v0.2
Phi-3-Mini-4K-Instruct-June-24
Qwen1.5-7B-Chat
Dolphin-2.2.1-Mistral-7B
GPT-3.5-Turbo-1106
SOLAR-10.7B-Instruct-v1.0
Phi-3-Mini-4k-Instruct
Llama-2-13b-chat
WizardLM-13b-v1.2
Meta-Llama-3.2-1B-Instruct
Zephyr-7B-beta
SmolLM2-1.7B-Instruct
MPT-30B-chat
CodeLlama-70B-instruct
Zephyr-7B-alpha
CodeLlama-34B-instruct
falcon-180b-chat
Vicuna-13B
Gemma-7B-it
Phi-3-Mini-128k-Instruct
Llama-2-7B-chat
Qwen-14B-Chat
Guanaco-33B
Gemma-1.1-2b-it
StripedHyena-Nous-7B
OLMo-7B-instruct
Mistral-7B-Instruct-v0.1
Vicuna-7B
PaLM-Chat-Bison-001
Gemma-2B-it
Qwen1.5-4B-Chat
Koala-13B
ChatGLM3-6B
GPT4All-13B-Snoozy
MPT-7B-Chat
ChatGLM2-6B
RWKV-4-Raven-14B
Alpaca-13B
OpenAssistant-Pythia-12B
ChatGLM-6B
FastChat-T5-3B
StableLM-Tuned-Alpha-7B
Dolly-V2-12B
LLaMA-13B
Logo
Logo