Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Функция рисования в настоящее время поддерживает рисовальные модели DMXAPI, TokenFlux, AiHubMix и 硅基流动. Вы можете зарегистрировать аккаунт на 硅基流动 и добавить его как поставщика для использования.
При возникновении вопросов о параметрах наведите курсор на значок ?
в соответствующей области, чтобы просмотреть описание.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
# OpenAI
## Получение API-ключа
* На официальной странице [API Key](https://platform.openai.com/api-keys) нажмите <mark style="background-color:green;">`+ Create new secret key`</mark>
<img src="../../.gitbook/assets/file.excalidraw (1).svg" alt="" class="gitbook-drawing">
* Скопируйте сгенерированный ключ и откройте [настройки провайдеров](broken-reference) в CherryStudio
* Найдите провайдера OpenAI и вставьте полученный ключ
<figure><img src="../../.gitbook/assets/image (9).png" alt=""><figcaption></figcaption></figure>
* Нажмите "Управление" или "Добавить" внизу страницы, добавьте поддерживаемые модели и активируйте переключатель провайдера в правом верхнем углу для начала использования.
{% hint style="info" %}
- Прямой доступ к сервисам OpenAI недоступен в регионах Китая (кроме Тайваня). Требуется самостоятельное решение вопроса с прокси;
- Необходим положительный баланс счёта.
{% endhint %}
Windows 版本安装教程
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Внимание: Windows 7 не поддерживает установку Cherry Studio.
Нажмите, чтобы скачать подходящую версию
Если браузер предупреждает, что файл не является доверенным, выберите "Сохранить"
Выбрать "Сохранить"
→Доверять Cherry-Studio
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Перед получением API-ключа для Gemini у вас должен быть проект Google Cloud (если он уже есть, этот шаг можно пропустить)
Перейдите в Google Cloud, создайте проект, введите название проекта и нажмите "Создать проект"
На официальной странице API-ключа нажмите 密钥 创建API密钥
(Создать API-ключ)
Скопируйте сгенерированный ключ и откройте настройки провайдеров в CherryStudio
Найдите провайдера Gemini и введите полученный ключ
Нажмите "Управление" или "Добавить" внизу, подключите поддерживаемые модели и активируйте переключатель провайдера в правом верхнем углу для начала использования.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Все данные, добавленные в базу знаний Cherry Studio, хранятся локально. В процессе добавления создается копия документа в каталоге хранения данных Cherry Studio.
Векторная база данных: https://turso.tech/libsql
После добавления документа в базу знаний Cherry Studio файл разбивается на несколько фрагментов, которые затем обрабатываются моделью эмбеддинга.
При использовании большой модели для ответов на вопросы система запрашивает связанные с вопросом текстовые фрагменты и передает их языковой модели для обработки.
Если есть требования к конфиденциальности данных, рекомендуется использовать локальную базу данных эмбеддингов и локальную большую языковую модель.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Войдите в . Если у вас нет учётной записи Alibaba Cloud, необходимо зарегистрироваться.
Нажмите кнопку 创建我的 API-KEY
в правом верхнем углу.
В открывшемся окне выберите пространство по умолчанию (или создайте своё), при необходимости заполните описание.
Нажмите кнопку 确定
в правом нижнем углу.
В списке появится новая запись, нажмите кнопку 查看
справа.
Нажмите кнопку 复制
.
Перейдите в Cherry Studio, в разделе 设置
→ 模型服务
→ 阿里云百炼
найдите поле API 密钥
, вставьте скопированный ключ.
Настройте параметры согласно инструкции в разделе , после чего сервис будет готов к использованию.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Для использования GitHub Copilot необходимо иметь учётную запись GitHub и подписку на сервис GitHub Copilot. Подойдёт и бесплатная версия подписки (free), однако она не поддерживает новейшую модель Claude 3.7. Подробности смотрите на .
Нажмите «Войти в GitHub», чтобы получить Device Code и скопируйте его.
После успешного получения Device Code перейдите по ссылке в браузере, войдите в учётную запись GitHub, введите Device Code и подтвердите доступ.
После успешной авторизации вернитесь в Cherry Studio, нажмите «Подключить GitHub». При успешном подключении отобразятся имя пользователя и аватар GitHub.
Нажмите кнопку «Управление» внизу экрана — автоматически загрузится список поддерживаемых моделей.
В настоящее время для отправки запросов используется Axios, который не поддерживает socks-прокси. Рекомендуем использовать системный прокси или HTTP-прокси. Либо отключите настройки прокси в Cherry Studio и используйте глобальный прокси. Убедитесь, что ваше сетевое соединение стабильно, чтобы избежать ошибок при получении Device Code.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Войдите и перейдите на страницу токенов
Создайте новый токен (также можно использовать токен default↑)
Скопируйте токен
Откройте настройки поставщиков CherryStudio, в конце списка поставщиков нажмите Добавить
Введите имя для заметки, выберите поставщика OpenAI, нажмите OK
Вставьте скопированный ключ
Вернитесь на страницу получения API Key, скопируйте базовый адрес из адресной строки браузера, например:
Добавьте модели (нажмите "Управление" для автоимпорта или введите вручную), активируйте переключатель в правом верхнем углу для использования.
Интерфейс в других темах OneAPI может отличаться, но порядок добавления идентичен вышеописанному.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Войдите и откройте страницу токенов
Нажмите "Добавить токен"
Введите имя токена и нажмите "Отправить" (при необходимости настройте другие параметры)
Откройте настройки поставщиков CherryStudio и нажмите Добавить
внизу списка поставщиков
Введите название, выберите провайдера "OpenAI", нажмите "ОК"
Вставьте скопированный ключ
Вернитесь на страницу получения API-ключа и скопируйте базовый адрес из адресной строки браузера, например:
Добавьте модели (нажмите "Управление" для автоимпорта или введите вручную), активируйте переключатель в правом верхнем углу для использования.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Когда для ассистента не задана модель по умолчанию, в новых диалогах по умолчанию будет использоваться модель, настроенная здесь.
Эта же модель используется для оптимизации подсказок и функций помощника при выделении текста.
После каждого диалога вызывается модель для генерации названия темы. Здесь задается модель, используемая для наименования.
Модель перевода, используемая для функции перевода в диалогах, полях ввода рисования и интерфейсе перевода, задается здесь.
Модель, используемая для функций быстрого помощника. Подробнее см. в разделе
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Cherry Studio поддерживает настройку чёрного списка двумя способами: вручную и через добавление источников подписок. Правила настройки можно найти в .
Вы можете добавлять правила для результатов поиска или щёлкать по иконке на панели инструментов, чтобы блокировать определённые сайты. Правила можно указывать с помощью (например: *://*.example.com/*
) или с использованием (например: /example\\.(net|org)/
).
Вы также можете подписываться на публичные наборы правил. Некоторые подписки перечислены на сайте: https://iorate.github.io/ublacklist/subscriptions
Ниже приведены некоторые рекомендуемые источники подписок:
暂时不支持Claude模型
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Перед получением API-ключа для Gemini необходимо иметь проект Google Cloud (если уже имеется, этот шаг можно пропустить)
Перейдите в для создания проекта: укажите название проекта и нажмите "Создать проект"
Откройте
В созданном проекте активируйте
Откройте интерфейс управления и создайте сервисный аккаунт
На странице управления сервисными аккаунтами найдите созданный аккаунт, нажмите Ключи
и создайте новый ключ в формате JSON
После создания ключ автоматически сохранится на компьютер в виде JSON-файла — обязательно сохраните его
Выберите провайдера Vertex AI
Заполните соответствующие поля данными из JSON-файла
Нажмите "Добавить ", чтобы начать использование!
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Страница агентов является площадкой для ассистентов, где вы можете выбрать или найти нужный предустановленный модель. При нажатии на карточку ассистент добавляется в список помощников на странице диалога.
Вы также можете редактировать и создавать собственных помощников на этой странице.
Нажмите 我的
, затем 创建智能体
, чтобы начать создание своего помощника.
https://git.io/ublacklist
Китайский
https://raw.githubusercontent.com/laylavish/uBlockOrigin-HUGE-AI-Blocklist/main/list_uBlacklist.txt
Генерируемый ИИ
mcp-server-time
--local-timezone
<ваш стандартный часовой пояс, например: Asia/Shanghai>
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
В этом интерфейсе можно выполнять резервное копирование и восстановление данных локально и в облаке, просматривать локальный каталог данных и очищать кеш, настраивать экспорт, а также подключаться к сторонним приложениям.
В настоящее время резервное копирование данных поддерживает три способа: локальное резервное копирование, резервное копирование через WebDAV и резервное копирование в хранилище, совместимое с S3 (объектное хранилище). Подробные инструкции и руководства см. в следующих документах:
В настройках экспорта можно настроить параметры экспорта, отображаемые в меню экспорта, а также установить путь по умолчанию для экспорта в Markdown, стиль отображения и т.д.
Подключение сторонних приложений позволяет настроить соединение Cherry Studio со сторонними приложениями для быстрого экспорта содержимого диалогов в знакомые вам приложения для управления знаниями. В настоящее время поддерживаются следующие приложения: Notion, Obsidian, SiYuan Notes, YuQue, Joplin. Подробные инструкции по настройке см. в следующих документах:
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Автоматическая установка службы MCP (бета-версия)
Базовая реализация постоянной памяти на основе локальной графовой базы знаний. Это позволяет модели запоминать информацию о пользователе между разными диалогами.
MEMORY_FILE_PATH=/path/to/your/file.json
Реализация MCP-сервера, предоставляющая инструменты для динамического решения задач через структурированный мыслительный процесс с возможностью рефлексии.
Реализация MCP-сервера с интеграцией API Brave Search, поддерживающая как веб-поиск, так и локальный поиск.
BRAVE_API_KEY=YOUR_API_KEY
MCP-сервер для извлечения содержимого веб-страниц по URL.
Node.js сервер, реализующий протокол Model Context Protocol (MCP) для операций файловой системы.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Мы приветствуем вклад в Cherry Studio! Вы можете участвовать следующими способами:
1. Разработка кода: Создание новых функций или оптимизация существующего кода. 2. Исправление ошибок: Отправка исправлений для найденных вами багов. 3. Поддержка вопросов: Помощь в управлении GitHub Issues. 4. Дизайн продукта: Участие в дискуссиях о дизайне. 5. Написание документации: Улучшение пользовательских руководств и инструкций. 6. Участие в сообществе: Присоединение к обсуждениям и помощь пользователям. 7. Продвижение: Распространение информации о Cherry Studio.
Отправьте письмо по адресу [email protected]
Тема письма: Заявка на участие в качестве разработчика Содержание письма: Обоснование заявки
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Свяжитесь по электронной почте [email protected], чтобы получить права редактора.
Заголовок: Запрос прав редактора для Cherry Studio Docs
Текст письма: Укажите причину запроса
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Для предварительной обработки документов базы знаний необходимо обновить Cherry Studio до версии v1.4.8 или выше.
После нажатия «Получить API KEY» в браузере откроется страница запроса. Нажмите «Немедленно подать заявку», заполните форму, получите API KEY и введите его в соответствующее поле.
Выполните указанные выше настройки в созданной базе знаний, чтобы завершить конфигурацию предварительной обработки документов.
Результаты работы базы знаний можно проверить через поиск в правом верхнем углу
Советы по использованию базы знаний: При работе с моделью с более высокой производительностью измените режим поиска в базе знаний на распознавание намерений для более точных и широких формулировок запросов.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Поддерживается экспорт тем и сообщений в Siyuan Notes.
Откройте Siyuan Notes и создайте блокнот
Откройте настройки блокнота и скопируйте ID блокнота
Вставьте скопированный ID блокнота в настройки Cherry Studio
Укажите адрес вашего Siyuan Notes
Локальный
Обычно: http://127.0.0.1:6806
Собственное развертывание
Ваш домен: http://note.domain.com
Скопируйте API Token
из Siyuan Notes
Вставьте его в настройки Cherry Studio и проверьте подключение
Поздравляем! Настройка Siyuan Notes завершена ✅ Теперь вы можете экспортировать содержимое Cherry Studio в ваши Siyuan Notes
macOS 版本安装教程
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Перейдите на официальную страницу загрузки и нажмите "Загрузить для Mac", либо воспользуйтесь прямой ссылкой ниже
Обратите внимание, что нужно скачать версию чипа, соответствующую вашему Mac
После завершения загрузки нажмите здесь
Перетащите значок для установки
Найдите значок Cherry Studio в Launchpad и нажмите на него. Если откроется главный интерфейс Cherry Studio, значит установка прошла успешно.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Для работы с базой знаний Dify MCP требуется обновить Cherry Studio до версии v1.2.9 или выше.
Откройте функцию Поиск MCP
.
Добавьте сервер dify-knowledge
.
Требуется настройка параметров и переменных окружения
Ключ базы знаний Dify можно получить следующим способом
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Следите за нашими социальными аккаунтами: , , , ,
Присоединяйтесь к нашим сообществам: , , ,
Cherry Studio — универсальная платформа-ассистент на основе ИИ, объединяющая многомодельные диалоги, управление базами знаний, ИИ-рисование, перевод и другие функции. Высоко настраиваемый дизайн Cherry Studio, мощные возможности расширения и удобный интерфейс делают его идеальным выбором для профессиональных пользователей и энтузиастов ИИ. Независимо от того, являетесь ли вы новичком или разработчиком, вы найдете подходящие ИИ-функции в Cherry Studio для повышения эффективности работы и творческого потенциала.
Один вопрос — несколько ответов: Поддержка генерации ответов от нескольких моделей одновременно для сравнения их работы. Подробнее в разделе .
Автоматическая группировка: Записи диалогов каждого помощника автоматически группируются для удобства поиска.
Экспорт диалогов: Экспорт полных или частичных диалогов в различные форматы (Markdown, Word и другие).
Расширенные настройки параметров: Поддержка пользовательских параметров для персонализации.
Магазин ассистентов: Тысячи специализированных помощников для перевода, программирования, написания текстов и других областей.
Разноформатная визуализация: Поддержка рендеринга Markdown, математических формул и предварительного просмотра HTML в реальном времени.
ИИ-рисование: Специальная панель для генерации изображений по текстовому описанию.
ИИ-миниприложения: Бесплатные онлайн-инструменты ИИ без необходимости переключения браузера.
Функции перевода: Специализированные решения для панели перевода, диалогового перевода и перевода промптов.
Управление файлами: Централизованная классификация файлов диалогов, рисунков и баз знаний.
Глобальный поиск: Быстрый поиск по истории и базам знаний.
Агрегация моделей: Поддержка моделей от OpenAI, Gemini, Anthropic, Azure и других основных провайдеров.
Автоматическое получение моделей: Полный список моделей без ручной настройки.
Ротация ключей: Использование нескольких API-ключей для обхода ограничений скорости.
Персонализация аватаров: Автоматически подобранные аватары для каждой модели.
Кастомные провайдеры: Поддержка сторонних провайдеров, совместимых с OpenAI, Gemini и Anthropic.
Кастомизация CSS: Глобальная настройка стилей интерфейса.
Адаптируемая структура диалогов: Виды списка/пузырьков с возможностью изменения стиля сообщений.
Пользовательские аватары: Установка аватаров для ПО и помощников.
Настройка бокового меню: Скрытие и упорядочивание функций по необходимости.
Множество форматов: Поддержка PDF, DOCX, PPTX, XLSX, TXT, MD и других файлов.
Разнообразные источники данных: Локальные файлы, веб-ссылки, карты сайта и ручной ввод.
Экспорт знаний: Возможность экспортировать обработанные базы знаний.
Поиск и проверка: Тестирование обработки документов в реальном времени.
Быстрые ответы: Быстрые решения вопросов в любом контексте (браузер, WeChat и т.д.).
Экспресс-перевод: Быстрый перевод слов или текста в других приложениях.
Суммаризация: Краткое содержание длинных текстов.
Объяснение: Простое объяснение сложных вопросов без использования промптов.
Стратегии бэкапов: Локальное резервное копирование, WebDAV и запланированные бэкапы.
Безопасность данных: Полностью локальное использование с местными LLM для предотвращения утечек.
Простота использования: Низкий порог входа для новичков.
Полная документация: Подробные руководства и справочники по часто задаваемым вопросам.
Постоянное развитие: Активная доработка функционала на основе обратной связи.
Открытый код и расширяемость: Возможность кастомизации через исходный код.
Управление знаниями: Быстрое создание и поиск в специализированных базах знаний.
Многомодельные диалоги и генерация контента: Одновременная работа с несколькими моделями.
Перевод и автоматизация: Решения для языковых коммуникаций и обработки документов.
ИИ-рисование и дизайн: Генерация изображений по текстовым описаниям.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Для работы с серверами ModelScope MCP требуется обновить Cherry Studio до версии v1.2.9 или выше.
В версии v1.2.9 Cherry Studio официально интегрирована с ModelScope MCP (魔搭), что значительно упрощает добавление серверов MCP, исключает ошибки конфигурации и предоставляет доступ к огромному количеству MCP-серверов в сообществе ModelScope. Давайте рассмотрим пошаговый процесс синхронизации MCP-серверов ModelScope в Cherry Studio.
В настройках MCP-серверов выберите Синхронизировать серверы
Выберите ModelScope и просмотрите доступные MCP-сервисы
Зарегистрируйтесь/войдите в ModelScope и изучите детали MCP-сервиса;
В деталях MCP-сервиса выберите подключение;
Нажмите Получить API токен
в Cherry Studio, перейдите на сайт ModelScope, скопируйте API-токен и вставьте его обратно в Cherry Studio.
В списке MCP-серверов Cherry Studio вы увидите подключённые сервисы ModelScope и сможете использовать их в диалогах.
Для подключения новых MCP-серверов с сайта ModelScope просто нажмите Синхронизировать серверы
для их добавления.
Вы освоили простую синхронизацию MCP-серверов ModelScope в Cherry Studio. Этот процесс устраняет сложности ручной настройки и предоставляет доступ к огромным ресурсам сообщества ModelScope.
Начните использовать эти мощные MCP-сервисы для расширения возможностей работы с Cherry Studio!
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
На этой странице представлен обзор функций интерфейса. Руководство по настройке можно найти в разделе базового учебника.
В Cherry Studio один поставщик поддерживает циклическое использование нескольких ключей. Ротация происходит последовательно по списку слева направо.
Добавляйте несколько ключей через запятую на английском языке. Пример:
Обязательно используйте запятую на английском языке.
При работе со встроенными поставщиками обычно не требуется указывать API-адрес. Если необходима корректировка, строго следуйте официальной документации.
Если поставщик предоставляет адрес вида https://xxx.xxx.com/v1/chat/completions, укажите только базовый адрес (https://xxx.xxx.com).
Cherry Studio автоматически добавит конечный путь (/v1/chat/completions). Неправильное заполнение может привести к неработоспособности.
Нажмите кнопку Управление
в нижнем левом углу страницы настроек поставщика. В открывшемся списке поддерживаемых моделей нажмите +
для добавления в список доступных моделей.
Нажмите кнопку проверки рядом с полем ввода API-ключа для тестирования конфигурации.
После успешной настройки обязательно активируйте переключатель в правом верхнем углу. Иначе провайдер останется неактивным, а его модели недоступными.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Откройте настройки Cherry Studio.
Найдите опцию MCP 服务器
.
Нажмите 添加服务器
.
Заполните параметры MCP Server (). Возможные поля для заполнения:
Имя: произвольное имя, например fetch-server
Тип: выберите STDIO
Команда: введите uvx
Параметры: введите mcp-server-fetch
(могут быть другие параметры в зависимости от сервера)
Нажмите 保存
.
После настройки Cherry Studio автоматически скачает необходимый MCP Server - fetch server
. После завершения загрузки можно начать использование! Примечание: при неудачной настройке mcp-server-fetch попробуйте перезагрузить компьютер.
Убедитесь, что сервер MCP успешно добавлен в настройках MCP 服务器
Как показано выше, благодаря функции fetch
MCP, Cherry Studio лучше понимает запросы пользователей, находит релевантную информацию в сети и предоставляет более точные и полные ответы.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Этот метод очистки настроек CSS следует использовать при установке некорректного CSS или если после настройки CSS невозможно войти в интерфейс настроек.
Откройте консоль разработчика: в окне CherryStudio нажмите комбинацию клавиш Ctrl+Shift+I (для MacOS: command+option+I).
В открывшейся консоли перейдите на вкладку Console
(Консоль).
Вручную введите команду document.getElementById('user-defined-custom-css').remove()
- копирование и вставка скорее всего не сработают.
После ввода нажмите Enter для выполнения команды. Это очистит настройки CSS, после чего вы сможете снова войти в настройки отображения CherryStudio и удалить проблемный CSS-код.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Cherry Studio — это бесплатный проект с открытым исходным кодом. По мере роста проекта увеличивается и рабочая нагрузка команды. Чтобы снизить коммуникационные издержки и эффективно решать ваши вопросы, мы просим перед обращением соблюдать следующие шаги — это позволит команде больше времени уделять поддержке и разработке проекта. Благодарим за понимание!
Большинство базовых вопросов можно решить, внимательно изучив документацию:
Функционал ПО и вопросы использования описаны в документации ;
Частые вопросы собраны на странице — проверьте наличие решения там;
Сложные проблемы можно решить через поиск или задав вопрос в поисковой строке;
Обязательно читайте подсказки во всех документах — это поможет избежать многих проблем;
Проверяйте наличие схожих вопросов и решений на странице в GitHub.
Вопросы, не связанные с функциями клиента (ошибки моделей, некорректные ответы, настройки параметров и т.д.) рекомендуется сначала искать в интернете или описывать проблему ИИ для поиска решений.
Если первые два шага не помогли, обратитесь в , или QQ-группу. Подробно опишите проблему.
Для ошибок модели приложите полный скриншот интерфейса и сообщения об ошибке из консоли. Конфиденциальные данные можно замаскировать, но название модели, параметры и текст ошибки должны быть видны. Метод просмотра ошибок консоли: .
При ошибках ПО укажите конкретное описание и подробные . Если ошибка случайна — максимально детально опишите контекст, настройки и условия возникновения. Также укажите платформу (Windows, Mac, Linux) и версию ПО.
Запрос документации или предложения
Свяжитесь с @Wangmouuu
в Telegram, QQ (1355873789
) или напишите на почту: [email protected]
.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
1.2 Нажмите настройки в левом нижнем углу и выберите【Silicon Flow】в разделе модельных сервисов
1.2 Перейдите по ссылке для получения API-ключа SiliconCloud
Войдите в (при первом входе система автоматически зарегистрирует аккаунт)
Перейдите в раздел , чтобы создать новый или скопировать существующий ключ
1.3 Нажмите "Управление" для добавления моделей
Нажмите кнопку "Диалог" в левом меню
Введите текст в поле ввода, чтобы начать чат
Модель можно сменить, выбрав её название в верхнем меню
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Контакты: г-н Ван 📮: [email protected] 📱: 18954281942 (не служба поддержки)
По вопросам использования:
Присоединяйтесь к пользовательскому чату через кнопку в подвале главной страницы
Пишите на [email protected]
Создавайте issues:
Для получения экспертной поддержки присоединяйтесь к нашему
Детали коммерческой лицензии:
sk-xxxx1,sk-xxxx2,sk-xxxx3,sk-xxxx4
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Резервное копирование данных Cherry Studio поддерживается через S3-совместимое хранилище (объектное хранилище). Распространённые S3-совместимые сервисы: AWS S3, Cloudflare R2, Alibaba Cloud OSS, Tencent Cloud COS и MinIO.
На основе S3-совместимого хранилища можно реализовать синхронизацию данных между устройствами по схеме: Компьютер A
S3-хранилище
Компьютер B
.
Создайте бакет (Bucket) объектного хранилища и запишите его имя. Настоятельно рекомендуется установить для бакета режим приватного чтения/записи для предотвращения утечки резервных данных!
Обратитесь к документации вашего облачного провайдера, чтобы получить в консоли управления следующие параметры S3-хранилища: Access Key ID
, Secret Access Key
, Endpoint
, Bucket
, Region
.
Endpoint: Адрес доступа к S3-хранилищу, обычно в формате https://<bucket-name>.<region>.amazonaws.com
или https://<ACCOUNT_ID>.r2.cloudflarestorage.com
.
Region: Регион расположения бакета, например us-west-1
, ap-southeast-1
. Для Cloudflare R2 укажите auto
.
Bucket: Имя бакета.
Access Key ID и Secret Access Key: Учётные данные для аутентификации.
Root Path: Опциональный параметр, указывает корневой путь для резервных копий в бакете (по умолчанию пустой).
Документация
Cloudflare R2: Получение Access Key ID и Secret Access Key
Alibaba Cloud OSS: Получение Access Key ID и Access Key Secret
Tencent Cloud COS: Получение SecretId и SecretKey
Введите полученные данные в настройках резервного копирования S3. Нажмите "Backup" для создания резервной копии или "Manage" для просмотра и управления файлами резервных копий.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Используя или распространяя любую часть или элементы материалов Cherry Studio, вы признаёте и принимаете условия настоящего Соглашения, которое вступает в силу немедленно.
Настоящее Лицензионное соглашение Cherry Studio (далее – "Соглашение") регулирует условия использования, копирования, распространения и модификации Материалов.
"Мы" (или "Лицензиар") означает компанию Shanghai Qianhui Technology Co., Ltd. (上海千彗科技有限公司).
"Вы" (или "Лицензиат") означает физическое или юридическое лицо, использующее Материалы на условиях настоящего Соглашения.
"Третья сторона" означает лицо, не связанное отношениями контроля с Нами или Вами.
"Cherry Studio" означает программный комплекс, включающий (но не ограничиваясь): ядро, редакторы, плагины, примеры проектов, исходный код, документацию и сопутствующие элементы.
"Материалы" означает проприетарные разработки Cherry Studio и документацию, предоставляемую по настоящему Соглашению.
"Исходная форма" означает предпочитаемую форму для внесения изменений, включая исходный код, файлы документации и конфигурации.
"Компилированная форма" означает любую форму, полученную механической трансформацией Исходной формы (включая скомпилированный код, сгенерированную документацию).
"Коммерческое использование" означает прямое или косвенное извлечение коммерческой выгоды, включая продажи, лицензирование, подписки, рекламу, обучение, консалтинг и т.д.
"Модификация" означает любое изменение Исходной формы, включая адаптацию названия, логотипа, кода, функционала, интерфейса и т.д.
Бесплатное коммерческое использование (немодифицированный код): Мы предоставляем Вам неисключительную, всемирную, непередаваемую, безвозмездную лицензию на использование, копирование и распространение немодифицированных Материалов для коммерческих целей при соблюдении условий Соглашения.
Коммерческая лицензия (требуемые случаи): В ситуациях, описанных в Разделе 3 "Коммерческая лицензия", для реализации прав по настоящему Соглашению требуется получение письменной коммерческой лицензии от Нас.
Использование Материалов Cherry Studio требует письменной коммерческой лицензии в следующих случаях:
Модификация и производные работы: Внесение изменений в Материалы или создание производных работ (включая изменения названия, логотипа, кода, функционала, интерфейса и т.д.).
Корпоративные сервисы: Внутреннее использование или предоставление услуг на основе Cherry Studio корпоративным клиентам с поддержкой ≥ 10 пользователей.
Продажа оборудования: Предустановка или интеграция Cherry Studio в аппаратные продукты для продажи в комплекте.
Крупные закупки: Использование в рамках масштабных государственных или образовательных закупок, особенно в сферах безопасности и защиты данных.
Публичные облачные сервисы: Предоставление общедоступных облачных сервисов на базе Cherry Studio.
Вы можете распространять копии немодифицированных Материалов в Исходной или Компилированной форме при соблюдении условий:
Предоставление копии настоящего Соглашения всем получателям Материалов.
Сохранение во всех распространяемых копиях уведомления: `"Cherry Studio is licensed under the Cherry Studio LICENSE AGREEMENT, Copyright (c) 上海千彗科技有限公司. All Rights Reserved."`
Материалы могут подпадать под экспортный контроль. Используйте их в соответствии с применимым законодательством.
При использовании Материалов для создания ПО/моделей рекомендуется указать в документации: "Built with Cherry Studio" или "Powered by Cherry Studio".
Мы сохраняем все права на Материалы и производные работы. Правообладание модификациями, созданными Вами без коммерческой лицензии, остается за Нами.
Настоящим Соглашением не предоставляются права на использование товарных знаков Лицензиара.
Любые лицензии прекращаются при предъявлении Вами претензий о нарушении прав на Материалы.
Мы не обязаны поддерживать, обновлять или развивать Материалы.
Материалы предоставляются "как есть" без гарантий пригодности, безопасности или отсутствия нарушений прав третьих лиц.
Мы не несем ответственность за любой ущерб, возникший при использовании Материалов.
Вы обязуетесь возместить Нам убытки по претензиям третьих сторон, связанным с Вашим использованием Материалов.
Соглашение вступает в силу при начале использования Материалов.
При нарушении Вами условий Соглашение может быть расторгнуто. После расторжения Вы обязаны прекратить использование Материалов. Разделы 7, 9 и "2. Предоставляемые права" сохраняют силу после расторжения.
Соглашение регулируется законодательством Китайской Народной Республики.
Споры подлежат исключительной юрисдикции судов г. Шанхая.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Cherry Studio поддерживает импорт тем в базу данных Notion.
Откройте сайт Notion Integrations для создания приложения
Создайте приложение
Имя: Cherry Studio
Тип: Выберите первый вариант
Иконка: Сохраните это изображение
Скопируйте секретный ключ и вставьте его в настройки Cherry Studio
Откройте сайт Notion, создайте новую страницу, выберите тип "База данных", укажите название "Cherry Studio" и подключите по инструкции
Если URL вашей базы данных Notion выглядит так:
https://www.notion.so/<long_hash_1>?v=<long_hash_2>
то ID базы данных Notion - это часть <long_hash_1>
Укажите 页面标题字段名
(название поля заголовка страницы):
Если интерфейс на английском - введите Name
Если интерфейс на китайском - введите 名称
Поздравляем! Настройка Notion завершена ✅ Теперь вы можете экспортировать контент Cherry Studio в базу данных Notion
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Функция перевода Cherry Studio предоставляет быстрые и точные услуги по переводу текста, поддерживая взаимный перевод между множеством языков.
Интерфейс перевода состоит из следующих основных разделов:
Выбор исходного языка:
Любой язык: Cherry Studio автоматически распознает исходный язык и выполнит перевод.
Выбор целевого языка:
Выпадающее меню: выберите язык, на который нужно перевести текст.
Кнопка настроек:
При нажатии переходит к настройкам моделей по умолчанию.
Синхронизация прокрутки:
Переключает синхронизацию прокрутки (при прокрутке в любой области вторая область будет синхронно прокручиваться).
Поле ввода текста (слева):
Введите или вставьте текст для перевода.
Поле результата перевода (справа):
Отображает переведенный текст.
Кнопка копирования: копирует результат перевода в буфер обмена.
Кнопка перевода:
Нажмите эту кнопку, чтобы начать перевод.
История переводов (вверху слева):
Позволяет просмотреть историю переводов.
Выберите целевой язык:
В разделе выбора целевого языка укажите нужный язык.
Введите или вставьте текст:
Введите или вставьте текст в левое поле ввода.
Начните перевод:
Нажмите кнопку Перевести
.
Просмотр и копирование результата:
Результат появится в правом поле.
Нажмите кнопку копирования, чтобы сохранить перевод в буфер обмена.
В: Что делать, если перевод неточен?
О: ИИ-перевод мощный, но не идеален. Для профессиональных текстов или сложных контекстов рекомендуется ручная проверка. Также можно попробовать сменить модель.
В: Какие языки поддерживаются?
О: Cherry Studio поддерживает множество основных языков. Полный список доступен на официальном сайте или в справке приложения.
В: Можно ли перевести целый файл?
О: Текущий интерфейс предназначен для перевода текста. Для перевода файлов используйте страницу диалогов Cherry Studio.
В: Что делать, если перевод медленный?
О: Скорость зависит от сети, длины текста и нагрузки серверов. Убедитесь в стабильности соединения и проявите терпение.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Войдите в VolcEngine
Или сразу перейдите по этой ссылке
В боковом меню выберите раздел Управление API-ключами
Создайте новый API-ключ
После создания кликните на значок глаза 🔍 рядом с ключом для просмотра и скопируйте его
Вставьте скопированный API-ключ в CherryStudio и активируйте переключатель провайдера
В разделе Управление активациями боковой панели активируйте нужные модели (серия Doubao, DeepSeek и др.)
В документе со списком моделей найдите ID нужной модели
В настройках CherryStudio откройте раздел Модели провайдеров → VolcEngine
Нажмите "Добавить" и вставьте ID модели в соответствующее поле
Повторите процедуру для добавления всех необходимых моделей
Доступно два варианта записи адреса API:
Стандартный в клиенте: https://ark.cn-beijing.volces.com/api/v3/
Альтернативный: https://ark.cn-beijing.volces.com/api/v3/chat/completions#
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Вы сталкивались с этим? Сохранили 26 полезных статей в WeChat, но больше никогда не открывали. На компьютере разбросаны 10+ файлов в папке "Учебные материалы". Хотите найти теорию, которую читали полгода назад, но помните лишь пару ключевых слов. Когда ежедневный объём информации превышает возможности мозга, 90% ценных знаний забываются за 72 часа. С помощью API платформы больших моделей Infinity AI + Cherry Studio вы можете создать личную базу знаний, превращающую пылящиеся статьи из WeChat и разрозненные учебные материалы в структурированные знания для точного доступа.
1. Сервис API Infinity AI: "Мыслительный центр" базы знаний, удобный и стабильный
Как "мыслящий центр" базы знаний, платформа больших моделей Infinity AI предоставляет такие версии моделей, как полная версия DeepSeek R1, и стабильные API-услуги. Сейчас после регистрации использование бесплатно без ограничений. Поддерживает популярные модели внедрения bge и jina для построения базы знаний. Платформа постоянно обновляет стабильные новейшие и мощные сервисы моделей с открытым исходным кодом, включая изображения, видео, аудио и другие модальности.
2. Cherry Studio: создание базы знаний без кода
Cherry Studio — это простой в использовании ИИ-инструмент. По сравнению с разработкой базы знаний RAG, которая требует 1-2 месяца на развёртывание, этот инструмент поддерживает операции без кода. Позволяет одним щелчком импортировать форматы Markdown/PDF/веб-страницы, обрабатывая 40 МБ файлов за 1 минуту. Также можно добавлять локальные папки компьютера, ссылки на статьи из избранного WeChat и заметки курсов.
Шаг 1: Подготовка
Посетите официальный сайт Cherry Studio и скачайте подходящую версию (https://cherry-ai.com/)
Зарегистрируйте аккаунт: войдите в платформу больших моделей Infinity AI (https://cloud.infini-ai.com/genstudio/model?cherrystudio)
Получение API-ключа: в разделе "Модельная площадь" выберите deepseek-r1, нажмите "Создать", получите APIKEY и скопируйте название модели
Шаг 2: В настройках CherryStudio выберите сервис Infinity AI в разделе моделей, введите API-ключ и активируйте сервис моделей Infinity AI
После выполнения этих шагов при взаимодействии выберите нужную большую модель для использования API-сервисов Infinity AI в CherryStudio. Для удобства здесь можно установить "Модель по умолчанию".
Шаг 3: Добавление базы знаний
Выберите любую версию модели внедрения серии bge или jina из платформы больших моделей Infinity AI
После импорта учебных материалов введите: "Проанализируйте вывод ключевых формул из третьей главы «Машинное обучение»"
Прилагается сгенерированное изображение результата
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
MCP (Model Context Protocol) — это открытый протокол, предназначенный для стандартизированной передачи контекстной информации крупным языковым моделям (LLM). Подробнее о MCP см. в разделе
Ниже на примере функции fetch
показано, как использовать MCP в Cherry Studio. Подробности можно найти в документации.
В разделе Настройки → MCP-сервер
нажмите кнопку Установить
, чтобы автоматически загрузить и установить компоненты. Поскольку загрузка идёт напрямую с GitHub, скорость может быть низкой с высокой вероятностью сбоев. Успешность установки определяется наличием файлов в папках, указанных ниже.
Каталоги установки исполняемых файлов:
Windows: C:\Users\Имя_пользователя\.cherrystudio\bin
macOS/Linux: ~/.cherrystudio/bin
При проблемах с установкой:
Создайте символические ссылки на системные исполняемые файлы в указанных каталогах. При отсутствии каталогов — создайте их вручную.
Либо загрузите файлы вручную:
UV: https://github.com/astral-sh/uv/releases и разместите исполняемые файлы в соответствующем каталоге.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Создайте учётную запись и войдите на Huawei Cloud
Перейдите в консоль ModelArts, нажав на эту ссылку
Авторизация
В боковой панели перейдите в "Authentication Management", создайте и скопируйте API Key (секретный ключ)
Затем создайте нового поставщика в CherryStudio
После создания вставьте секретный ключ
В боковой панели перейдите в "Model Deployment" и активируйте все предложения
Нажмите "Call"
Скопируйте адрес из места ①, вставьте его в поле адреса поставщика в CherryStudio и добавьте в конце символ "#"
И добавьте в конце символ "#"
И добавьте в конце символ "#"
И добавьте в конце символ "#"
И добавьте в конце символ "#"
Зачем добавлять "#"? Смотрите здесь
Конечно, можно не смотреть, просто следуйте инструкциям;
Также можно использовать метод удаления v1/chat/completions при заполнении — делайте как удобно, но если не уверены, строго следуйте инструкциям.
Затем скопируйте название модели из места ②, в CherryStudio нажмите "+Add" для создания новой модели
Введите название модели без изменений и без кавычек, как показано в примере.
Нажмите "Add Model", чтобы завершить добавление.
如何注册tavily?
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Перейдите по указанному выше официальному сайту или в Cherry Studio: Настройки → Поиск в Интернете → нажмите "Получить ключ", чтобы перейти непосредственно на страницу входа/регистрации Tavily.
Если вы используете впервые, сначала зарегистрируйте аккаунт (Sign up), прежде чем войти (Log in). По умолчанию отображается страница входа.
Нажмите "Зарегистрировать аккаунт", введите свою основную электронную почту или используйте аккаунт Google/GitHub. Затем на следующем шаге создайте пароль - стандартная процедура.
🚨🚨🚨【Критический шаг】 После успешной регистрации потребуется динамическая верификация: отсканируйте QR-код для получения одноразового кода.
Есть два варианта решения:
Установите приложение для аутентификации от Microsoft — Authenticator 【сложнее】
Используйте мини-программу WeChat: Tencent Authenticator 【проще, рекомендуется】
Откройте мини-программу WeChat, найдите: Tencent Authenticator
После выполнения всех шагов вы увидите следующий интерфейс — это подтверждает успешную регистрацию. Скопируйте ключ в Cherry Studio и начинайте использовать платформу.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
В версии 0.9.1 CherryStudio представил долгожданную функцию базы знаний.
Ниже пошагово представлено подробное руководство по использованию CherryStudio.
Найдите модель в сервисе управления моделями, используя фильтр "Модели встраивания" для быстрого поиска;
Выберите нужную модель и добавьте её в "Мои модели".
Доступ к базе знаний: В левой панели инструментов CherryStudio нажмите значок базы знаний, чтобы перейти на страницу управления;
Добавление базы знаний: Нажмите "Добавить", чтобы начать создание базы знаний;
Наименование: Введите название базы знаний и добавьте модель встраивания (например, bge-m3), чтобы завершить создание.
Добавление файлов: Нажмите кнопку "Добавить файлы" для выбора файлов;
Выбор файлов: Выберите поддерживаемые форматы (pdf, docx, pptx, xlsx, txt, md, mdx и др.) и откройте их;
Векторизация: Система автоматически выполнит векторизацию. При появлении зелёной галочки (✓) процесс завершён.
CherryStudio поддерживает несколько способов добавления данных:
Папка каталога: Добавьте целую папку — поддерживаемые файлы автоматически векторизуются;
Веб-ссылка: Поддерживает URL-адреса, например ;
Карта сайта: Поддерживает XML-карты сайта, например ;
Простой текст: Поддерживает ввод пользовательского текста.
После завершения векторизации можно выполнять запросы:
Нажмите кнопку "Поиск в базе знаний" внизу страницы;
Введите запрос;
Просмотрите результаты;
Оценка релевантности отображается для каждого результата.
Создайте новый диалог. В панели инструментов нажмите "База знаний" → выберите нужную базу;
Введите вопрос — модель сгенерирует ответ на основе полученных данных;
Источники данных отображаются под ответом для быстрого просмотра.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Cherry Studio поддерживает резервное копирование данных через WebDAV. Вы можете выбрать подходящий сервис WebDAV для облачного резервного копирования.
С помощью WebDAV можно синхронизировать данные между несколькими устройствами по схеме: Компьютер A
WebDAV
Компьютер B
.
Войдите в Nutstore, нажмите на имя пользователя в правом верхнем углу и выберите «Информация об аккаунте»:
Выберите «Настройки безопасности» и нажмите «Добавить приложение»
Введите название приложения, сгенерируется случайный пароль;
Скопируйте и сохраните пароль;
Получите адрес сервера, учетную запись и пароль;
В настройках Cherry Studio → настройках данных заполните информацию WebDAV;
Выберите резервное копирование или восстановление данных, а также можно настроить периодичность автоматического резервного копирования.
Сервисы WebDAV с низким порогом входа — это, как правило, облачные хранилища:
(требуется подписка)
(требуется покупка)
(бесплатно предоставляется 10 ГБ, ограничение на размер одного файла — 250 МБ.)
(Dropbox предоставляет 2 ГБ бесплатно, можно приглашать друзей для увеличения до 16 ГБ.)
(бесплатно предоставляется 10 ГБ, также можно получить дополнительно 5 ГБ за приглашения.)
(бесплатным пользователям предоставляется 10 ГБ.)
Кроме того, есть сервисы, которые требуют самостоятельного развертывания:
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Cherry Studio — это мультиплатформенный десктопный клиент, поддерживающий установку на Windows, Linux и MacOS. Он объединяет основные LLM-модели и предоставляет сценарную поддержку. Пользователи могут повысить эффективность работы через интеллектуальное управление диалогами, кастомизацию с открытым исходным кодом и мультитематические интерфейсы.
Cherry Studio теперь глубоко интегрирован с высокопроизводительным API-каналом PPIO — благодаря гарантиям корпоративного уровня вычислений достигается высокая скорость отклика DeepSeek-R1/V3 и доступность сервиса 99.9%, обеспечивая быстрый и плавный опыт.
В руководстве ниже представлена полная схема подключения (включая настройку ключей). Активируйте продвинутый режим «Умная маршрутизация Cherry Studio + Высокопроизводительный API PPIO» за 3 минуты.
Сначала скачайте Cherry Studio с официального сайта: (Если не открывается, используйте ссылку на Quark Disk: )
(1) Нажмите настройки в левом нижнем углу, укажите имя провайдера: PPIO
, нажмите «ОК»
(2) Перейдите в , щёлкните на [аватар пользователя] → [Управление API-ключами]
Нажмите [+ Создать] для генерации нового ключа API. Укажите имя ключа. Ключ отображается только при создании — обязательно скопируйте и сохраните его, чтобы не прерывать дальнейшее использование
(3) Вставьте ключ в CherryStudio: выберите [PPIO Pai Ou Cloud], введите API-ключ с сайта, нажмите [Проверить]
(4) Выберите модель: например, deepseek/deepseek-r1/community. Для смены модели просто выберите другую.
DeepSeek R1 и V3 community — пробные версии. Это полнофункциональные модели со всеми параметрами, без разницы в стабильности и эффективности. Для массового использования пополните счёт и переключитесь на не-community версию.
(1) После успешной [Проверки] можно использовать сервис
(2) Нажмите [@], выберите модель DeepSeek R1 от PPIO и начинайте общение~
[Источник материалов: ]
Если предпочитаете визуальное обучение — на Bilibili есть видеоурок. Пошагово поможем освоить настройку «PPIO API + Cherry Studio». Перейдите по ссылке →
[Источник видео: sola]
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Данные Cherry Studio сохраняются согласно системным стандартам и автоматически размещаются в пользовательском каталоге. Точные пути следующие:
macOS: /Users/username/Library/Application Support/CherryStudioDev
Windows: C:\Users\username\AppData\Roaming\CherryStudio
Linux: /home/username/.config/CherryStudio
Также можно посмотреть расположение здесь:
Способ 1: Создайте символическую ссылку. Завершите работу приложения, переместите данные в нужное расположение, затем создайте ссылку из оригинального пути к новому местоположению.
Подробные инструкции смотрите здесь:
Способ 2: Используйте особенности приложений Electron и измените путь через параметры запуска.
--user-data-dir Пример: Cherry-Studio-*-x64-portable.exe --user-data-dir="%user_data_dir%"
Пример реализации:
init_cherry_studio.bat (кодировка: ANSI)
Структура каталога user-data-dir после инициализации:
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Для автоматической установки MCP требуется обновление Cherry Studio до версии v1.1.18 или выше.
Помимо ручной установки, Cherry Studio включает инструмент @mcpmarket/mcp-auto-install
— более простой способ установки сервера MCP. Для использования достаточно ввести соответствующую команду в диалоге с LLM-моделью, поддерживающей сервисы MCP.
Важно на этапе тестирования:
@mcpmarket/mcp-auto-install
находится в бета-версии
Результат зависит от «интеллекта» LLM-модели: параметры могут добавляться автоматически, но в некоторых случаях потребуется ручная настройка параметров MCP
Поиск источников выполняется в @modelcontextprotocol
, но можно настроить кастомные параметры (см. ниже)
Например, введите команду:
Система автоматически определит требования и выполнит установку через @mcpmarket/mcp-auto-install
. Инструмент поддерживает различные типы серверов MCP, включая:
filesystem (файловая система)
fetch (HTTP-запросы)
sqlite (база данных)
и другие...
Переменная MCP_PACKAGE_SCOPES позволяет кастомизировать источники поиска сервисов MCP. Значение по умолчанию:
@modelcontextprotocol
.
@mcpmarket/mcp-auto-install
帮我安装一个 filesystem mcp server
// `axun-uUpaWEdMEMU8C61K` - пользовательский ID сервиса
"axun-uUpaWEdMEMU8C61K": {
"name": "mcp-auto-install",
"description": "Automatically install MCP services (Beta version)",
"isActive": false,
"registryUrl": "https://registry.npmmirror.com",
"command": "npx",
"args": [
"-y",
"@mcpmarket/mcp-auto-install",
"connect",
"--json"
],
"env": {
"MCP_REGISTRY_PATH": "详情见https://www.npmjs.com/package/@mcpmarket/mcp-auto-install"
},
"disabledTools": []
}
PS D:\CherryStudio> dir
目录: D:\CherryStudio
Mode LastWriteTime Length Name
---- ------------- ------ ----
d----- 2025/4/18 14:05 user-data-dir
-a---- 2025/4/14 23:05 94987175 Cherry-Studio-1.2.4-x64-portable.exe
-a---- 2025/4/18 14:05 701 init_cherry_studio.bat
@title CherryStudio Initialization
@echo off
set current_path_dir=%~dp0
@echo Текущий путь:%current_path_dir%
set user_data_dir=%current_path_dir%user-data-dir
@echo Путь к данным CherryStudio:%user_data_dir%
@echo Поиск Cherry-Studio-*-portable.exe в текущей директории
setlocal enabledelayedexpansion
for /f "delims=" %%F in ('dir /b /a-d "Cherry-Studio-*-portable*.exe" 2^>nul') do ( # Этот код совместим с версиями с GitHub и с официального сайта; для других версий измените самостоятельно
set "target_file=!cd!\%%F"
goto :break
)
:break
if defined target_file (
echo Найден файл: %target_file%
) else (
echo Совпадающие файлы не найдены, выход из скрипта
pause
exit
)
@echo Подтвердите действие
pause
@echo Запуск CherryStudio
start %target_file% --user-data-dir="%user_data_dir%"
@echo Операция завершена
@echo on
exit
PS D:\CherryStudio> dir .\user-data-dir\
目录: D:\CherryStudio\user-data-dir
Mode LastWriteTime Length Name
---- ------------- ------ ----
d----- 2025/4/18 14:29 blob_storage
d----- 2025/4/18 14:07 Cache
d----- 2025/4/18 14:07 Code Cache
d----- 2025/4/18 14:07 Data
d----- 2025/4/18 14:07 DawnGraphiteCache
d----- 2025/4/18 14:07 DawnWebGPUCache
d----- 2025/4/18 14:07 Dictionaries
d----- 2025/4/18 14:07 GPUCache
d----- 2025/4/18 14:07 IndexedDB
d----- 2025/4/18 14:07 Local Storage
d----- 2025/4/18 14:07 logs
d----- 2025/4/18 14:30 Network
d----- 2025/4/18 14:07 Partitions
d----- 2025/4/18 14:29 Session Storage
d----- 2025/4/18 14:07 Shared Dictionary
d----- 2025/4/18 14:07 WebStorage
-a---- 2025/4/18 14:07 36 .updaterId
-a---- 2025/4/18 14:29 20 config.json
-a---- 2025/4/18 14:07 434 Local State
-a---- 2025/4/18 14:29 57 Preferences
-a---- 2025/4/18 14:09 4096 SharedStorage
-a---- 2025/4/18 14:30 140 window-state.json
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Cherry Studio не только интегрирует ведущие сервисы ИИ-моделей, но и предоставляет мощные возможности настройки. С помощью функции Пользовательские поставщики ИИ-услуг вы можете легко подключить любую необходимую ИИ-модель.
Гибкость: Больше не ограничивайтесь предустановленным списком поставщиков, свободно выбирайте наиболее подходящие ИИ-модели.
Разнообразие: Пробуйте ИИ-модели с разных платформ, открывая их уникальные преимущества.
Контроль: Управляйте своими API-ключами и адресами доступа напрямую, обеспечивая безопасность и конфиденциальность.
Кастомизация: Интегрируйте приватно развернутые модели для специфических бизнес-задач.
Всего несколько шагов, чтобы добавить своего поставщика в Cherry Studio:
Откройте настройки: В левой панели Cherry Studio нажмите «Настройки» (значок шестерёнки).
Перейдите к моделям: На странице настроек выберите вкладку «Модели».
Добавьте поставщика: В разделе «Модели» нажмите кнопку «+ Добавить» под списком поставщиков.
Заполните данные: В открывшемся окне укажите:
Название поставщика: Присвойте узнаваемое имя (например: MyCustomOpenAI).
Тип поставщика: Выберите из выпадающего списка поддерживаемые типы:
OpenAI
Gemini
Anthropic
Azure OpenAI
Сохраните: Нажмите «Добавить» для сохранения конфигурации.
После добавления найдите поставщика в списке и настройте детали:
Статус активации: Переключатель справа в списке включает/выключает службу.
API-ключ:
Введите ключ API, полученный от поставщика.
Кнопка «Проверить» справа тестирует валидность ключа.
API-адрес:
Укажите базовый URL для доступа к API.
Сверьтесь с документацией поставщика для корректного адреса.
Управление моделями:
Нажмите «+ Добавить», чтобы вручную добавить ID модели (например gpt-3.5-turbo
, gemini-pro
).
* Для названий моделей обратитесь к документации поставщика. * Кнопка «Управление» позволяет редактировать или удалять добавленные модели.
После настройки выберите своего поставщика и модель в чат-интерфейсе Cherry Studio для начала работы!
vLLM — быстрая и удобная библиотека вывода LLM, аналогичная Ollama. Этапы интеграции с Cherry Studio:
Установите vLLM: Следуйте официальной инструкции (https://docs.vllm.ai/en/latest/getting_started/quickstart.html).
pip install vllm # если используете pip
uv pip install vllm # если используете uv
Запустите vLLM: Активируйте сервис через OpenAI-совместимый интерфейс двумя способами:
Через vllm.entrypoints.openai.api_server
python -m vllm.entrypoints.openai.api_server --model gpt2
Через uvicorn
vllm --model gpt2 --served-model-name gpt2
Сервис запустится на порту 8000
(или указанном через --port
).
Добавьте vLLM в Cherry Studio:
Создайте нового поставщика по инструкции выше.
Название: vLLM
Тип: OpenAI
Настройте vLLM:
API-ключ: Оставьте пустым или введите любое значение.
API-адрес: Укажите http://localhost:8000/
(или ваш порт).
Управление моделями: Введите название запущенной модели (например gpt2
).
Начните диалог: Выберите vLLM и модель в чат-интерфейсе для общения!
Изучите документацию: Перед добавлением проверьте у поставщика параметры API-ключей, адресов и моделей.
Проверяйте ключи: Используйте кнопку проверки для валидации API-ключей.
Следите за адресами: У разных поставщиков и моделей могут отличаться API-адреса.
Добавляйте нужные модели: Включайте только используемые модели, чтобы избежать перегрузки.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Присоединяйтесь к Telegram группе для получения помощи:
GitHub Issues:
Свяжитесь с разработчиками по почте: [email protected]
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Пояснения:
Сохранил маркеры списка [x]
/[ ]
в оригинальном формате
Технические термины и названия (SSO
, JavaScript
, iOS
, Android
) оставлены без перевода
Для 多模型回答对比
использован термин "многомодельное сравнение ответов"
全部模型支持联网
переведено как "режим 'Поиск в Интернете' для всех моделей"
推出第一个正式版
переведено как "выпуск первой стабильной версии"
Для AI 通话
использован термин "AI-звонки" (AI-calls)
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Добро пожаловать в Cherry Studio (далее "Программное обеспечение" или "Мы"). Мы придаем большое значение защите вашей конфиденциальности. Настоящая Политика конфиденциальности объясняет, как мы обрабатываем и защищаем ваши личные данные. Пожалуйста, внимательно ознакомьтесь с настоящим соглашением перед использованием программного обеспечения:
Для оптимизации пользовательского опыта и улучшения качества программного обеспечения мы можем анонимно собирать следующие не персонифицированные данные:
• Информация о версии ПО; • Частота и активность использования функций ПО; • Анонимные логи ошибок и сбоев.
Эта информация полностью анонимна, не содержит идентифицирующих данных и не может быть связана с вами.
Для максимальной защиты вашей конфиденциальности мы категорически заявляем:
• Не собираем, не храним, не передаем и не обрабатываем ваши API Keys для сервисов моделей; • Не собираем, не храним, не передаем и не обрабатываем какие-либо данные диалогов, включая контент чатов, инструкции, данные базы знаний, векторные данные или пользовательский контент; • Не собираем, не храним, не передаем и не обрабатываем любые идентифицирующие личные данные.
Программное обеспечение использует предоставленные вами API Keys сторонних провайдеров моделей для выполнения вызовов и диалоговых функций. Сервисы моделей (например, Large Language Models, API) предоставляются выбранными вами провайдерами. Cherry Studio выступает исключительно как локальный инструмент для взаимодействия с API.
Таким образом:
• Все данные диалогов между вами и сервисами моделей не относятся к Cherry Studio: мы не храним и не передаем эти данные; • Вам необходимо самостоятельно ознакомиться и принять политики конфиденциальности ваших провайдеров моделей на их официальных сайтах.
Вы самостоятельно несете риски конфиденциальности, связанные с использованием сервисов моделей. За политики обработки данных, меры безопасности и ответственность отвечают исключительно провайдеры сервисов. Мы не несем за это ответственности.
Настоящее соглашение может обновляться с выходом новых версий ПО. При внесении существенных изменений мы уведомим вас соответствующим образом.
Если у вас возникли вопросы относительно настоящего соглашения или мер защиты конфиденциальности в Cherry Studio, свяжитесь с нами.
Благодарим за выбор и доверие к Cherry Studio. Мы продолжим обеспечивать безопасные и надежные продукты.
{% hint style="danger" %}
Внимание: Для генерации изображений Gemini требуется использовать интерфейс чата, поскольку Gemini обеспечивает мультимодальное интерактивное создание изображений и не поддерживает регулировку параметров.
{% endhint %}
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
4xx (коды ошибок клиента): Обычно возникают из-за синтаксических ошибок в запросе, неудачной аутентификации или проверки подлинности.
5xx (коды ошибок сервера): Обычно вызваны проблемами на стороне сервера, такими как сбой сервера, превышение времени обработки запроса.
400
Неверный формат тела запроса
Проверьте содержимое ошибки в ответе или просмотрите сообщение об ошибке в . Действуйте согласно подсказке.
[Тип 1]: Для моделей Gemini может потребоваться привязка карты; [Тип 2]: Превышение размера данных (особенно для визуальных моделей); [Тип 3]: Использование неподдерживаемых параметров. Проверьте с чистым ассистентом; [Тип 4]: Превышение лимита контекста. Очистите контекст или уменьшите количество сообщений.
401
Ошибка аутентификации: модель не поддерживается или аккаунт заблокирован
Свяжитесь с поставщиком услуги для проверки статуса аккаунта
403
Нет прав на запрашиваемое действие
Проверьте сообщение об ошибке в диалоге или
404
Запрашиваемый ресурс не найден
Проверьте путь запроса
422
Корректный формат, но семантическая ошибка
Ошибки обработки данных (например: пустые значения; ожидалась строка, но передано число/булево значение)
429
Превышена скорость запросов
Подождите некоторое время перед повторным запросом
500
Внутренняя ошибка сервера
При постоянном возникновении обратитесь к поставщику услуги
501
Сервер не поддерживает запрашиваемую функцию
502
Неверный ответ от вышестоящего сервера
503
Сервер временно недоступен из-за перегрузки или обслуживания
504
Превышено время ожидания ответа от сервера
Нажмите на окно клиента Cherry Studio и используйте горячие клавиши: Ctrl + Shift + I (Mac: Command + Option + I)
В открывшемся окне консоли перейдите в Network
→ Выберите последний элемент с красным ×
(для диалогов: completions
; для рисования: generations
) → Нажмите Response
для просмотра полного ответа (область ④ на изображении).
Если причина ошибки неясна, отправьте скриншот этого окна в официальном чате.
Этот метод работает не только для диалогов, но и для тестирования моделей, добавления базы знаний, рисования и других операций. Всегда открывайте консоль перед запросом.
Если формула отображается как код, проверьте наличие разделителей:
Синтаксис разделителей Встроенные формулы
Одинарный доллар:
$formula$
Или
\(formula\)
Отдельные блоки формул
Двойной доллар:
$$formula$$
Или
\[formula\]
Пример:
$$\sum_{i=1}^n x_i$$
Ошибки рендеринга/искаженный текст часто возникают при использовании китайских символов. Попробуйте переключить движок формул на KateX.
Статус модели недоступен
Убедитесь, что модель поддерживается провайдером и активна.
Использована модель без функции встраивания
Выберите специализированную модель для встраивания.
Проверьте, поддерживает ли модель распознавание изображений. В Cherry Studio модели со значком глаза поддерживают эту функцию.
Если функция не работает:
В списке моделей провайдера найдите нужную модель
Нажмите значок настроек рядом с названием
Активируйте опцию "Изображения"
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
С помощью пользовательского CSS вы можете изменить внешний вид программы, чтобы он лучше соответствовал вашим предпочтениям, например:
:root {
--color-background: #1a462788;
--color-background-soft: #1a4627aa;
--color-background-mute: #1a462766;
--navbar-background: #1a4627;
--chat-background: #1a4627;
--chat-background-user: #28b561;
--chat-background-assistant: #1a462722;
}
#content-container {
background-color: #2e5d3a !important;
}
:root {
font-family: "汉仪唐美人" !important; /* Шрифт */
}
/* Цвет текста при раскрытии глубокого размышления */
.ant-collapse-content-box .markdown {
color: red;
}
/* Переменные темы */
:root {
--color-black-soft: #2a2b2a; /* Темный цвет фона */
--color-white-soft: #f8f7f2; /* Светлый цвет фона */
}
/* Темная тема */
body[theme-mode="dark"] {
/* Цвета */
--color-background: #2b2b2b; /* Темный цвет фона */
--color-background-soft: #303030; /* Светлый цвет фона */
--color-background-mute: #282c34; /* Нейтральный цвет фона */
--navbar-background: var(-–color-black-soft); /* Цвет фона панели навигации */
--chat-background: var(–-color-black-soft); /* Цвет фона чата */
--chat-background-user: #323332; /* Цвет фона сообщений пользователя */
--chat-background-assistant: #2d2e2d; /* Цвет фона сообщений ассистента */
}
/* Специфичные стили для темной темы */
body[theme-mode="dark"] {
#content-container {
background-color: var(-–chat-background-assistant) !important; /* Цвет фона контейнера контента */
}
#content-container #messages {
background-color: var(-–chat-background-assistant); /* Цвет фона сообщений */
}
.inputbar-container {
background-color: #3d3d3a; /* Цвет фона поля ввода */
border: 1px solid #5e5d5940; /* Цвет границы поля ввода */
border-radius: 8px; /* Скругление границ поля ввода */
}
/* Стили кода */
code {
background-color: #e5e5e20d; /* Цвет фона кода */
color: #ea928a; /* Цвет текста кода */
}
pre code {
color: #abb2bf; /* Цвет текста в предварительно отформатированном коде */
}
}
/* Светлая тема */
body[theme-mode="light"] {
/* Цвета */
--color-white: #ffffff; /* Белый цвет */
--color-background: #ebe8e2; /* Светлый цвет фона */
--color-background-soft: #cbc7be; /* Светлый цвет фона */
--color-background-mute: #e4e1d7; /* Нейтральный цвет фона */
--navbar-background: var(-–color-white-soft); /* Цвет фона панели навигации */
--chat-background: var(-–color-white-soft); /* Цвет фона чата */
--chat-background-user: #f8f7f2; /* Цвет фона сообщений пользователя */
--chat-background-assistant: #f6f4ec; /* Цвет фона сообщений ассистента */
}
/* Специфичные стили для светлой темы */
body[theme-mode="light"] {
#content-container {
background-color: var(-–chat-background-assistant) !important; /* Цвет фона контейнера контента */
}
#content-container #messages {
background-color: var(-–chat-background-assistant); /* Цвет фона сообщений */
}
.inputbar-container {
background-color: #ffffff; /* Цвет фона поля ввода */
border: 1px solid #87867f40; /* Цвет границы поля ввода */
border-radius: 8px; /* Скругление границ поля ввода, настройте по вкусу */
}
/* Стили кода */
code {
background-color: #3d39290d; /* Цвет фона кода */
color: #7c1b13; /* Цвет текста кода */
}
pre code {
color: #000000; /* Цвет текста в предварительно отформатированном коде */
}
}
Для получения дополнительных переменных темы обратитесь к исходному коду: https://github.com/CherryHQ/cherry-studio/tree/main/src/renderer/src/assets/styles
Тематическая библиотека Cherry Studio: https://github.com/boilcy/cherrycss
Коллекция тем для Cherry Studio в китайском стиле: https://linux.do/t/topic/325119/129
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Быстрый помощник — это удобный инструмент, предоставляемый Cherry Studio, который позволяет вам быстро обращаться к функциям искусственного интеллекта из любого приложения для мгновенных операций: вопросов, переводов, обобщений и объяснений.
Откройте настройки: Перейдите в Настройки
→ Сочетания клавиш
→ Быстрый помощник
.
Активируйте переключатель: Найдите и включите переключатель Быстрый помощник
.
Настройте сочетание клавиш (опционально):
Для Windows по умолчанию: Ctrl + E.
Для macOS по умолчанию: ⌘ + E.
Вы можете настроить свое сочетание, чтобы избежать конфликтов или адаптировать его под ваши привычки.
Вызов: В любом приложении нажмите заданное сочетание (или комбинацию по умолчанию) для открытия быстрого помощника.
Взаимодействие: В окне быстрого помощника доступны функции:
Быстрые вопросы: Задайте любой вопрос ИИ.
Перевод текста: Введите текст для перевода.
Обобщение контента: Введите длинный текст для сжатия.
Пояснение: Введите концепт или термин для объяснения.
Закрытие: Нажмите ESC или щелкните вне окна помощника.
Конфликты сочетаний: При конфликтах с другими приложениями измените сочетание.
Дополнительные функции: Помимо указанных функций, помощник может генерировать код, изменять стили текста и т.д. — изучайте возможности во время использования.
Обратная связь: При проблемах или предложениях направляйте .
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
На этой странице вы можете настроить цветовую тему программы, макет страницы или для персонализации.
Здесь можно установить цветовую схему интерфейса по умолчанию (светлая, тёмная или в соответствии с системой).
Эти настройки определяют макет интерфейса беседы.
Расположение тем
Автоматическое переключение на тему
При включении этой настройки щелчок по имени ассистента автоматически переключит страницу на соответствующую тему.
Отображение времени темы
При включении под темой будет отображаться время её создания.
Эта настройка позволяет гибко изменять интерфейс под индивидуальные предпочтения. Подробные инструкции см. в раздела продвинутых настроек.
如何在 Cherry Studio 使用联网模式
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
В окне запроса Cherry Studio нажмите значок 【🌐】, чтобы активировать подключение.
Режим 1: Встроенная функция подключения у поставщиков моделей
Если модель изначально поддерживает интернет, после активации можно сразу использовать онлайн-функции.
Проверить поддержку подключения можно по значку 🌐 рядом с названием модели в интерфейсе чата.
Этот метод также работает на странице управления моделями для быстрой идентификации поддержки сети.
Поставщики моделей с поддержкой интернета в Cherry Studio
Google Gemini
OpenRouter (все модели)
Tencent Hunyuan
Zhipu AI
Alibaba Cloud Bailian
Особый случай: Даже без значка 🌐 некоторые модели могут работать в сети, как описано в руководстве ниже.
Режим 2: Использование сервиса Tavily для моделей без встроенной поддержки
Если модель не имеет значка 🌐, но требует обработки актуальных данных, используется сервис поиска Tavily.
При первом использовании Tavily появится окно настройки – следуйте инструкциям.
После нажатия откроется страница регистрации на официальном сайте Tavily. Зарегистрируйтесь, создайте API-ключ и вставьте его в Cherry Studio.
Инструкция по регистрации доступна в документации Tavily в этом каталоге.
Руководство по регистрации Tavily:
Интерфейс ниже подтверждает успешную регистрацию.
Тест работы: результаты показывают успешный поиск (по умолчанию выбрано 5 источников).
Внимание: Tavily имеет месячные бесплатные ограничения, превышение требует оплаты~
P.S.: При обнаружении ошибок обращайтесь в любое время.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Токены — это базовые единицы обработки текста в AI-моделях, которые можно рассматривать как минимальные "мыслительные" элементы модели. Они не полностью эквивалентны символам или словам в человеческом понимании, а представляют собой особый способ разделения текста, используемый самой моделью.
1. Токенизация китайского языка
Один иероглиф обычно кодируется в 1-2 токена
Например: "你好"
≈ 2-4 токена
2. Токенизация английского языка
Распространенные слова обычно составляют 1 токен
Длинные или редкие слова разбиваются на несколько токенов
Например:
"hello"
= 1 токен
"indescribable"
= 4 токена
3. Специальные символы
Пробелы, пунктуация и другие символы также занимают токены
Символ новой строки обычно составляет 1 токен
Токенизатор (Tokenizer) — это инструмент AI-модели для преобразования текста в токены. Он определяет, как входной текст разбивается на минимальные единицы, понятные модели.
1. Разные обучающие данные
Разные корпуса данных приводят к разным оптимизациям
Разный уровень поддержки многоязычности
Специальная оптимизация для конкретных областей (медицина, юриспруденция и т.д.)
2. Разные алгоритмы токенизации
BPE (Byte Pair Encoding) - OpenAI GPT series
WordPiece - Google BERT
SentencePiece - оптимален для многоязычных сценариев
3. Разные цели оптимизации
Одни фокусируются на эффективности сжатия
Другие на сохранении семантики
Третьи на скорости обработки
Один и тот же текст может иметь разное количество токенов в разных моделях:
Базовое понятие: Модель эмбеддингов — это технология преобразования высокоразмерных дискретных данных (текст, изображения и т.д.) в низкоразмерные непрерывные векторы. Этот процесс позволяет машинам лучше понимать и обрабатывать сложные данные. Представьте, что сложный пазл упрощается до простой координатной точки, сохраняющей ключевые характеристики оригинала. В экосистеме больших моделей эмбеддинги выступают "переводчиками", преобразующими информацию, понятную человеку, в числовую форму, понятную ИИ.
Принцип работы: В обработке естественного языка модели эмбеддингов сопоставляют слова с определенными позициями в векторном пространстве. В этом пространстве семантически близкие слова автоматически группируются. Например:
Векторы "король" и "королева" будут близки
Слова для домашних животных, такие как "кот" и "собака", также окажутся рядом
Семантически несвязанные слова, например "автомобиль" и "хлеб", будут далеки друг от друга
Основные сценарии применения:
Анализ текста: классификация документов, анализ тональности
Рекомендательные системы: персонализированные предложения контента
Обработка изображений: поиск похожих изображений
Поисковые системы: оптимизация семантического поиска
Ключевые преимущества:
Снижение размерности: упрощение сложных данных до управляемой векторной формы
Сохранение семантики: сохранение ключевой смысловой информации исходных данных
Вычислительная эффективность: значительное ускорение обучения и вывода моделей машинного обучения
Технологическая ценность: Модели эмбеддингов являются фундаментальным компонентом современных AI-систем, обеспечивая высококачественное представление данных для задач машинного обучения, и служат ключевой технологией для развития обработки естественного языка и компьютерного зрения.
Базовый рабочий процесс:
Этап предобработки базы знаний
Разделение документов на фрагменты (chunks) подходящего размера
Преобразование каждого фрагмента в вектор с помощью модели эмбеддингов
Сохранение векторов и исходного текста в векторной базе данных
Этап обработки запроса
Преобразование пользовательского вопроса в вектор
Поиск похожего контента в векторной базе
Передача найденного релевантного контента LLM в качестве контекста
MCP — это открытый протокол, предназначенный для стандартизированной передачи контекстной информации крупным языковым моделям (LLM).
Аналогия: MCP можно представить как "USB-флешку" для мира ИИ. Мы знаем, что флешка хранит различные файлы и при подключении к компьютеру сразу готова к использованию. Аналогично, на MCP Server можно "подключать" различные "плагины", предоставляющие контекст. LLM могут запрашивать эти плагины при необходимости, получая более богатый контекст для усиления своих возможностей.
Сравнение с Function Tool: Традиционные Function Tools (функциональные инструменты) также предоставляют LLM внешние функции, но MCP представляет собой более высокоуровневую абстракцию. Function Tools в основном ориентированы на конкретные задачи, тогда как MCP предлагает универсальный модульный механизм получения контекста.
Стандартизация: MCP предоставляет унифицированный интерфейс и формат данных, обеспечивая бесшовное взаимодействие между различными LLM и поставщиками контекста.
Модульность: Позволяет разработчикам разбивать контекстную информацию на независимые модули (плагины), упрощая управление и повторное использование.
Гибкость: LLM могут динамически выбирать нужные контекстные плагины, обеспечивая более интеллектуальное и персонализированное взаимодействие.
Масштабируемость: Конструкция MCP поддерживает добавление новых типов контекстных плагинов, открывая безграничные возможности для расширения функциональности LLM.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Ollama — это превосходный инструмент с открытым исходным кодом, позволяющий легко запускать и управлять различными большими языковыми моделями (LLMs) на локальном устройстве. Cherry Studio теперь поддерживает интеграцию с Ollama, что даёт возможность взаимодействовать с локально развёрнутой LLM через знакомый интерфейс без зависимости от облачных сервисов!
Ollama — это инструмент для упрощённого развёртывания и использования больших языковых моделей (LLM). Его ключевые особенности:
Локальный запуск: Модели работают полностью на вашем локальном компьютере без подключения к интернету, обеспечивая конфиденциальность и безопасность данных.
Простота использования: Загрузка, запуск и управление моделями осуществляется простыми командами терминала.
Богатый выбор моделей: Поддерживает популярные модели с открытым исходным кодом: Llama 2, Deepseek, Mistral, Gemma и другие.
Кросс-платформенность: Работает в macOS, Windows и Linux.
Открытый API: Совместим с OpenAI API, что позволяет интегрировать его с другими инструментами.
Без облачных сервисов: Свободно используйте возможности локальных LLM без ограничений квот и платы за облачные API.
Конфиденциальность данных: Все диалоговые данные остаются на вашем устройстве.
Работа офлайн: Взаимодействуйте с моделями без интернет-соединения.
Кастомизация: Выбирайте и настраивайте LLM, наиболее соответствующие вашим задачам.
Сначала установите и запустите Ollama на вашем компьютере:
Скачивание Ollama: Перейдите на и скачайте установщик для вашей ОС. В Linux установку можно выполнить командой:
Установка Ollama: Следуйте инструкциям установщика.
Загрузка модели: В терминале скачайте нужную модель командой ollama run
. Например, для модели Llama 3:
Ollama автоматически скачает и запустит модель.
Поддержка работы: Обеспечьте непрерывную работу Ollama во время взаимодействия с Cherry Studio.
Добавьте Ollama в качестве пользовательского AI-провайдера:
Откройте настройки: В левой панели Cherry Studio нажмите "Настройки" (иконка шестерёнки).
Перейдите в "Модели": В настройках выберите вкладку "Модельные сервисы".
Добавьте провайдера: Выберите Ollama в списке.
Настройте добавленного провайдера Ollama:
Статус активности:
Активируйте переключатель справа от Ollama.
API-ключ:
Для Ollama не требуется API-ключ. Оставьте поле пустым или введите любое значение.
API-адрес:
Укажите локальный адрес Ollama. Стандартное значение:
(измените порт при необходимости).
Время активности: Укажите время (в минутах), через которое Cherry Studio автоматически разорвёт соединение с Ollama при отсутствии активности.
Управление моделями:
Нажмите "+ Добавить" для ручного ввода названия скачанной модели.
Например, для модели llama3.2
, скачанной командой ollama run llama3.2
, введите llama3.2
.
Используйте кнопку "Управление" для редактирования или удаления моделей.
После настройки выберите Ollama как провайдера и нужную модель в интерфейсе чата Cherry Studio для взаимодействия с локальной LLM!
Первый запуск модели: При первом запуске Ollama скачивает файлы модели — это может занять время.
Список моделей: Команда ollama list
в терминале покажет скачанные модели.
Аппаратные требования: Убедитесь, что ваше устройство соответствует системным требованиям LLM (CPU, RAM, GPU).
Документация Ollama: Используйте ссылку Просмотр документации и моделей Ollama
в настройках для быстрого перехода на официальный сайт.
Ввод: "Hello, world!"
GPT-3: 4 токена
BERT: 3 токена
Claude: 3 токена
curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3.2
http://localhost:11434/
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Официальная справочная информация по моделям
Doubao-embedding
4095
Doubao-embedding-vision
8191
Doubao-embedding-large
4095
Официальная справочная информация по моделям
text-embedding-v3
8192
text-embedding-v2
2048
text-embedding-v1
2048
text-embedding-async-v2
2048
text-embedding-async-v1
2048
Официальная справочная информация по моделям
text-embedding-3-small
8191
text-embedding-3-large
8191
text-embedding-ada-002
8191
Официальная справочная информация по моделям
Embedding-V1
384
tao-8k
8192
Официальная справочная информация по моделям
embedding-2
1024
embedding-3
2048
Официальная справочная информация по моделям
hunyuan-embedding
1024
Официальная справочная информация по моделям
Baichuan-Text-Embedding
512
Официальная справочная информация по моделям
M2-BERT-80M-2K-Retrieval
2048
M2-BERT-80M-8K-Retrieval
8192
M2-BERT-80M-32K-Retrieval
32768
UAE-Large-v1
512
BGE-Large-EN-v1.5
512
BGE-Base-EN-v1.5
512
Официальная справочная информация по моделям
jina-embedding-b-en-v1
512
jina-embeddings-v2-base-en
8191
jina-embeddings-v2-base-zh
8191
jina-embeddings-v2-base-de
8191
jina-embeddings-v2-base-code
8191
jina-embeddings-v2-base-es
8191
jina-colbert-v1-en
8191
jina-reranker-v1-base-en
8191
jina-reranker-v1-turbo-en
8191
jina-reranker-v1-tiny-en
8191
jina-clip-v1
8191
jina-reranker-v2-base-multilingual
8191
reader-lm-1.5b
256000
reader-lm-0.5b
256000
jina-colbert-v2
8191
jina-embeddings-v3
8191
Официальная справочная информация по моделям
BAAI/bge-m3
8191
netease-youdao/bce-embedding-base_v1
512
BAAI/bge-large-zh-v1.5
512
BAAI/bge-large-en-v1.5
512
Pro/BAAI/bge-m3
8191
Официальная справочная информация по моделям
text-embedding-004
2048
Официальная справочная информация по моделям
nomic-embed-text-v1
8192
nomic-embed-text-v1.5
8192
gte-multilingual-base
8192
Официальная справочная информация по моделям
embedding-query
4000
embedding-passage
4000
Официальная справочная информация по моделям
embed-english-v3.0
512
embed-english-light-v3.0
512
embed-multilingual-v3.0
512
embed-multilingual-light-v3.0
512
embed-english-v2.0
512
embed-english-light-v2.0
512
embed-multilingual-v2.0
256
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Помощник
- это персонализированные настройки для выбранной модели, такие как предустановки промптов и параметров, которые позволяют адаптировать модель под ваши ожидания в работе.
Системный помощник по умолчанию
содержит универсальные параметры (без промпта). Вы можете использовать его напрямую или найти нужные предустановки на .
Помощник
является родительским элементом для тем
. Под одним помощником можно создавать несколько тем (диалогов). Все темы
используют одинаковые параметры помощника: настройки модели, промпты и др.
Новая тема
- создать новую тему в текущем помощнике.
Загрузить изображение/документ
- загрузка изображений требует поддержки модели; документы автоматически преобразуются в текст как контекст для модели.
Поиск в интернете
- требуется настройка в параметрах; результаты передаются модели как контекст. Подробнее в .
База знаний
- активация базы знаний. Подробнее в .
Сервер MCP
- активация функции сервера MCP. Подробнее в .
Создать изображение
- по умолчанию скрыто; для моделей с поддержкой генерации изображений (например Gemini) требуется ручная активация.
Выбрать модель
- переключение модели для последующих сообщений с сохранением контекста.
Быстрые фразы
- пресеты часто используемых фраз, вызываемые здесь; поддерживают переменные.
Очистить сообщения
- удалить всё содержимое темы.
Развернуть
- увеличение диалогового окна для длинных сообщений.
Очистить контекст
- обрезает доступный для модели контекст без удаления содержимого ("забывание" предыдущих сообщений).
Оценка количества токенов
- отображает: текущий контекст
, максимальный контекст
(∞ - без ограничений), символы в поле ввода
, оценочные токены
.
Перевод
- переводит содержимое поля ввода на английский.
Синхронизируются с параметрами Настройки модели
в помощнике. Подробнее в .
Разделитель сообщений
:
Отделяет текст сообщений от панели действий.
Шрифт с засечками
:
Переключение стиля шрифта. Альтернатива: .
Нумерация строк в коде
:
Отображение номеров строк в блоках кода.
Сворачиваемые блоки кода
:
Автоматическое сворачивание длинных блоков кода.
Перенос строк в коде
:
Перенос длинных строк кода при выходе за границы окна.
Автосворачивание размышлений
:
Модели с поддержкой "размышлений" автоматически сворачивают процесс мышления.
Стиль сообщений
:
Переключение между стилями "пузырьки" или "список".
Стиль кода
:
Изменение визуального оформления блоков кода.
Математические формулы
:
KaTeX - быстрая рендеринг, оптимизирована для производительности;
MathJax - медленнее, но поддерживает больше символов и команд.
Размер шрифта сообщений
:
Изменение размера шрифта в интерфейсе диалога.
Отображать оценку токенов
:
Показывает оценочное количество токенов для вводимого текста (не фактическое потребление контекста, справочно).
Длинный текст как файл
:
При вставке длинного текста автоматически отображается как файл, чтобы снизить помехи при вводе.
Рендеринг Markdown во вводе
:
При выключении рендерится только ответ модели, не сообщения пользователя.
Перевод тройным пробелом
:
Троекратное нажатие пробела переводит введённый текст на английский.
Внимание: заменяет оригинальный текст.
Язык перевода
:
Настройка целевого языка для перевода (кнопка и тройной пробел).
Выберите имя помощника → правая кнопка мыши → соответствующие настройки
Настройки промптов
Имя
:
Пользовательское имя для идентификации помощника.
Промпт
:
Текст промпта. Можно использовать в качестве образца промпты со страницы агентов.
Настройки модели
Модель по умолчанию
:
Фиксированная стартовая модель для помощника. Если не задано, используется .
Автосброс модели
:
При включении: переключение модели в теме сбрасывается на модель помощника при создании новой темы. При выключении: новая тема сохраняет последнюю использованную модель.
Пример: помощник настроен на gpt-3.5-turbo, в теме1 переключились на gpt-4o.
Автосброс включен: тема2 стартует с gpt-3.5-turbo
Автосброс выключен: тема2 стартует с gpt-4o
Температура (Temperature)
:
Контролирует случайность/креативность вывода (умолч. 0.7):
Низкая (0-0.3): предсказуемый вывод, для кода/данных
Средняя (0.4-0.7): баланс для диалогов
Высокая (0.8-1.0): креативность, возможны потери логики
Top P (Ядерная выборка)
:
Управляет разнообразием лексики (умолч. 1):
Низкое (0.1-0.3): консервативный вывод
Среднее (0.4-0.6): баланс
Высокое (0.7-1.0): богатая лексика
Контекст (Context Window)
Количество хранимых сообщений в контексте:
5-10: стандартные диалоги
10: сложные задачи (генерация длинных текстов)
Увеличение = больше токенов
Ограничение длины ответа (MaxToken)
Максимальное количество токенов на ответ.
Пример: тестирование подключения модели требует короткого ответа → MaxToken=1
Большинство моделей поддерживают до 32K токенов (уточняйте в спецификациях).
Рекомендации:
Диалог: 500-800
Короткий текст: 800-2000
Код: 2000-3600
Длинный текст: 4000+ (требует поддержки модели)
При достижении лимита ответ может обрезаться. Требуется индивидуальная настройка.
Потоковый вывод (Stream)
Постепенная отправка сгенерированных данных:
Включено: посимвольный вывод ("эффект пишущей машинки")
Выключено: полный ответ одним сообщением
Пользовательские параметры
Дополнительные параметры запроса (например presence_penalty
). Используется редко.
Параметры top-p, maxtokens и stream относятся к этой категории.
Формат: Имя-Тип(текст/число)-Значение. Примеры:
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Внимание: Windows 7 не поддерживает установку Cherry Studio.
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
360gpt-pro
8k
-
не поддерживается
диалог
360AI_360gpt
Лучшая модель серии 360 ZhiNao с миллиардами параметров, подходит для сложных задач в различных областях.
360gpt-turbo
7k
-
не поддерживается
диалог
360AI_360gpt
Баланс производительности и эффективности модели с миллиардами параметров, подходит для сценариев с высокими требованиями к производительности/стоимости.
360gpt-turbo-responsibility-8k
8k
-
не поддерживается
диалог
360AI_360gpt
Баланс производительности и эффективности модели с миллиардами параметров, подходит для сценариев с высокими требованиями к производительности/стоимости.
360gpt2-pro
8k
-
не поддерживается
диалог
360AI_360gpt
Лучшая модель серии 360 ZhiNao с миллиардами параметров, подходит для сложных задач в различных областях.
claude-3-5-sonnet-20240620
200k
16k
не поддерживается
диалог, распознавание изображений
Anthropic_claude
Версия от 20 июня 2024 года. Claude 3.5 Sonnet обеспечивает баланс производительности и скорости, поддерживает мультимодальный ввод.
claude-3-5-haiku-20241022
200k
16k
не поддерживается
диалог
Anthropic_claude
Версия от 22 октября 2024 года. Claude 3.5 Haiku улучшен в кодировании, использовании инструментов и рассуждении. Самая быстрая модель Anthropic, подходит для чат-ботов и автодополнения кода.
claude-3-5-sonnet-20241022
200k
8K
не поддерживается
диалог, распознавание изображений
Anthropic_claude
Версия от 22 октября 2024 года. Claude 3.5 Sonnet превосходит Opus по возможностям и быстрее Sonnet, сохраняя ту же цену. Особенно силен в программировании, науке о данных и визуальной обработке.
claude-3-5-sonnet-latest
200K
8k
не поддерживается
диалог, распознавание изображений
Anthropic_claude
Всегда указывает на последнюю версию Claude 3.5 Sonnet. Силен в программировании, науке о данных, визуальной обработке и агентских задачах.
claude-3-haiku-20240307
200k
4k
не поддерживается
диалог, распознавание изображений
Anthropic_claude
Самая быстрая и компактная модель Claude 3 с точным направленным выполнением.
claude-3-opus-20240229
200k
4k
не поддерживается
диалог, распознавание изображений
Anthropic_claude
Самая мощная модель Anthropic для решения сложных задач. Превосходная производительность, интеллект, плавность и понимание.
claude-3-sonnet-20240229
200k
8k
не поддерживается
диалог, распознавание изображений
Anthropic_claude
Версия от 29 февраля 2024 года. Особенно силен в: - Кодировании: написание, редактирование и выполнение кода с рассуждениями - Науке о данных: работа с неструктурированными данными - Визуальной обработке: интерпретация диаграмм, графиков и изображений - Агентских задачах: взаимодействие с системами
google/gemma-2-27b-it
8k
-
не поддерживается
диалог
Google_gamma
Легкие современные открытые модели от Google на основе технологий Gemini. Подходят для генерации текста, вопросов, суммаризации.
google/gemma-2-9b-it
8k
-
не поддерживается
диалог
Google_gamma
Легкие современные открытые модели от Google. Модель на 9B параметров обучена на 8 триллионах токенов.
gemini-1.5-pro
2m
8k
не поддерживается
диалог
Google_gemini
Последняя стабильная версия Gemini 1.5 Pro. Обрабатывает до 60 тысяч строк кода или 2000 страниц текста. Подходит для сложных задач.
gemini-1.0-pro-001
33k
8k
не поддерживается
диалог
Google_gemini
Стабильная версия Gemini 1.0 Pro для обработки текста и кода. Прекращение поддержки 15 февраля 2025 года.
gemini-1.0-pro-002
32k
8k
не поддерживается
диалог
Google_gemini
Стабильная версия Gemini 1.0 Pro для обработки текста и кода. Прекращение поддержки 15 февраля 2025 года.
gemini-1.0-pro-latest
33k
8k
не поддерживается
диалог, устаревшая или скоро устареет
Google_gemini
Последняя версия Gemini 1.0 Pro. Прекращение поддержки 15 февраля 2025 года.
gemini-1.0-pro-vision-001
16k
2k
не поддерживается
диалог
Google_gemini
Визуальная версия Gemini 1.0 Pro. Прекращение поддержки 15 февраля 2025 года.
gemini-1.0-pro-vision-latest
16k
2k
не поддерживается
распознавание изображений
Google_gemini
Последняя визуальная версия Gemini 1.0 Pro. Прекращение поддержки 15 февраля 2025 года.
gemini-1.5-flash
1m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Стабильная версия Gemini 1.5 Flash. Сбалансированная мультимодальная модель, обрабатывающая аудио, изображения, видео и текст.
gemini-1.5-flash-001
1m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Стабильная версия с фиксированными характеристиками для производственных сред.
gemini-1.5-flash-002
1m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Стабильная версия с фиксированными характеристиками для производственных сред.
gemini-1.5-flash-8b
1m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Gemini 1.5 Flash-8B — мультимодальная модель Google на 8 млрд параметров. Оптимизирована для скорости и экономической эффективности с удвоенными ограничениями скорости.
gemini-1.5-flash-exp-0827
1m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Экспериментальная версия Gemini 1.5 Flash, подходит для тестирования, не рекомендуется для производства.
gemini-1.5-flash-latest
1m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Самая передовая версия Gemini 1.5 Flash, подходит для тестирования, не рекомендуется для производства.
gemini-1.5-pro-001
2m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Стабильная версия Gemini 1.5 Pro для производственных сред.
gemini-1.5-pro-002
2m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Стабильная версия Gemini 1.5 Pro для производственных сред.
gemini-1.5-pro-exp-0801
2m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Экспериментальная версия Gemini 1.5 Pro. Обрабатывает до 60 тысяч строк кода или 2000 страниц текста.
gemini-1.5-pro-exp-0827
2m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Экспериментальная версия Gemini 1.5 Pro. Обрабатывает до 60 тысяч строк кода или 2000 страниц текста.
gemini-1.5-pro-latest
2m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Последняя версия, указывает на последнюю снимок версии.
gemini-2.0-flash
1m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Gemini 2.0 Flash от Google предлагает улучшенную скорость первого токена и качество, превосходящее Gemini Pro 1.5.
gemini-2.0-flash-exp
100k
8k
поддерживается
диалог, распознавание изображений
Google_gemini
Представляет мультимодальный API, улучшенную скорость, производительность и функции генерации изображений.
gemini-2.0-flash-lite-preview-02-05
1M
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Gemini 2.0 Flash-Lite предлагает лучшее качество при той же скорости, что и 1.5 Flash, с окном контекста в 1 млн токенов и упрощенной ценовой политикой.
gemini-2.0-flash-thinking-exp
40k
8k
не поддерживается
диалог, рассуждение
Google_gemini
Экспериментальная модель, генерирующая процесс "мышления" для улучшенных рассуждений.
gemini-2.0-flash-thinking-exp-01-21
1m
64k
не поддерживается
диалог, рассуждение
Google_gemini
Модель от Google с усиленными возможностями рассуждений в математике и программировании при контексте в 1 млн токенов.
gemini-2.0-flash-thinking-exp-1219
40k
8k
не поддерживается
диалог, рассуждение, распознавание изображений
Google_gemini
Экспериментальная модель, генерирующая процесс "мышления" для улучшенных рассуждений.
gemini-2.0-pro-exp-01-28
2m
64k
не поддерживается
диалог, распознавание изображений
Google_gemini
Предзагрузка модели, еще не доступна
gemini-2.0-pro-exp-02-05
2m
8k
не поддерживается
диалог, распознавание изображений
Google_gemini
Экспериментальная модель от февраля 2024 года с
数据设置→Obsidian配置
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Cherry Studio поддерживает интеграцию с Obsidian, позволяя экспортировать как полные диалоги, так и отдельные сообщения в ваше хранилище Obsidian.
Для этого не требуется установка дополнительных плагинов Obsidian. Однако поскольку механизм экспорта Cherry Studio в Obsidian аналогичен принципу работы Obsidian Web Clipper, мы рекомендуем пользователям обновить Obsidian до последней версии (текущая версия должна быть не ниже 1.7.2), чтобы избежать сбоев импорта при экспорте длинных диалогов.
Откройте Cherry Studio → Настройки → Настройки данных → Конфигурация Obsidian. В выпадающем списке автоматически отобразятся все открытые на вашем компьютере хранилища Obsidian. Выберите целевое хранилище:
Экспорт полного диалога
В интерфейсе диалогов Cherry Studio щелкните правой кнопкой мыши по диалогу, выберите Экспортировать → Экспортировать в Obsidian:
Откроется окно для настройки свойств заметки, местоположения папки в Obsidian и метода обработки:
Хранилище: выберите другое хранилище из выпадающего меню
Путь: выберите папку для экспортируемой заметки
Свойства заметки в Obsidian (Properties):
Теги (tags)
Дата создания (created)
Источник (source)
Методы обработки при экспорте в Obsidian:
Создать (перезаписать при наличии): создает новую заметку в указанной папке, перезаписывая существующую
Добавить в начало: добавляет содержимое диалога в начало существующей заметки
Добавить в конец: добавляет содержимое диалога в конец существующей заметки
После выбора всех параметров нажмите "ОК" для экспорта диалога в указанную папку хранилища Obsidian.
Экспорт отдельного сообщения
Для экспорта отдельного сообщения нажмите на меню с тремя полосками под сообщением, выберите Экспортировать → Экспортировать в Obsidian:
Откроется аналогичное окно для настройки свойств и метода обработки, как при экспорте полного диалога. Действуйте по инструкции выше.
🎉 Поздравляем! Вы завершили настройку интеграции Cherry Studio с Obsidian и выполнили полный процесс экспорта. Наслаждайтесь!
Откройте хранилище Obsidian и создайте папку
для экспортируемых диалогов (в примере используется папка Cherry Studio):
Запомните название хранилища
, выделенное в нижнем левом углу.
В Cherry Studio → Настройки → Настройки данных → Конфигурация Obsidian введите полученные на Шаге 1 название хранилища
и папки
:
Поле Глобальные теги
необязательно – здесь можно указать теги для всех экспортируемых заметок.
Экспорт полного диалога
В интерфейсе диалогов щелкните правой кнопкой мыши по диалогу, выберите Экспортировать → Экспортировать в Obsidian.
В открывшемся окне настройте свойства заметки и выберите метод обработки:
Создать (перезаписать при наличии): создает новую заметку в указанной папке
Добавить в начало: добавляет контент в начало существующей заметки
Добавить в конец: добавляет контент в конец существующей заметки
Экспорт отдельного сообщения
Нажмите на меню с тремя полосками под сообщением, выберите Экспортировать → Экспортировать в Obsidian.
Действуйте по инструкции выше для настройки свойств и метода обработки.
🎉 Поздравляем! Вы завершили настройку интеграции Cherry Studio с Obsidian. Наслаждайтесь возможностями!
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
CherryStudio поддерживает веб-поиск через SearXNG — проект с открытым исходным кодом, который можно развернуть локально или на сервере, что отличается от других конфигураций, требующих API-провайдеров.
Ссылка на проект SearXNG: SearXNG
Открытый исходный код, бесплатный, не требует API
Относительно высокая конфиденциальность
Высокая степень кастомизации
Поскольку SearXNG не требует сложной настройки окружения, можно обойтись без docker compose. Достаточно просто предоставить свободный порт. Самый быстрый способ — использовать Docker для загрузки и развертывания образа.
1. Установка и настройка docker
После установки выберите путь для хранения образов:
2. Поиск и загрузка образа SearXNG
Введите в поиск searxng:
Загрузите образ:
3. Запуск образа
После успешной загрузки перейдите на вкладку Images:
Выберите загруженный образ и нажмите "Run":
Откройте настройки для конфигурации:
В качестве примера используем порт 8085
:
После успешного запуска нажмите на ссылку для открытия интерфейса SearXNG:
Появление этой страницы означает успешное развертывание:
Учитывая, что установка Docker в Windows — довольно сложный процесс, пользователи могут развернуть SearXNG на сервере, чтобы предоставить к нему доступ другим. К сожалению, SearXNG пока не поддерживает аутентификацию, из-за чего злоумышленники могут сканировать и злоупотреблять вашим экземпляром.
Поэтому Cherry Studio теперь поддерживает HTTP Basic Authentication (RFC7617). Если вы развертываете SearXNG в публичной сети, обязательно настройте HTTP Basic Auth через обратный прокси (например, Nginx). Далее приведен краткий гайд, требующий базовых знаний администрирования Linux.
Аналогично используем Docker для развертывания. Предположим, что вы установили последнюю версию Docker CE по официальной инструкции. Команды ниже подходят для свежей установки на Debian:
sudo apt update
sudo apt install git -y
# Клонируем официальный репозиторий
cd /opt
git clone https://github.com/searxng/searxng-docker.git
cd /opt/searxng-docker
# Установите false, если у сервера низкая пропускная способность
export IMAGE_PROXY=true
# Редактируем конфиг
cat <<EOF > /opt/searxng-docker/searxng/settings.yml
# see https://docs.searxng.org/admin/settings/settings.html#settings-use-default-settings
use_default_settings: true
server:
# base_url is defined in the SEARXNG_BASE_URL environment variable, see .env and docker-compose.yml
secret_key: $(openssl rand -hex 32)
limiter: false # can be disabled for a private instance
image_proxy: $IMAGE_PROXY
ui:
static_use_hash: true
redis:
url: redis://redis:6379/0
search:
formats:
- html
- json
EOF
Если нужно изменить порт или использовать локальный nginx, отредактируйте docker-compose.yaml
:
version: "3.7"
services:
# Удалите блок ниже, если используете локальный Nginx вместо Caddy
caddy:
container_name: caddy
image: docker.io/library/caddy:2-alpine
network_mode: host
restart: unless-stopped
volumes:
- ./Caddyfile:/etc/caddy/Caddyfile:ro
- caddy-data:/data:rw
- caddy-config:/config:rw
environment:
- SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}
- SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}
cap_drop:
- ALL
cap_add:
- NET_BIND_SERVICE
logging:
driver: "json-file"
options:
max-size: "1m"
max-file: "1"
# Удалите блок выше, если используете локальный Nginx вместо Caddy
redis:
container_name: redis
image: docker.io/valkey/valkey:8-alpine
command: valkey-server --save 30 1 --loglevel warning
restart: unless-stopped
networks:
- searxng
volumes:
- valkey-data2:/data
cap_drop:
- ALL
cap_add:
- SETGID
- SETUID
- DAC_OVERRIDE
logging:
driver: "json-file"
options:
max-size: "1m"
max-file: "1"
searxng:
container_name: searxng
image: docker.io/searxng/searxng:latest
restart: unless-stopped
networks:
- searxng
# По умолчанию пробрасывается на порт 8080 хоста. Для порта 8000 измените на "127.0.0.1:8000:8080"
ports:
- "127.0.0.1:8080:8080"
volumes:
- ./searxng:/etc/searxng:rw
environment:
- SEARXNG_BASE_URL=https://${SEARXNG_HOSTNAME:-localhost}/
- UWSGI_WORKERS=${SEARXNG_UWSGI_WORKERS:-4}
- UWSGI_THREADS=${SEARXNG_UWSGI_THREADS:-4}
cap_drop:
- ALL
cap_add:
- CHOWN
- SETGID
- SETUID
logging:
driver: "json-file"
options:
max-size: "1m"
max-file: "1"
networks:
searxng:
volumes:
# Удалите блок ниже, если используете локальный Nginx
caddy-data:
caddy-config:
# Удалите блок выше, если используете локальный Nginx
valkey-data2:
Запустите через docker compose up -d
. Логи можно посмотреть командой docker compose logs -f searxng
.
При использовании панелей управления (например, Baota или 1Panel) обратитесь к их документации по добавлению сайта и настройке Nginx. Затем найдите раздел конфигурации и внесите изменения:
server
{
listen 443 ssl;
# Укажите ваше доменное имя
server_name search.example.com;
# index index.html;
# root /data/www/default;
# Для SSL необходимы эти строки
ssl_certificate /path/to/your/cert/fullchain.pem;
ssl_certificate_key /path/to/your/cert/privkey.pem;
# HSTS
# add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload";
# Обратный прокси
location / {
# Добавьте эти две строки
auth_basic "Please enter your username and password";
auth_basic_user_file /etc/nginx/conf.d/search.htpasswd;
proxy_http_version 1.1;
proxy_set_header Connection "";
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $proxy_protocol_addr;
proxy_pass http://127.0.0.1:8000;
client_max_body_size 0;
}
# access_log ...;
# error_log ...;
}
Предположим, конфиги Nginx хранятся в /etc/nginx/conf.d
. Сохраните там же файл паролей.
Выполните команду (замените example_name
и example_password
):
echo "example_name:$(openssl passwd -5 'example_password')" > /etc/nginx/conf.d/search.htpasswd
Перезагрузите Nginx (или перечитайте конфиги).
Откройте страницу — должна появиться запрос на аутентификацию. Введите указанные учетные данные для проверки.
После успешного развертывания SearXNG перейдите к настройкам CherryStudio.
В разделе настроек веб-поиска выберите Searxng:
При вводе локального адреса может появиться ошибка проверки — это нормально:
Стандартная конфигурация не поддерживает формат JSON, поэтому данные не могут быть получены. Требуется изменить конфиг.
В Docker перейдите на вкладку Files и найдите папку с тегами:
Прокрутите вниз до другой папки с тегами:
Найдите файл конфигурации settings.yml:
Откройте редактор:
На строке 78 виден только один тип данных html:
Добавьте тип json, сохраните и перезапустите образ:
Повторно проверьте в Cherry Studio — проверка пройдена:
Адрес можно указать локальный: http://localhost:порт Или Docker: http://host.docker.internal:порт
Для серверной конфигурации с обратным прокси и включенным форматом json, при проверке с включенной HTTP Basic Auth будет возвращена ошибка 401:
Добавьте HTTP Basic Auth в клиенте, введя ранее установленные учетные данные:
Проверка должна завершиться успешно.
Теперь SearXNG может выполнять веб-поиск. Для кастомизации поисковых систем потребуется ручная настройка:
Эти настройки не влияют на интеграцию с крупными языковыми моделями:
Чтобы настроить интеграцию с языковыми моделями, измените конфигурационный файл:
Пример языкового конфига:
Для редактирования больших блоков скопируйте содержимое в локальный редактор, а затем вставьте обратно.
Добавьте json в настройках:
Cherry Studio по умолчанию использует движки, поддерживающие web и general. Google недоступен в некоторых регионах. Чтобы принудительно использовать Baidu, добавьте конфиг:
use_default_settings:
engines:
keep_only:
- baidu
engines:
- name: baidu
engine: baidu
categories:
- web
- general
disabled: false
Ограничитель в SearXNG блокирует API. Установите limiter в false:
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Это автоматически генерируемая таблица лидеров на основе данных Chatbot Arena (lmarena.ai).
Последнее обновление данных: 2025-07-14 11:44:01 UTC / 2025-07-14 19:44:01 CST (Пекинское время)
1
1
1477
+5/-5
15,769
Proprietary
Нет данных
2
2
1446
+4/-5
13,997
Proprietary
Нет данных
3
3
1429
+4/-4
24,237
OpenAI
Proprietary
Нет данных
3
2
1427
+3/-4
21,965
OpenAI
Proprietary
Нет данных
3
6
1425
+4/-5
12,847
DeepSeek
MIT
Нет данных
3
7
1422
+3/-4
25,763
xAI
Proprietary
Нет данных
5
6
1418
+4/-4
21,209
Proprietary
Нет данных
6
4
1414
+5/-4
15,271
OpenAI
Proprietary
Нет данных
9
7
1398
+5/-5
17,002
Proprietary
Нет данных
9
11
1392
+5/-4
15,758
Alibaba
Apache 2.0
Нет данных
11
6
1384
+3/-4
18,275
OpenAI
Proprietary
Нет данных
11
12
1382
+3/-3
21,008
DeepSeek
MIT
Нет данных
11
17
1380
+6/-5
8,247
Tencent
Proprietary
Нет данных
11
11
1376
+6/-6
8,058
MiniMax
Apache 2.0
Нет данных
13
12
1374
+3/-5
19,430
DeepSeek
MIT
Нет данных
14
19
1370
+4/-4
19,980
Mistral
Proprietary
Нет данных
14
6
1370
+4/-4
20,056
Anthropic
Proprietary
Нет данных
15
23
1367
+4/-4
14,597
Alibaba
Apache 2.0
Нет данных
16
11
1366
+2/-3
29,038
OpenAI
Proprietary
2023/10
16
11
1363
+4/-4
17,974
OpenAI
Proprietary
Нет данных
17
23
1363
+3/-3
32,074
Alibaba
Proprietary
Нет данных
18
25
1363
+3/-3
36,915
Proprietary
Нет данных
18
31
1359
+6/-5
10,561
xAI
Proprietary
Нет данных
19
25
1360
+3/-3
26,443
Gemma
Нет данных
24
31
1344
+12/-7
4,074
Alibaba
Apache 2.0
Нет данных
25
19
1351
+3/-4
33,177
OpenAI
Proprietary
2023/10
25
12
1343
+4/-5
16,050
Anthropic
Proprietary
Нет данных
26
25
1340
+4/-4
19,404
OpenAI
Proprietary
Нет данных
26
32
1337
+7/-8
3,976
Gemma
Нет данных
26
23
1337
+5/-4
17,292
OpenAI
Proprietary
Нет данных
26
31
1334
+4/-4
22,841
DeepSeek
DeepSeek
Нет данных
26
31
1332
+13/-13
2,061
Mistral
Apache 2.0
Нет данных
28
38
1333
+4/-5
18,386
Alibaba
Apache 2.0
Нет данных
29
36
1327
+8/-6
6,028
Zhipu
Proprietary
Нет данных
30
31
1329
+4/-4
26,104
Proprietary
Нет данных
30
56
1327
+5/-7
7,517
Amazon
Proprietary
Нет данных
30
32
1326
+7/-6
6,055
Alibaba
Proprietary
Нет данных
30
31
1321
+10/-11
2,656
Nvidia
Nvidia Open Model
Нет данных
32
32
1326
+3/-3
24,524
Cohere
CC-BY-NC-4.0
Нет данных
33
42
1323
+4/-4
14,229
Alibaba
Apache 2.0
Нет данных
33
38
1321
+7/-8
5,126
StepFun
Proprietary
Нет данных
33
31
1318
+8/-10
2,452
Tencent
Proprietary
Нет данных
34
39
1312
+11/-12
2,371
Nvidia
Nvidia
Нет данных
35
39
1320
+2/-2
54,951
OpenAI
Proprietary
2023/10
35
32
1319
+3/-3
36,971
OpenAI
Proprietary
Нет данных
38
32
1318
+2/-2
58,645
Proprietary
Нет данных
38
33
1312
+8/-10
2,510
Tencent
Proprietary
Нет данных
41
18
1313
+4/-4
25,955
Anthropic
Proprietary
Нет данных
43
58
1307
+7/-8
7,379
Gemma
Нет данных
44
21
1306
+4/-3
30,677
Anthropic
Proprietary
Нет данных
47
48
1304
+2/-2
67,084
xAI
Proprietary
2024/3
47
50
1303
+4/-3
28,968
01 AI
Proprietary
Нет данных
48
35
1301
+2/-2
117,747
OpenAI
Proprietary
2023/10
48
63
1298
+4/-6
10,715
Alibaba
Proprietary
Нет данных
50
25
1299
+2/-2
77,905
Anthropic
Proprietary
2024/4
50
55
1295
+6/-6
7,243
DeepSeek
DeepSeek
Нет данных
52
74
1292
+8/-9
4,321
Gemma
Нет данных
55
43
1292
+4/-4
18,010
Meta
Llama 4
Нет данных
55
64
1291
+3/-3
26,074
NexusFlow
NexusFlow
Нет данных
55
60
1290
+3/-3
27,788
Zhipu AI
Proprietary
Нет данных
55
49
1288
+8/-7
3,856
Tencent
Proprietary
Нет данных
55
56
1287
+6/-8
6,302
OpenAI
Proprietary
Нет данных
56
70
1287
+3/-3
37,021
Proprietary
Нет данных
56
79
1284
+5/-7
7,577
Nvidia
Llama 3.1
2023/12
57
61
1288
+2/-2
72,473
OpenAI
Proprietary
2023/10
59
41
1285
+2/-3
43,788
Meta
Llama 3.1 Community
2023/12
60
36
1284
+2/-2
86,159
Anthropic
Proprietary
2024/4
60
42
1283
+2/-2
63,038
Meta
Llama 3.1 Community
2023/12
61
41
1282
+3/-2
52,144
Proprietary
Online
61
60
1277
+8/-10
4,014
Tencent
Proprietary
Нет данных
62
79
1282
+2/-3
55,442
xAI
Proprietary
2024/3
62
43
1281
+2/-2
47,973
OpenAI
Proprietary
2023/10
63
63
1279
+3/-4
17,432
Alibaba
Qwen
Нет данных
63
56
1277
+6/-6
7,451
Meta
Llama
Нет данных
71
79
1271
+7/-6
7,367
Mistral
Apache 2.0
Нет данных
72
57
1276
+2/-2
82,435
Proprietary
2023/11
72
74
1274
+3/-3
26,344
DeepSeek
DeepSeek
Нет данных
72
61
1273
+3/-3
47,631
Meta
Llama-3.3
Нет данных
72
79
1273
+3/-3
41,519
Alibaba
Qwen
2024/9
73
56
1272
+2/-2
102,133
OpenAI
Proprietary
2023/12
78
86
1260
+10/-10
3,010
Ai2
Llama 3.1
Нет данных
79
64
1267
+2/-2
48,217
Mistral
Mistral Research
2024/7
79
79
1266
+4/-3
20,580
NexusFlow
CC-BY-NC-4.0
2024/7
79
61
1266
+2/-2
103,748
OpenAI
Proprietary
2023/4
79
79
1265
+3/-3
29,633
Mistral
MRL
Нет данных
79
62
1258
+9/-8
4,287
Mistral
Proprietary
Нет данных
80
86
1264
+2/-2
58,637
Meta
Llama 3.1 Community
2023/12
81
58
1263
+2/-1
202,641
Anthropic
Proprietary
2023/8
83
87
1261
+3/-3
26,371
Amazon
Proprietary
Нет данных
83
65
1261
+2/-2
97,079
OpenAI
Proprietary
2023/12
89
60
1254
+2/-2
49,399
Anthropic
Propretary
Нет данных
89
86
1251
+6/-7
7,948
Reka AI
Proprietary
Нет данных
89
88
1246
+7/-10
4,210
Tencent
Proprietary
Нет данных
92
90
1243
+2/-2
65,661
Proprietary
2023/11
93
88
1237
+4/-6
9,125
AI21 Labs
Jamba Open
2024/3
93
96
1233
+8/-6
5,730
Alibaba
Apache 2.0
Нет данных
94
89
1236
+2/-2
79,538
Gemma license
2024/6
94
98
1233
+4/-4
15,321
Mistral
Apache 2.0
Нет данных
94
106
1233
+3/-4
20,646
Amazon
Proprietary
Нет данных
94
90
1232
+5/-5
10,548
Princeton
MIT
2024/7
94
86
1228
+9/-10
3,889
Nvidia
Llama 3.1
2023/12
95
94
1231
+4/-6
10,535
Cohere
CC-BY-NC-4.0
2024/8
96
110
1228
+3/-3
37,697
Proprietary
Нет данных
97
106
1222
+9/-11
3,460
Allen AI
Apache-2.0
Нет данных
99
105
1225
+3/-3
28,768
Cohere
CC-BY-NC-4.0
Нет данных
99
96
1225
+3/-4
20,608
Nvidia
NVIDIA Open Model
2023/6
99
99
1222
+5/-5
10,221
Zhipu AI
Proprietary
Нет данных
101
96
1221
+5/-5
8,132
Reka AI
Proprietary
Нет данных
102
110
1221
+4/-4
25,213
Microsoft
MIT
Нет данных
103
97
1222
+2/-1
163,629
Meta
Llama 3 Community
2023/12
106
96
1217
+2/-2
113,067
Anthropic
Proprietary
2023/8
109
119
1214
+3/-3
20,654
Amazon
Proprietary
Нет данных
111
120
1205
+10/-10
2,901
Tencent
Proprietary
Нет данных
112
121
1201
+10/-9
3,074
Ai2
Llama 3.1
Нет данных
113
109
1208
+2/-2
57,197
Gemma license
2024/2
113
106
1206
+2/-2
80,846
Cohere
CC-BY-NC-4.0
2024/3
114
109
1203
+3/-2
38,872
Alibaba
Qianwen LICENSE
2024/6
114
92
1202
+2/-3
55,962
OpenAI
Proprietary
2021/9
114
119
1198
+7/-6
5,111
Mistral
MRL
Нет данных
115
121
1196
+7/-4
10,391
Cohere
CC-BY-NC-4.0
Нет данных
116
110
1196
+4/-5
10,851
Cohere
CC-BY-NC-4.0
2024/8
117
111
1195
+2/-2
122,309
Anthropic
Proprietary
2023/8
117
105
1194
+4/-4
15,753
DeepSeek AI
DeepSeek License
2024/6
117
120
1192
+5/-5
9,274
AI21 Labs
Jamba Open
2024/3
118
136
1192
+2/-2
52,578
Meta
Llama 3.1 Community
2023/12
126
105
1179
+2/-2
91,614
OpenAI
Proprietary
2021/9
126
121
1177
+3/-3
27,430
Alibaba
Qianwen LICENSE
2024/4
126
153
1169
+11/-10
3,410
Alibaba
Apache 2.0
Нет данных
127
136
1173
+4/-3
25,135
01 AI
Apache-2.0
2024/5
127
120
1173
+2/-2
64,926
Mistral
Proprietary
Нет данных
127
121
1172
+4/-5
16,027
Reka AI
Proprietary
Online
130
131
1168
+2/-2
109,056
Meta
Llama 3 Community
2023/3
130
143
1165
+4/-5
10,599
InternLM
Other
2024/8
131
125
1164
+2/-3
56,398
Cohere
CC-BY-NC-4.0
2024/3
131
131
1164
+3/-3
35,556
Mistral
Proprietary
Нет данных
131
124
1163
+3/-2
53,751
Mistral
Apache 2.0
2024/4
131
127
1163
+4/-4
25,803
Reka AI
Proprietary
2023/11
131
125
1163
+3/-2
40,658
Alibaba
Qianwen LICENSE
2024/2
131
128
1159
+8/-11
3,289
IBM
Apache 2.0
Нет данных
133
143
1160
+2/-3
48,892
Gemma license
2024/7
140
124
1147
+4/-4
18,800
Proprietary
2023/4
140
134
1143
+8/-7
4,854
HuggingFace
Apache 2.0
2024/4
141
137
1141
+3/-4
22,765
Alibaba
Qianwen LICENSE
2024/2
141
145
1135
+8/-10
3,380
IBM
Apache 2.0
Нет данных
142
143
1139
+4/-3
26,105
Microsoft
MIT
2023/10
142
154
1135
+3/-5
16,676
Nexusflow
Apache-2.0
2024/3
145
143
1130
+2/-2
76,126
Mistral
Apache 2.0
2023/12
145
149
1127
+4/-6
15,917
01 AI
Yi License
2023/6
145
133
1126
+6/-7
6,557
Proprietary
2023/4
146
147
1125
+4/-4
18,687
Alibaba
Qianwen LICENSE
2024/2
147
147
1122
+6/-7
8,383
Microsoft
Llama 2 Community
2023/8
148
133
1122
+2/-2
68,867
OpenAI
Proprietary
2021/9
148
143
1119
+3/-3
33,743
Databricks
DBRX LICENSE
2023/12
148
151
1119
+7/-6
8,390
Meta
Llama 3.2
2023/12
148
151
1118
+4/-4
18,476
Microsoft
MIT
2023/10
149
152
1115
+6/-6
6,658
AllenAI/UW
AI2 ImpACT Low-risk
2023/11
152
143
1109
+8/-6
7,002
IBM
Apache 2.0
Нет данных
156
162
1109
+3/-3
39,595
Meta
Llama 2 Community
2023/7
156
149
1107
+4/-5
12,990
OpenChat
Apache-2.0
2024/1
156
156
1107
+4/-4
22,936
LMSYS
Non-commercial
2023/8
157
149
1106
+3/-3
34,173
Snowflake
Apache 2.0
2024/4
157
160
1104
+4/-5
10,415
UC Berkeley
CC-BY-NC-4.0
2023/11
157
166
1100
+7/-9
3,836
NousResearch
Apache-2.0
2024/1
158
151
1100
+4/-4
25,070
Gemma license
2024/2
158
165
1097
+9/-9
3,636
Nvidia
Llama 2 Community
2023/11
162
151
1093
+9/-8
4,988
DeepSeek AI
DeepSeek License
2023/11
162
151
1092
+7/-6
8,106
OpenChat
Apache-2.0
2023/11
163
153
1090
+7/-8
5,088
NousResearch
Apache-2.0
2023/11
163
158
1090
+8/-7
7,191
IBM
Apache 2.0
Нет данных
164
169
1088
+4/-3
20,067
Mistral
Apache-2.0
2023/12
164
168
1087
+4/-5
12,808
Microsoft
MIT
2023/10
164
169
1086
+9/-7
4,872
Alibaba
Qianwen LICENSE
2024/2
164
165
1078
+14/-14
1,714
Cognitive Computations
Apache-2.0
2023/10
165
145
1083
+4/-4
17,036
OpenAI
Proprietary
2021/9
166
168
1078
+9/-9
4,286
Upstage AI
CC-BY-NC-4.0
2023/11
167
173
1082
+3/-4
21,097
Microsoft
MIT
2023/10
169
174
1079
+4/-4
19,722
Meta
Llama 2 Community
2023/7
172
169
1075
+7/-7
7,176
Microsoft
Llama 2 Community
2023/7
175
179
1070
+7/-6
8,523
Meta
Llama 3.2
2023/12
176
178
1069
+6/-4
11,321
HuggingFace
MIT
2023/10
176
172
1062
+11/-11
2,375
HuggingFace
Apache 2.0
Нет данных
176
169
1061
+11/-12
2,644
MosaicML
CC-BY-NC-SA-4.0
2023/6
176
177
1057
+15/-15
1,192
Meta
Llama 2 Community
2024/1
177
173
1056
+12/-13
1,811
HuggingFace
MIT
2023/10
180
178
1059
+6/-7
7,509
Meta
Llama 2 Community
2023/7
180
168
1050
+15/-15
1,327
TII
Falcon-180B TII License
2023/9
181
172
1058
+4/-4
19,775
LMSYS
Llama 2 Community
2023/7
181
178
1053
+4/-6
9,176
Gemma license
2024/2
181
178
1053
+5/-5
21,622
Microsoft
MIT
2023/10
181
193
1053
+5/-5
14,532
Meta
Llama 2 Community
2023/7
181
171
1051
+8/-8
5,065
Alibaba
Qianwen LICENSE
2023/8
181
181
1049
+11/-11
2,996
UW
Non-commercial
2023/5
190
182
1037
+6/-5
11,351
Gemma license
2024/2
191
185
1033
+7/-10
5,276
Together AI
Apache 2.0
2023/12
191
199
1031
+8/-7
6,503
Allen AI
Apache-2.0
2024/2
194
192
1023
+5/-5
9,142
Mistral
Apache 2.0
2023/9
194
193
1021
+6/-8
7,017
LMSYS
Llama 2 Community
2023/7
194
182
1019
+7/-5
8,713
Proprietary
2021/6
199
197
1005
+8/-9
4,918
Gemma license
2024/2
199
194
1004
+5/-7
7,816
Alibaba
Qianwen LICENSE
2024/2
201
200
980
+8/-6
7,020
UC Berkeley
Non-commercial
2023/4
201
201
971
+7/-9
4,763
Tsinghua
Apache-2.0
2023/10
202
201
948
+16/-16
1,788
Nomic AI
Non-commercial
2023/3
203
201
944
+9/-9
3,997
MosaicML
CC-BY-NC-SA-4.0
2023/5
203
206
940
+10/-10
2,713
Tsinghua
Apache-2.0
2023/6
203
206
937
+9/-8
4,920
RWKV
Apache 2.0
2023/4
207
201
917
+9/-7
5,864
Stanford
Non-commercial
2023/3
207
207
909
+9/-7
6,368
OpenAssistant
Apache 2.0
2023/4
208
209
895
+8/-10
4,983
Tsinghua
Non-commercial
2023/3
209
209
884
+9/-9
4,288
LMSYS
Apache 2.0
2023/4
211
212
856
+11/-11
3,336
Stability AI
CC-BY-NC-SA-4.0
2023/4
211
209
838
+10/-10
3,480
Databricks
MIT
2023/4
212
210
815
+14/-9
2,446
Meta
Non-commercial
2023/2
Рейтинг(UB): Рейтинг, рассчитанный на основе модели Брэдли-Терри. Отражает общую производительность модели на арене и предоставляет оценку верхней границы рейтинга Elo, помогая понять её потенциальную конкурентоспособность.
Рейтинг(StyleCtrl): Рейтинг с контролем стиля диалога. Минимизирует предвзятость, связанную со стилем ответов модели (например, краткость или многословность), более чисто оценивая базовые способности модели.
Название модели: Название большой языковой модели (LLM). Ссылки в столбце ведут на страницы моделей.
Баллы: Рейтинг Elo модели на основе голосов пользователей. Более высокий балл указывает на лучшую производительность. Рейтинг динамично меняется и отражает текущую относительную силу модели.
Диапазон достоверности: 95%-ный доверительный интервал балла Elo (например: +6/-6
). Меньший интервал указывает на стабильность оценки, больший может означать недостаток данных или нестабильную производительность.
Голосов: Общее количество голосов, полученных моделью. Большее количество голосов обычно означает более высокую статистическую надёжность оценки.
Провайдер: Организация или компания, предоставляющая модель.
Лицензия: Тип лицензии модели, например: проприетарная (Proprietary), Apache 2.0, MIT и т.д.
Конец знаний: Обновление знаний модели. Нет данных означает отсутствие информации.