Пользовательские провайдеры
Этот документ переведен с китайского языка с помощью ИИ и еще не был проверен.
Пользовательские поставщики услуг
Cherry Studio не только интегрирует ведущие сервисы ИИ-моделей, но и предоставляет мощные возможности настройки. С помощью функции Пользовательские поставщики ИИ-услуг вы можете легко подключить любую необходимую ИИ-модель.
Зачем нужны пользовательские поставщики ИИ?
Гибкость: Больше не ограничивайтесь предустановленным списком поставщиков, свободно выбирайте наиболее подходящие ИИ-модели.
Разнообразие: Пробуйте ИИ-модели с разных платформ, открывая их уникальные преимущества.
Контроль: Управляйте своими API-ключами и адресами доступа напрямую, обеспечивая безопасность и конфиденциальность.
Кастомизация: Интегрируйте приватно развернутые модели для специфических бизнес-задач.
Как добавить пользовательского поставщика ИИ?
Всего несколько шагов, чтобы добавить своего поставщика в Cherry Studio:

Откройте настройки: В левой панели Cherry Studio нажмите «Настройки» (значок шестерёнки).
Перейдите к моделям: На странице настроек выберите вкладку «Модели».
Добавьте поставщика: В разделе «Модели» нажмите кнопку «+ Добавить» под списком поставщиков.
Заполните данные: В открывшемся окне укажите:
Название поставщика: Присвойте узнаваемое имя (например: MyCustomOpenAI).
Тип поставщика: Выберите из выпадающего списка поддерживаемые типы:
OpenAI
Gemini
Anthropic
Azure OpenAI
Сохраните: Нажмите «Добавить» для сохранения конфигурации.
Настройка пользовательского поставщика ИИ

После добавления найдите поставщика в списке и настройте детали:
Статус активации: Переключатель справа в списке включает/выключает службу.
API-ключ:
Введите ключ API, полученный от поставщика.
Кнопка «Проверить» справа тестирует валидность ключа.
API-адрес:
Укажите базовый URL для доступа к API.
Сверьтесь с документацией поставщика для корректного адреса.
Управление моделями:
Нажмите «+ Добавить», чтобы вручную добавить ID модели (например
gpt-3.5-turbo
,gemini-pro
).
* Для названий моделей обратитесь к документации поставщика. * Кнопка «Управление» позволяет редактировать или удалять добавленные модели.
Начало использования
После настройки выберите своего поставщика и модель в чат-интерфейсе Cherry Studio для начала работы!
Использование vLLM как пользовательского поставщика
vLLM — быстрая и удобная библиотека вывода LLM, аналогичная Ollama. Этапы интеграции с Cherry Studio:
Установите vLLM: Следуйте официальной инструкции (https://docs.vllm.ai/en/latest/getting_started/quickstart.html).
pip install vllm # если используете pip uv pip install vllm # если используете uv
Запустите vLLM: Активируйте сервис через OpenAI-совместимый интерфейс двумя способами:
Через
vllm.entrypoints.openai.api_server
python -m vllm.entrypoints.openai.api_server --model gpt2
Через
uvicorn
vllm --model gpt2 --served-model-name gpt2
Сервис запустится на порту 8000
(или указанном через --port
).
Добавьте vLLM в Cherry Studio:
Создайте нового поставщика по инструкции выше.
Название:
vLLM
Тип:
OpenAI
Настройте vLLM:
API-ключ: Оставьте пустым или введите любое значение.
API-адрес: Укажите
http://localhost:8000/
(или ваш порт).Управление моделями: Введите название запущенной модели (например
gpt2
).
Начните диалог: Выберите vLLM и модель в чат-интерфейсе для общения!
Рекомендации
Изучите документацию: Перед добавлением проверьте у поставщика параметры API-ключей, адресов и моделей.
Проверяйте ключи: Используйте кнопку проверки для валидации API-ключей.
Следите за адресами: У разных поставщиков и моделей могут отличаться API-адреса.
Добавляйте нужные модели: Включайте только используемые модели, чтобы избежать перегрузки.
最后更新于
这有帮助吗?