Ollama
Ollama — это отличный инструмент с открытым исходным кодом, позволяющий легко запускать и управлять различными большими языковыми моделями (LLM) локально. Cherry Studio теперь поддерживает интеграцию с Ollama, позволяя вам напрямую взаимодействовать с локально развернутыми LLM в знакомом интерфейсе без зависимости от облачных сервисов!
Что такое Ollama?
Ollama — это инструмент, упрощающий развертывание и использование больших языковых моделей (LLM). Он обладает следующими характеристиками:
Локальный запуск: Модели полностью работают на вашем локальном компьютере, без необходимости подключения к сети, что защищает вашу конфиденциальность и данные.
Простота использования: С помощью простых команд в командной строке можно загружать, запускать и управлять различными LLM.
Богатый выбор моделей: Поддерживает Llama 2, Deepseek, Mistral, Gemma и другие популярные открытые модели.
Кроссплатформенность: Поддерживает операционные системы macOS, Windows и Linux.
Открытый API: поддерживает интерфейс, совместимый с OpenAI, и может интегрироваться с другими инструментами.
Зачем использовать Ollama в Cherry Studio?
Без облачных сервисов: Больше не связаны квотами и оплатой облачных API — наслаждайтесь мощью локальных LLM.
Конфиденциальность данных: Все ваши данные переписки хранятся локально, не беспокойтесь о утечке приватной информации.
Доступ офлайн: Даже без подключения к сети вы можете продолжать взаимодействовать с LLM.
Кастомизация: Вы можете выбирать и настраивать LLM в соответствии с вашими потребностями.
Настройка Ollama в Cherry Studio
1. Установка и запуск Ollama
Сначала вам нужно установить и запустить Ollama на вашем компьютере. Выполните следующие шаги:
Скачать Ollama: Перейдите на официальный сайт Ollama (https://ollama.com/), загрузите установочный пакет для вашей операционной системы. В Linux можно установить ollama напрямую с помощью команды:
curl -fsSL https://ollama.com/install.sh | shУстановка Ollama: Следуйте указаниям установщика для завершения установки.
Загрузка модели: Откройте терминал (или командную строку) и используйте
ollama runкоманду для загрузки желаемой модели. Например, чтобы скачать модель Llama 2, можно выполнить:ollama run llama3.2Ollama автоматически загрузит и запустит эту модель.
Поддерживайте Ollama запущенным: Во время взаимодействия Cherry Studio с моделью Ollama убедитесь, что Ollama запущен.
2. Добавление поставщика Ollama в Cherry Studio
Далее добавьте Ollama в Cherry Studio как пользовательского AI-поставщика:
Откройте настройки: В левой навигационной панели интерфейса Cherry Studio нажмите «Настройки» (значок шестерёнки).
Перейдите в раздел сервисов моделей: На странице настроек выберите вкладку «Сервисы моделей».
Добавление поставщика: Нажмите на Ollama в списке.

3. Конфигурация поставщика Ollama
Найдите только что добавленный Ollama в списке поставщиков и выполните подробную настройку:
Статус включения:
Убедитесь, что переключатель справа от поставщика Ollama включен, это означает, что он активирован.
API-ключ:
Ollama по умолчаниюне требует API-ключа. Вы можете оставить это поле пустым или ввести любое значение.
API-адрес:
Укажите локальный API-адрес, предоставляемый Ollama. Как правило, адрес:
http://localhost:11434/Если вы изменили порт, измените его здесь соответственно.
Время поддержания активности: Этот параметр задаёт время поддержания сессии в минутах. Если в течение заданного времени не будет новых сообщений, Cherry Studio автоматически отключится от Ollama и освободит ресурсы.
Управление моделями:
Нажмите кнопку «+ Добавить», чтобы вручную добавить имена моделей, которые вы уже загрузили в Ollama.
Например, если вы через
ollama run llama3.2загрузилимодель llama3.2,то здесь можно указать её имя.модель llama3.2,Нажав кнопку «Управлять», вы можете редактировать или удалять добавленные модели.
Начало работы
После завершения вышеописанных настроек вы сможете в интерфейсе чата Cherry Studio выбрать поставщика Ollama и загруженную модель, чтобы начать диалог с локальным LLM!
Советы и рекомендации
Первый запуск модели: При первом запуске модели Ollama потребуется загрузить файлы модели, это может занять продолжительное время — пожалуйста, будьте терпеливы.
Просмотр доступных моделей: В терминале выполните
ollama listкоманду, чтобы посмотреть список моделей Ollama, которые вы загрузили.Требования к оборудованию: Запуск больших языковых моделей требует определённых вычислительных ресурсов (CPU, память, GPU), убедитесь, что конфигурация вашего компьютера соответствует требованиям модели.
Документация Ollama: вы можете нажать в настройках
Просмотреть документацию Ollama и моделиссылка для быстрого перехода на официальную документацию Ollama.
Последнее обновление
Это было полезно?