Ollama
Este documento foi traduzido do chinês por IA e ainda não foi revisado.
Ollama
Ollama é uma excelente ferramenta de código aberto que permite executar e gerenciar facilmente vários modelos de linguagem grandes (LLMs) localmente. O Cherry Studio agora suporta integração com Ollama, permitindo que você interaja diretamente com LLMs implantados localmente na interface familiar, sem depender de serviços em nuvem!
O que é Ollama?
Ollama é uma ferramenta que simplifica a implantação e uso de modelos de linguagem grandes (LLMs). Ele possui as seguintes características:
Execução local: Os modelos são executados completamente no seu computador local, sem necessidade de conexão à internet, protegendo sua privacidade e segurança de dados.
Simples e fácil de usar: Com comandos simples de linha de comando, você pode baixar, executar e gerenciar vários LLMs.
Riqueza de modelos: Suporta diversos modelos de código aberto populares como Llama 2, Deepseek, Mistral, Gemma, entre outros.
Multiplataforma: Compatível com macOS, Windows e Linux.
API Aberta: Possui interface compatível com OpenAI e pode ser integrado com outras ferramentas.
Por que usar Ollama no Cherry Studio?
Sem serviços de nuvem: Não está mais limitado por cotas e custos de API em nuvem, desfrute plenamente do poder dos LLMs locais.
Privacidade de dados: Todos os seus dados de conversa permanecem locais, sem preocupações com vazamento de privacidade.
Disponível offline: Mesmo sem conexão à internet, você pode continuar interagindo com o LLM.
Personalização: Selecione e configure o LLM que melhor atenda às suas necessidades.
Configurar Ollama no Cherry Studio
1. Instalar e executar Ollama
Primeiro, você precisa instalar e executar o Ollama no seu computador:
Baixar Ollama: Visite o site oficial do Ollama (https://ollama.com/) e baixe o pacote correspondente ao seu sistema operacional. No Linux, você pode instalar diretamente via comando:
curl -fsSL https://ollama.com/install.sh | sh
Instalar Ollama: Siga as instruções do instalador para completar a instalação.
Baixar modelos: Abra o terminal (ou prompt de comando) e use o comando
ollama run
para baixar o modelo desejado. Exemplo para baixar Llama 3.2:ollama run llama3.2
O Ollama baixará e executará o modelo automaticamente.
Manter Ollama em execução: Certifique-se de que o Ollama permaneça em execução durante sua interação com os modelos via Cherry Studio.
2. Adicionar Ollama como provedor no Cherry Studio
Adicione o Ollama como provedor personalizado de IA:
Abrir configurações: Na barra lateral do Cherry Studio, clique no ícone de engrenagem "Configurações".
Acessar serviços de modelo: Selecione a aba "Model Services" (Serviços de Modelo).
Adicionar provedor: Clique em "Ollama" na lista.

3. Configurar o provedor Ollama
Localize o Ollama na lista de provedores e configure:
Status de ativação:
Ative o interruptor à direita para habilitar o serviço.
Chave API:
O Ollama não requer chave API por padrão. Deixe este campo vazio ou preencha arbitrariamente.
Endereço API:
Insira o endereço local da API do Ollama (padrão):
http://localhost:11434/
Ajuste se você alterou a porta.
Tempo de manutenção ativa: Define o tempo máximo de inatividade da sessão (em minutos). O Cherry Studio desconectará automaticamente após este período para liberar recursos.
Gerenciamento de modelos:
Clique em "+ Adicionar" para inserir manualmente o nome dos modelos baixados no Ollama (ex:
llama3.2
se baixado viaollama run llama3.2
).Use o botão "Gerenciar" para editar ou remover modelos.
Começar a usar
Após a configuração, selecione "Ollama" e seu modelo no painel de chat do Cherry Studio para iniciar conversas com seu LLM local!
Dicas e sugestões
Primeira execução do modelo: O download inicial dos arquivos pode demorar significativamente.
Ver modelos disponíveis: Execute
ollama list
no terminal para listar modelos instalados.Requisitos de hardware: Verifique se seu computador possui recursos suficientes (CPU/RAM/GPU) para executar LLMs.
Documentação Ollama: Clique em
View Ollama Documentation and Models
na página de configuração para acessar a documentação oficial.
最后更新于
这有帮助吗?