仅本页所有页面
由 GitBook 提供支持
1 / 84

Português

Cherry Studio

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Tutoriais Básicos

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Tutoriais de Base de Conhecimento

Loading...

Loading...

Loading...

Loading...

Tutoriais Avançados

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Loading...

Contribuição para o Projeto

Loading...

Loading...

Dúvidas & Feedback

Loading...

Loading...

Loading...

Loading...

Contate-nos

Loading...

Loading...

Sobre

Loading...

Outros Conteúdos

Loading...

Loading...

Agentes Inteligentes

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Agentes Inteligentes

A página de Agentes Inteligentes é uma praça de assistentes onde você pode selecionar ou pesquisar por predefinições de modelos desejadas. Ao clicar em um card, o assistente será adicionado à lista de assistentes na página de conversas.

Você também pode editar e criar seus próprios assistentes nesta página.

  • Clique em Meus, depois em Criar Agente Inteligente para começar a criar seu assistente.

O botão no canto superior direito da caixa de entrada de prompts é para otimização de prompts por IA. Ao clicar, ele substituirá o texto original. O modelo usado é o modelo padrão global do assistente.

Config. de Serviços de Modelo

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Configuração do Serviço de Modelo

Introdução ao Projeto

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Siga nossas contas de mídia social: Twitter (X), Xiaohongshu, Weibo, Bilibili, Douyin

Junte-se às nossas comunidades: Grupo QQ (575014769), Telegram, Discord, Grupo WeChat (clique para ver)


O Cherry Studio é uma plataforma completa de assistente AI que integra funcionalidades como diálogo com múltiplos modelos, gestão de base de conhecimento, pintura AI, tradução e mais. Com design altamente personalizável, capacidades de expansão poderosas e experiência de usuário amigável, o Cherry Studio é a escolha ideal para usuários profissionais e entusiastas de IA. Tanto usuários iniciantes quanto desenvolvedores podem encontrar funcionalidades AI adequadas para melhorar eficiência e criatividade.


Funcionalidades e Características Principais

1. Funcionalidades Básicas de Diálogo

  • Respostas Múltiplas: Permite gerar respostas simultâneas de múltiplos modelos para a mesma pergunta, facilitando comparações (detalhes na Interface de Conversação).

  • Agrupamento Automático: Histórico de conversas organizado automaticamente para acesso rápido.

  • Exportação de Conversas: Suporte para exportação em múltiplos formatos (Markdown, Word, etc.).

  • Parâmetros Personalizáveis: Ajustes avançados e parâmetros personalizados para necessidades específicas.

  • Mercado de Assistentes: Mais de mil assistentes especializados em tradução, programação, redação e suporte para criação personalizada.

  • Renderização Multi-formato: Suporte para Markdown, fórmulas matemáticas e visualização HTML em tempo real.

2. Funcionalidades Especiais Integradas

  • Pintura AI: Painel dedicado para geração de imagens por descrição textual.

  • Mini Programas AI: Diversas ferramentas AI gratuitas integradas sem necessidade de alternar navegadores.

  • Tradução: Suporte para painel de tradução, tradução em conversas e tradução de prompts.

  • Gestão de Arquivos: Arquivos organizados por categorias em conversas, arte e base de conhecimento.

  • Busca Global: Localização rápida em histórico e base de conhecimento.

3. Sistema Unificado de Gestão de Provedores

  • Agregação de Modelos: Integra modelos de OpenAI, Gemini, Anthropic, Azure em interface única.

  • Listagem Automática: Obtenção automática da lista completa de modelos sem configuração manual.

  • Rotação de Chaves API: Gerencia múltiplas chaves para evitar limites de taxa.

  • Avatares Personalizados: Avatar dedicado para cada modelo reconhecível.

  • Provedores Customizáveis: Suporte para provedores compatíveis com OpenAI/Gemini/Anthropic.

4. Interface e Layout Altamente Personalizáveis

  • CSS Personalizado: Personalização global de estilos visuais.

  • Layouts de Conversa: Opções de lista ou formato de bolhas com estilização customizada.

  • Avatares Personalizados: Personalização de avatar para software e assistentes.

  • Menu Lateral Configurável: Ocultar/reordenar funcionalidades do menu lateral.

5. Sistema de Base de Conhecimento Local

  • Suporte Multi-formato: Importação de PDF, DOCX, PPTX, XLSX, TXT, MD.

  • Múltiplas Fontes: Ficheiros locais, URLs, mapas de site ou conteúdo manual.

  • Exportação de Base de Conhecimento: Compartilhamento de bases processadas.

  • Teste de Busca Integrado: Verificação imediata de segmentação após importação.

6. Funcionalidades Rápidas

  • Perguntas Rápidas: Assistente instantâneo em qualquer contexto (WeChat, navegador).

  • Tradução Instantânea: Tradução rápida de palavras/textos em qualquer aplicativo.

  • Resumo de Conteúdo: Sumarização de textos longos para extração eficiente.

  • Explicação Simples: Compreensão de conceitos sem prompts complexos.

7. Segurança de Dados

  • Múltiplos Backups: Backup local, WebDAV e agendado.

  • Uso Totalmente Local: Integração com modelos locais para evitar vazamentos.


Vantagens do Projeto

  1. Simplicidade: Cherry Studio simplifica o uso de AI para iniciantes.

  2. Documentação Completa: Manuais detalhados de uso e solução de problemas.

  3. Atualizações Contínuas: Melhorias frequentes baseadas em feedback.

  4. Código Aberto: Personalização e expansão via código fonte.


Casos de Uso

  • Gestão de Conhecimento: Construção e consulta de bases especializadas para pesquisa/educação.

  • Criação com Múltiplos Modelos: Geração de conteúdo e informação simultânea.

  • Tradução e Automação: Processamento de documentos e comunicação multilíngue.

  • Arte e Design AI: Geração de imagens criativas por descrição textual.

Histórico de Estrelas

Histórico de Estrelas

Siga Nossas Contas de Mídia Social

Xiaohongshu

Bilibili

Weibo

Douyin

Twitter (X)

Cover
Cover
Cover
Cover
Cover

Info. de Ref. de Modelos Embed

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Informações de Referência de Modelos de Embedding

Para evitar erros, neste documento, os valores de max input de alguns modelos não estão configurados como limites máximos absolutos. Por exemplo: quando o valor máximo oficial é especificado como 8k (sem número exato definido), este documento fornece valores de referência como 8191 ou 8000. (Se não entender, ignore e utilize os valores de referência do documento.)

Volcano-Doubao

Endereço oficial de referência do modelo

Nome
max input

Doubao-embedding

4095

Doubao-embedding-vision

8191

Doubao-embedding-large

4095

Alibaba

Endereço oficial de referência do modelo

Nome
max input

text-embedding-v3

8192

text-embedding-v2

2048

text-embedding-v1

2048

text-embedding-async-v2

2048

text-embedding-async-v1

2048

OpenAI

Endereço oficial de referência do modelo

Nome
max input

text-embedding-3-small

8191

text-embedding-3-large

8191

text-embedding-ada-002

8191

Baidu

Endereço oficial de referência do modelo

Nome
max input

Embedding-V1

384

tao-8k

8192

Zhipu AI

Endereço oficial de referência do modelo

Nome
max input

embedding-2

1024

embedding-3

2048

Hunyuan

Endereço oficial de referência do modelo

Nome
max input

hunyuan-embedding

1024

Baichuan AI

Endereço oficial de referência do modelo

Nome
max input

Baichuan-Text-Embedding

512

Together AI

Endereço oficial de referência do modelo

Nome
max input

M2-BERT-80M-2K-Retrieval

2048

M2-BERT-80M-8K-Retrieval

8192

M2-BERT-80M-32K-Retrieval

32768

UAE-Large-v1

512

BGE-Large-EN-v1.5

512

BGE-Base-EN-v1.5

512

Jina AI

Endereço oficial de referência do modelo

Nome
max input

jina-embedding-b-en-v1

512

jina-embeddings-v2-base-en

8191

jina-embeddings-v2-base-zh

8191

jina-embeddings-v2-base-de

8191

jina-embeddings-v2-base-code

8191

jina-embeddings-v2-base-es

8191

jina-colbert-v1-en

8191

jina-reranker-v1-base-en

8191

jina-reranker-v1-turbo-en

8191

jina-reranker-v1-tiny-en

8191

jina-clip-v1

8191

jina-reranker-v2-base-multilingual

8191

reader-lm-1.5b

256000

reader-lm-0.5b

256000

jina-colbert-v2

8191

jina-embeddings-v3

8191

SiliconFlow

Endereço oficial de referência do modelo

Nome
max input

BAAI/bge-m3

8191

netease-youdao/bce-embedding-base_v1

512

BAAI/bge-large-zh-v1.5

512

BAAI/bge-large-en-v1.5

512

Pro/BAAI/bge-m3

8191

Gemini

Endereço oficial de referência do modelo

Nome
max input

text-embedding-004

2048

Nomic AI

Endereço oficial de referência do modelo

Nome
max input

nomic-embed-text-v1

8192

nomic-embed-text-v1.5

8192

gte-multilingual-base

8192

Upstage

Endereço oficial de referência do modelo

Nome
max input

embedding-query

4000

embedding-passage

4000

Cohere

Endereço oficial de referência do modelo

Nome
max input

embed-english-v3.0

512

embed-english-light-v3.0

512

embed-multilingual-v3.0

512

embed-multilingual-light-v3.0

512

embed-english-v2.0

512

embed-english-light-v2.0

512

embed-multilingual-v2.0

256

Planejamento do Projeto

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Planejamento do Projeto

Lista de Tarefas

Mini Programas

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Mini Programas

Na página de Mini Programas, você pode utilizar versões web de programas relacionados à IA de vários provedores de serviços dentro do cliente. Atualmente, não é suportada a adição e exclusão personalizadas.

Funcionalidades

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Visão Geral de Recursos

OneAPI e Projetos Derivados

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

OneAPI e seus Projetos Fork

Config. de Dados

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Definição de Dados

Arquivos

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Arquivos

A interface de arquivos exibirá todos os documentos relacionados a conversações, desenhos, bases de conhecimento e outros. Você pode gerenciar e visualizá-los centralmente nesta página.

Limpar Config. CSS

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Limpar configuração CSS

Use este método para limpar as configurações CSS quando configurar um CSS incorreto ou quando não conseguir acessar a interface de configurações após definir o CSS.

  • Abra o console: clique na janela do CherryStudio e pressione Ctrl+Shift+I (MacOS: command+option+I).

  • Na janela do console exibida, clique em Console

  • Digite manualmente document.getElementById('user-defined-custom-css').remove() (copiar e colar provavelmente não funcionará).

  • Pressione Enter após digitar para limpar as configurações CSS, depois retorne às configurações de exibição do CherryStudio para remover o código CSS problemático.

Pintura

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Desenho

Atualmente, a funcionalidade de desenho suporta modelos de geração de imagens de DMXAPI, TokenFlux, AiHubMix e SiliconFlow. Você pode registrar uma conta no SiliconFlow e adicioná-lo como provedor para utilização.

Para dúvidas sobre os parâmetros, passe o mouse sobre o ? na área correspondente para ver as instruções.

Mais provedores serão adicionados no futuro. Aguarde novidades!

Dados da Base de Conhecimento

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Instruções de Armazenamento de Dados

Os dados adicionados à base de conhecimento do Cherry Studio são armazenados localmente. Durante o processo de adição, uma cópia do documento é colocada no diretório de armazenamento de dados do Cherry Studio.

Fluxograma de processamento da base de conhecimento

Banco de dados vetorial: https://turso.tech/libsql

Após os documentos serem adicionados à base de conhecimento do Cherry Studio, os arquivos são divididos em vários fragmentos. Esses fragmentos são então processados pelo modelo de embedding.

Ao usar o modelo de linguagem grande para Q&A, fragmentos de texto relevantes à pergunta são recuperados e enviados ao modelo de linguagem grande para processamento.

Se houver requisitos de privacidade de dados, recomenda-se usar um banco de dados de embedding local e um modelo de linguagem grande local.

Google Gemini

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Google Gemini

Obter Chave API

  • Antes de obter a chave API do Gemini, você precisa ter um projeto no Google Cloud (se já tiver, pode pular esta etapa).

  • Acesse o para criar um projeto, preencha o nome do projeto e clique em "Criar projeto".

  • Na página oficial de , clique em Chave secreta Criar chave API.

  • Copie a chave gerada e abra as do CherryStudio.

  • Encontre o fornecedor Gemini e insira a chave obtida.

  • Clique em "Gerenciar" ou "Adicionar" na parte inferior, inclua os modelos suportados e ative o interruptor do fornecedor no canto superior direito para começar a usar.

  • Nas regiões da China, exceto Taiwan, o serviço Google Gemini não pode ser usado diretamente; é necessário resolver o problema de proxy por conta própria.

Base de Conhecimento

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Base de Conhecimento

Para usar a Base de Conhecimento, consulte o tutorial avançado: .

Tutorial da Base de Conhecimento
Google Cloud
API Key
Configurações de Fornecedor

Tutorial de Uso do MCP

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Tutorial de Uso do MCP

Guia de Instalação

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Tutorial de Instalação

Observações sobre a tradução:

  1. Seguindo as regras, traduzi apenas o conteúdo textual ("安装教程" ➔ "Tutorial de Instalação")

  2. Mantive inalterada a estrutura de cabeçalho (#) conforme solicitado

  3. Não foram adicionados elementos extras ou explicações

  4. Esta é a tradução padrão para PT-BR utilizada em documentação técnica

Atalhos de Teclado

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Configuração de Atalhos

Nesta interface, você pode ativar/desativar e configurar atalhos para algumas funcionalidades. Configure-os conforme as instruções apresentadas na interface.

SiliconCloud

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Fluxo de Silício (Silicon Flow)

1. Configurar o Serviço de Modelos SiliconCloud

​1.2 Clique nas configurações no canto inferior esquerdo e selecione SiliconFlow nos Serviços de Modelos

​1.2 Clique no link para obter a chave de API do SiliconCloud

  1. Faça login no SiliconCloud (se não estiver registado, o primeiro login criará automaticamente uma conta)

  2. Acesse Chaves API para criar uma nova ou copiar uma chave existente

​1.3 Clique em Gerenciar para adicionar modelos

​2. Utilização do Serviço de Modelos

  1. Clique no botão "Conversa" na barra lateral esquerda

  2. Digite texto no campo de entrada para iniciar o bate-papo

  3. Selecione os nomes dos modelos no menu superior para alternar entre modelos

Fontes Recomendadas

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Recomendações de Fontes

Vertex AI

暂时不支持Claude模型

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Vertex AI

Visão Geral do Tutorial

1. Obter a Chave de API

  • Antes de obter a chave de API do Gemini, você precisa ter um projeto no Google Cloud (se já tiver, pule esta etapa)

  • Acesse o Google Cloud para criar um projeto, preencha o nome do projeto e clique em "Criar projeto"

  • Acesse o console do Vertex AI

  • No projeto criado, ative a API Vertex AI

2. Configurar Permissões de Acesso à API

  • Abra a página de permissões de contas de serviço e crie uma conta de serviço

  • Na página de gerenciamento de contas de serviço, localize a conta recém-criada, clique em Chaves e crie uma nova chave no formato JSON

  • Após a criação bem-sucedida, o arquivo de chave será salvo automaticamente em seu computador no formato JSON. Guarde-o cuidadosamente

3. Configurar o Vertex AI no Cherry Studio

  • Selecione o provedor Vertex AI

  • Preencha os campos correspondentes com os dados do arquivo JSON

Clique em Adicionar Modelo e você já pode começar a usar!

Config. de Exibição

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Configurações de Exibição

Nesta página você pode configurar o tema de cores do software, o layout da página ou CSS personalizado para fazer algumas personalizações.

Seleção de Tema

Aqui você pode configurar o modo de cor padrão da interface (modo claro, modo escuro ou seguir o sistema)

Configurações de Tópicos

Esta configuração é para o layout da interface de conversa.

Posição do Tópico

Alternar automaticamente para tópico

Quando ativado, clicar no nome do assistente mudará automaticamente para a página do tópico correspondente.

Mostrar hora do tópico

Quando ativado, mostra a hora de criação do tópico abaixo do tópico.

CSS personalizado

Esta configuração permite fazer alterações e ajustes personalizados na interface de forma flexível. Para métodos específicos, consulte CSS personalizado no tutorial avançado.

Config. de Serviço de Modelo

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Configurações do Provedor

Esta página apenas apresenta as funcionalidades da interface. Para tutoriais de configuração, consulte o tutorial de Configuração do Provedor no guia básico.

  • Ao usar provedores internos, basta preencher a chave correspondente.

  • Diferentes provedores podem usar termos distintos para chave (chave, Key, API Key, token) que se referem ao mesmo conceito.

Chave da API

No Cherry Studio, um único provedor suporta múltiplas chaves em rodízio sequencial.

  • Adicione múltiplas chaves separadas por vírgulas inglesas:

sk-xxxx1,sk-xxxx2,sk-xxxx3,sk-xxxx4

Sempre use vírgulas em inglês.

Endereço da API

Geralmente não é necessário preencher ao usar provedores internos. Se precisar modificar, siga estritamente o endereço da documentação oficial.

Se o provedor fornecer um endereço como https://xxx.xxx.com/v1/chat/completions, insira apenas a parte base (https://xxx.xxx.com).

O Cherry Studio completará automaticamente o caminho (/v1/chat/completions). Formato incorreto pode causar falhas.

Observação: A maioria dos provedores usa rotas padronizadas. Caso o caminho seja atípico (ex: v2, v3):

  • Termine com / para concatenar apenas "chat/completions"

  • Termine com # para usar o endereço completo sem concatenação.

Adicionar Modelos

Clique em Gerenciar (canto inferior esquerdo) para ver os modelos suportados. Clique no + ao lado de cada modelo para adicioná-lo à lista.

Modelos na janela pop-up não são adicionados automaticamente. É necessário clicar em + para que apareçam na lista de seleção.

Verificação de Conectividade

Clique no botão de verificação ao lado do campo da chave para testar a configuração.

Por padrão, usa o último modelo de diálogo da lista. Falhas podem indicar modelos incorretos ou não suportados.

Ative o interruptor no canto superior direito após configurar, caso contrário o provedor permanecerá inativo.

Tutorial de Config. SiYuan

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Tutorial de Configuração do SiYuan Notes

Suporta a exportação de tópicos e mensagens para o SiYuan Notes.

Passo 1

Abra o SiYuan Notes e crie um caderno

Clique em "Novo Caderno"

Passo 2

Abra as configurações do caderno e copie o ID do Caderno

Abra as configurações do caderno
Clique no botão "Copiar ID do Caderno"

Passo 3

Cole o ID do caderno nas configurações do Cherry Studio

Preencha o ID do Caderno nas configurações de dados

Passo 4

Insira o endereço do SiYuan Notes

  • Local Normalmente http://127.0.0.1:6806

  • Auto-hospedado Seu domínio http://note.dominio.com

Insira seu endereço do SiYuan Notes

Passo 5

Copie o Token de API do SiYuan Notes

Copie o token do SiYuan Notes

Cole nas configurações do Cherry Studio e verifique

Preencha o ID do banco de dados e clique em "Verificar"

Passo 6

Parabéns! A configuração do SiYuan Notes está completa ✅ Agora você pode exportar conteúdo do Cherry Studio para seu SiYuan Notes

Exportar para o SiYuan Notes
Visualizar o resultado da exportação

Huawei Cloud

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Huawei Cloud

Passo 1

Vá até o site para criar uma conta e fazer login

Passo 2

Clique para acessar o console do Maa S

Passo 3

Autorização

Etapas de autorização (pule se já autorizado)
  1. Após acessar o link do Passo 2, siga as instruções para a página de autorização (clique em IAM Subuser → Add Agency → Regular User)

  1. Após criar, volte para o link do Passo 2

  2. Será exibida uma mensagem de "Permissão insuficiente" - clique em "Clique aqui" na mensagem

  3. Adicione a autorização existente e confirme

Observação: Este método é para iniciantes e não requer leitura extensa. Basta seguir os prompts. Se conseguir autorizar de outra forma, siga seu próprio método.

Passo 4

Clique em "Gestão de Autenticação" na barra lateral, crie uma API Key (chave secreta) e copie-a

Em seguida, crie um novo provedor no CherryStudio

Após criar, cole a chave secreta

Passo 5

Clique em "Model Deployment" na barra lateral e ative todas as opções

Passo 6

Clique em "Invoke"

Copie o endereço em ① e cole no campo de endereço do provedor do CherryStudio, adicionando "#" ao final e adicione "#" ao final e adicione "#" ao final e adicione "#" ao final e adicione "#" ao final

Por que adicionar "#"?

Você também pode ignorar e seguir o tutorial diretamente; Ou usar o método de excluir "v1/chat/completions" - preencha como preferir, mas siga rigorosamente o tutorial se não tiver experiência.

Copie o nome do modelo em ②, clique em "+ Adicionar" no CherryStudio para criar novo modelo

Digite o nome do modelo exatamente como exibido, sem adicionar elementos extras ou aspas.

Clique em "Adicionar Modelo" para concluir.

Na Huawei Cloud, como cada modelo tem endereço único, repita todo o processo para cada modelo criando um novo provedor.

Config. e Uso do MCP

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Configuração e Uso do MCP

  1. Abra as configurações do Cherry Studio.

  2. Encontre a opção Servidor MCP.

  3. Clique em Adicionar Servidor.

  4. Preencha os parâmetros relevantes do MCP Server (). Os campos que podem ser necessários incluem:

    • Nome: Personalize um nome, por exemplo fetch-server

    • Tipo: Selecione STDIO

    • Comando: Preencha uvx

    • Parâmetros: Preencha mcp-server-fetch

    • (Pode haver outros parâmetros dependendo do servidor específico)

  5. Clique em Salvar.

Após concluir a configuração acima, o Cherry Studio irá baixar automaticamente o MCP Server necessário - fetch server. Após o download ser concluído, podemos começar a usar! Observação: Se a configuração do mcp-server-fetch não for bem-sucedida, tente reiniciar o computador.

Ativar o serviço MCP na caixa de chat

  • Servidor MCP adicionado com sucesso nas configurações

Demonstração do efeito de uso

Como pode ser visto na imagem acima, após combinar a funcionalidade fetch do MCP, o Cherry Studio consegue entender melhor a intenção de consulta do usuário, obter informações relevantes da internet e fornecer respostas mais precisas e abrangentes.

Perguntas Frequentes

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Perguntas Frequentes

1. mcp-server-time

Solução

No campo "Parâmetros", preencha:

Monaspace

英文字体 可商用

A GitHub lançou a família de fontes de código aberto chamada Monaspace, com cinco estilos disponíveis: Neon (estilo moderno), Argon (estilo humanístico), Xenon (estilo serif), Radon (estilo manuscrito) e Krypton (estilo mecânico).

MiSans Global

多语言 可商用

O MiSans Global é um projeto de personalização de fontes multilíngues liderado pela Xiaomi, em colaboração com a Monotype e a HanYi Font.

Trata-se de uma família de fontes abrangente, cobrindo mais de 20 sistemas de escrita e suportando mais de 600 idiomas.

Huawei Cloud
neste link
Veja aqui
link de referência
mcp-server-time
--local-timezone
<seu fuso horário padrão, por exemplo: Asia/Shanghai>
Captura de tela do erro

Personalização

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Personalização de Configurações

Config. de Modelo Padrão

Este documento foi traduzido do chinês por IA e ainda não foi revisado.


icon: cherries

Configurações Padrão do Modelo

Modelo Padrão do Assistente

Quando um assistente não possui um modelo padrão configurado, o modelo selecionado por padrão em novas conversas será o modelo definido aqui.

A otimização de prompts e o assistente de seleção de texto também utilizam o modelo configurado nesta seção.

Modelo para Nomeação de Tópicos

Após cada conversa, um modelo é acionado para gerar um nome para o tópico da conversa. O modelo configurado aqui é utilizado para essa nomeação.

Modelo de Tradução

As funções de tradução nas caixas de entrada de conversas, pintura e outros campos, bem como os modelos de tradução na interface de tradução, utilizam o modelo definido aqui.

Modelo do Assistente Rápido

O modelo utilizado pela funcionalidade do Assistente Rápido, detalhado em Assistente Rápido.

Configurações

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Configurações

Configurações Gerais

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Configurações Gerais

Nesta página, é possível definir o idioma da interface do software, configurar o servidor proxy, e mais.

Config. de Dados

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Configurações de Dados

Esta interface permite operações como backup de dados do cliente em nuvem e local, consulta do diretório de dados local e limpeza de cache.

Backup de Dados

Atualmente, o backup de dados é suportado apenas através do método WebDAV. Você pode escolher serviços compatíveis com WebDAV para fazer backup na nuvem.

Também é possível sincronizar dados em múltiplos dispositivos usando o método: Computador A →backup\xrightarrow{\text{backup}}backup​ WebDAV →restaurac¸a˜o\xrightarrow{\text{restauração}}restaurac¸​a˜o​ Computador B.

Exemplo usando Nutstore

  1. Faça login no Nutstore, clique no nome de usuário no canto superior direito e selecione "Informações da conta":

  1. Selecione "Opções de segurança" e clique em "Adicionar aplicativo":

  1. Insira o nome do aplicativo e gere uma senha aleatória:

  1. Copie e registre a senha:

  1. Obtenha o endereço do servidor, nome de usuário e senha:

  1. No Cherry Studio Configurações > Configurações de Dados, preencha as informações WebDAV:

  1. Selecione fazer backup ou restaurar dados e configure o intervalo de backup automático:

Serviços WebDAV com baixo limite de acesso geralmente são serviços de armazenamento em nuvem:

  • Nutstore

  • 123Pan (requer assinatura)

  • AliPan (requer compra)

  • Box (espaço gratuito de 10GB, limite de 250MB por arquivo)

  • Dropbox (2GB gratuito, ampliável para 16GB com convites)

  • TeraCloud (10GB gratuito, +5GB com convites)

  • Yandex Disk (10GB gratuito)

Serviços que exigem autoimplatação:

  • Alist

  • Cloudreve

  • Sharelist

Modo Online

如何在 Cherry Studio 使用联网模式

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Modo de Rede

Exemplos de cenários que requerem conexão à internet:

  • Informações temporais: como preços de futuros de ouro hoje/esta semana/recentemente, etc.

  • Dados em tempo real: como clima, taxas de câmbio e outros valores dinâmicos.

  • Conhecimentos emergentes: como novas coisas, novos conceitos, novas tecnologias etc.

1. Como ativar a conexão à internet

Na janela de perguntas do Cherry Studio, clique no ícone 【Globo Terrestre】 para ativar a conexão à internet.

Clique no ícone do globo - Ativar conexão à internet
Indica - A função de conexão à internet foi ativada

2. Atenção especial: Dois modos de conexão à internet

Modo 1: A capacidade de conexão nativa dos grandes modelos dos provedores

Nesse caso, após ativar a conexão, você pode usar diretamente o serviço online, o que é muito simples.

Você pode verificar rapidamente se o modelo suporta conexão à internet observando se há um ícone de mapa pequeno ao lado do nome do modelo na parte superior da interface de perguntas e respostas.

Na página de gerenciamento de modelos, este método também permite identificar rapidamente quais modelos suportam conexão à internet.

Provedores de modelos com suporte de conexão atualmente no Cherry Studio:

  • Google Gemini

  • OpenRouter (todos os modelos suportam conexão)

  • Tencent Hunyuan

  • Zhipu AI

  • Alibaba Cloud Bailian, etc.

Atenção especial: Existe uma situação excepcional em que o modelo pode realizar conexão mesmo sem o ícone do globo, como explicado no tutorial abaixo.


Modo 2: Usar o serviço Tavily para habilitar conexão em modelos não nativos

Quando usamos grandes modelos sem capacidade de conexão nativa (sem ícone de globo) e precisamos acessar informações em tempo real, utilizamos o serviço de pesquisa na web do Tavily.

No primeiro uso do Tavily, uma janela pop-up solicitará configurações. Siga as instruções - é muito simples!

Janela pop-up, clique: Ir para Configurações
Clique para obter a chave secreta

Após clicar, você será redirecionado para a página de login/registro do site oficial do Tavily. Após registrar e fazer login, crie uma API key e cole-a no Cherry Studio.

Se precisar de ajuda com o registro, consulte o tutorial de registro Tavily neste mesmo diretório.

Documento de referência para registro no Tavily:

A interface abaixo indica que o registro foi bem-sucedido.

Copiar a chave
Cole a chave - pronto!

Teste novamente para ver o efeito. O resultado mostra que a pesquisa online está funcionando, com o número padrão de resultados definido como 5.

Nota: O Tavily tem limites gratuitos mensais; o uso excedente requer pagamento.

PS: Se encontrar erros, sinta-se à vontade para entrar em contato a qualquer momento.

ByteDance (Doubao)

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

ByteDance (Doubao)

  • Faça login no Volcano Engine

  • Clique diretamente aqui para acessar

Obter chave API

  • Clique em Gerenciamento de Chave API na barra lateral inferior

  • Crie uma Chave API

  • Após criar com sucesso, clique no ícone de olho 👁️ ao lado da Chave API e copie

  • Cole a Chave API copiada no CherryStudio e ative o interruptor do provedor.

Ativar e adicionar modelos

  • Na barra lateral do Console Ark, acesse Gerenciamento de Ativação para ativar os modelos necessários. Você pode ativar conforme necessidade os modelos da série Doubao e DeepSeek.

  • No documento da lista de modelos, localize o Model ID correspondente ao modelo desejado.

  • Acesse as configurações de Serviço de Modelos do Cherry Studio, encontre "Volcano Engine"

  • Clique em adicionar e cole o Model ID obtido anteriormente na caixa de texto Model ID

  • Repita este processo para adicionar modelos sequencialmente

Endereço da API

Existem duas formas de escrever o endereço da API:

  • Primeira (padrão do cliente): https://ark.cn-beijing.volces.com/api/v3/

  • Segunda: https://ark.cn-beijing.volces.com/api/v3/chat/completions#

Ambas as formas são equivalentes. Mantenha o padrão sem modificações.

Para diferenças entre terminações / e #, consulte a seção de endereço API nas configurações do provedor. Clique para acessar

Exemplo de cURL da documentação oficial

Tradução

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Tradução

A função de tradução do Cherry Studio oferece serviços de tradução de texto rápidos e precisos, suportando traduções mútuas entre diversos idiomas.

Visão Geral da Interface

A interface de tradução é composta principalmente pelas seguintes partes:

  1. Área de seleção do idioma de origem:

    • Idioma qualquer: O Cherry Studio identificará automaticamente o idioma de origem e realizará a tradução.

  2. Área de seleção do idioma de destino:

    • Menu suspenso: Selecione o idioma para o qual deseja traduzir o texto.

  3. Botão de configurações:

    • Ao clicar, redirecionará para as Configurações de Modelo Padrão.

  4. Sincronização de rolagem:

    • Alterna a sincronização de rolagem (ao rolar em qualquer lado, o outro acompanhará).

  5. Campo de entrada de texto (esquerdo):

    • Insira ou cole o texto que precisa ser traduzido.

  6. Caixa de resultados da tradução (direita):

    • Exibe o texto traduzido.

    • Botão de cópia: Clique para copiar o resultado da tradução para a área de transferência.

  7. Botão de traduzir:

    • Clique neste botão para iniciar a tradução.

  8. Histórico de traduções (canto superior esquerdo):

    • Ao clicar, é possível visualizar o histórico de traduções.

Passos de Uso

  1. Selecione o idioma de destino:

    • Na área de seleção de idioma de destino, escolha o idioma desejado.

  2. Insira ou cole o texto:

    • Digite ou cole o texto a ser traduzido no campo de entrada à esquerda.

  3. Inicie a tradução:

    • Clique no botão Traduzir.

  4. Visualize e copie o resultado:

    • Os resultados aparecerão na caixa de tradução à direita.

    • Clique no botão de cópia para copiar os resultados para a área de transferência.

Perguntas Frequentes (FAQ)

  • P: O que fazer se a tradução não for precisa?

    • R: A tradução por IA, embora avançada, não é perfeita. Para textos técnicos ou contextos complexos, recomendamos revisão humana. Você também pode tentar alternar entre diferentes modelos.

  • P: Quais idiomas são suportados?

    • R: O Cherry Studio oferece suporte a múltiplos idiomas principais. Consulte o site oficial ou as instruções no aplicativo para a lista completa.

  • P: É possível traduzir arquivos inteiros?

    • R: A interface atual é focada em tradução de textos. Para arquivos, acesse a página de conversa do Cherry Studio e adicione o arquivo para tradução.

  • P: Como lidar com traduções lentas?

    • R: A velocidade pode variar devido à conexão de internet, extensão do texto ou carga do servidor. Garanta uma conexão estável e aguarde pacientemente.

Windows

Windows 版本安装教程

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Windows

Abrir o site oficial

Atenção: O sistema Windows 7 não suporta a instalação do Cherry Studio.

Clique em baixar e selecione a versão apropriada

Abrir o site oficial

Aguardar o download concluir

Navegador Edge em processo de download

Se o navegador avisar que o arquivo não é confiável, etc., basta escolher manter o arquivo.

Escolher manter → Confiar no Cherry-Studio

Abrir o arquivo

Lista de downloads do Edge

Instalação

Interface de instalação do software

macOS

macOS 版本安装教程

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

macOS

  1. Primeiro, acesse a página de download no site oficial e clique para baixar a versão para Mac, ou clique no link direto abaixo.

    Observe que você deve baixar a versão correspondente ao chip do seu Mac {% hint style="info" %} Se você não sabe qual versão de chip o seu Mac deve usar:

    • Clique no menu  no canto superior esquerdo do Mac

    • No menu expandido, clique em "Sobre este Mac"

    • Na janela que aparece, verifique as informações do processador

    Se for um chip Intel, baixe o pacote de instalação da versão Intel.

    Se for um chip Apple M*, baixe o pacote de instalação para chips Apple. {% endhint %}

  1. Após o download, clique aqui

  1. Arraste o ícone para instalar

No Launchpad, busque o ícone do Cherry Studio e clique nele. Se a tela principal do Cherry Studio abrir, a instalação foi bem-sucedida.

NewAPI

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

NewAPI

  • Faça login e acesse a página de tokens

  • Clique em Adicionar Token

  • Insira o nome do token e clique em Enviar (defina outras configurações conforme necessário)

  • Acesse as configurações de provedor do CherryStudio e clique em Adicionar no final da lista de provedores

  • Digite um nome de referência, selecione OpenAI como provedor e clique em Confirmar

  • Cole a chave copiada anteriormente

  • Volte à página de obtenção da API Key e copie o endereço base na barra de URL do navegador, por exemplo:

Apenas copie https://xxx.xxx.com - não inclua conteúdo após "/"
  • Para endereços com IP + porta, insira http://IP:porta, ex: http://127.0.0.1:3000

  • Distinção estrita entre http e https - não use https se SSL não estiver habilitado

  • Adicione modelos (clique em Gerenciar para obter automaticamente ou insira manualmente) e ative o botão no canto superior direito para usar.

Assistente Rápido

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Assistente Rápido

O Assistente Rápido é uma ferramenta conveniente fornecida pelo Cherry Studio que permite acessar rapidamente funções de IA em qualquer aplicativo, possibilitando operações como questionamentos instantâneos, tradução, resumo e explicação.

Ativar o Assistente Rápido

  1. Abrir configurações: Navegue até Configurações -> Atalhos -> Assistente Rápido.

  2. Ativar alternador: Localize e ative o botão correspondente ao Assistente Rápido.

  1. Configurar atalho (opcional):

    • Atalho padrão para Windows: Ctrl + E.

    • Atalho padrão para macOS: ⌘ + E.

    • Você pode personalizar o atalho aqui para evitar conflitos ou adaptá-lo ao seu fluxo de trabalho.

Usando o Assistente Rápido

  1. Ativar: Em qualquer aplicativo, pressione o atalho configurado (ou o padrão) para abrir o Assistente Rápido.

  2. Interagir: Na janela do Assistente Rápido, você pode realizar diretamente as seguintes operações:

    • Pergunta rápida: Faça qualquer pergunta à IA.

    • Tradução de texto: Insira o texto que precisa ser traduzido.

    • Resumo de conteúdo: Insira textos longos para síntese.

    • Explicação: Insira conceitos ou termos que precisam ser elucidados.

  3. Fechar: Pressione a tecla ESC ou clique em qualquer área fora da janela do Assistente Rápido para fechá-la.

O Assistente Rápido utiliza o .

Dicas e Truques

  • Conflito de atalhos: Se o atalho padrão entrar em conflito com outro aplicativo, modifique-o.

  • Explore mais funções: Além das funcionalidades mencionadas, o Assistente Rápido pode suportar outras operações como geração de código, conversão de estilo, etc. Recomendamos explorar durante o uso.

  • Feedback e melhorias: Caso encontre problemas ou tenha sugestões, à equipe do Cherry Studio.

GitHub Copilot

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

GitHub Copilot

Para usar o GitHub Copilot, primeiro você precisa ter uma conta no GitHub e assinar o serviço GitHub Copilot. A assinatura gratuita (free) também funciona, mas a versão gratuita não suporta o modelo mais recente Claude 3.7. Para detalhes, consulte o .

Obter Device Code

Clique em "Login GitHub" para obter o Device Code e copie-o.

Preencher o Device Code no navegador e autorizar

Após obter o Device Code com sucesso, clique no link para abrir o navegador. Faça login na sua conta GitHub no navegador, insira o Device Code e autorize o acesso.

Após a autorização bem-sucedida, retorne ao Cherry Studio e clique em "Conectar GitHub". Após a conexão bem-sucedida, seu nome de usuário e avatar do GitHub serão exibidos.

Clique em "Gerenciar" para obter a lista de modelos

Clique no botão "Gerenciar" abaixo para buscar automaticamente via internet a lista de modelos suportados atualmente.

Perguntas frequentes

Falha ao obter o Device Code. Tente novamente

Atualmente, usamos o Axios para construir solicitações. O Axios não suporta proxy SOCKS. Use proxy de sistema, proxy HTTP ou não configure proxy no CherryStudio, utilizando um proxy global. Primeiro, certifique-se de que sua conexão de rede esteja normal para evitar falhas ao obter o Device Code.

Pré-Processamento de Docs.

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

O pré-processamento de documentos da base de conhecimento requer a atualização do Cherry Studio para a versão v1.4.8 ou superior.

Configurar o Provedor de OCR

Após clicar em "Obter chave de API", o endereço de inscrição será aberto no navegador. Clique em "Aplicar imediatamente", preencha o formulário para obter a chave de API e insira-a no campo correspondente.

Configurar o Pré-processamento de Documentos

Na base de conhecimento já criada, configure conforme mostrado acima para concluir o pré-processamento de documentos.

Enviar Documentos

É possível verificar os resultados da base de conhecimento através da pesquisa no canto superior direito

Usar em Conversas

Dicas de uso da base de conhecimento: Ao usar modelos mais poderosos, altere o modo de pesquisa para "reconhecimento de intenção". Isso permite descrever sua pergunta com maior precisão e amplitude.

Ativar o Reconhecimento de Intenção

Contribuir com Código

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Contribuir com Código

Aceitamos contribuições para o Cherry Studio! Você pode contribuir das seguintes formas:

1. Contribuir com código: Desenvolver novos recursos ou otimizar o código existente. 2. Corrigir erros: Enviar correções de erros que você encontrou. 3. Manter problemas: Ajudar a gerenciar problemas no GitHub. 4. Design de produto: Participar de discussões de design. 5. Escrever documentação: Melhorar manuais e guias do usuário. 6. Envolvimento na comunidade: Participar de discussões e ajudar usuários. 7. Promover o uso: Divulgar o Cherry Studio.

Como Participar

Envie e-mail para

Assunto: 申请成为开发者 Conteúdo: 申请理由

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

[email protected]
modelo de diálogo padrão global
forneça feedback
Diagrama de ativação do Assistente Rápido
Diagrama da interface do Assistente Rápido
site oficial do GitHub Copilot
Imagem de exemplo de obtenção do Device Code
Obter Device Code
Exemplo de autorização GitHub.png
Autorização do GitHub
Exemplo de conexão bem-sucedida ao GitHub
Conexão do GitHub bem-sucedida
Exemplo de obtenção da lista de modelos
Obter lista de modelos
Exemplo de falha ao obter o Device Code
Falha ao obter o Device Code
Conexão Online com Volcano Engine
Tutorial de Login/Registro Tavily
Exemplo de lista de Model IDs do Volcano Engine
Interface de Tradução

Config. MCP Embutido

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Configuração Interna do MCP

@cherry/mcp-auto-install

Instalação automática do serviço MCP (beta)

@cherry/memory

Implementação baseada em grafo de conhecimento local para memória persistente. Isso permite que o modelo se lembre de informações relevantes do usuário entre diferentes conversas.

MEMORY_FILE_PATH=/path/to/your/file.json

@cherry/sequentialthinking

Uma implementação de servidor MCP que fornece ferramentas para resolução dinâmica e reflexiva de problemas através de processos de pensamento estruturados.

@cherry/brave-search

Uma implementação de servidor MCP que integra a API de busca Brave, oferecendo funcionalidade dupla de pesquisa na web e pesquisa local.

BRAVE_API_KEY=YOUR_API_KEY

@cherry/fetch

Servidor MCP para obter conteúdo de páginas da web a partir de URLs.

@cherry/filesystem

Servidor Node.js que implementa o Model Context Protocol (MCP) para operações de sistema de arquivos.

Política de Privacidade

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Política de Privacidade

Bem-vindo ao Cherry Studio (doravante referido como "este software" ou "nós"). Valorizamos profundamente a proteção da sua privacidade, e esta Política de Privacidade explicará como tratamos e protegemos suas informações e dados pessoais. Por favor, leia e compreenda cuidadosamente este acordo antes de utilizar este software:

1. Escopo das Informações Coletadas

Para otimizar a experiência do usuário e melhorar a qualidade do software, podemos coletar anonimamente as seguintes informações não pessoais:

• Informações da versão do software; • Atividade e frequência de uso das funcionalidades; • Informações anônimas de logs de falhas e erros;

Essas informações são completamente anônimas, não envolvem nenhum dado de identidade pessoal e não podem ser vinculadas às suas informações pessoais.

2. Informações que Não Coletamos

Para proteger ao máximo sua privacidade, comprometemo-nos expressamente com o seguinte:

• Não coletamos, armazenamos, transmitimos ou processamos suas chaves de API de serviços de modelos inseridas neste software; • Não coletamos, armazenamos, transmitimos ou processamos quaisquer dados de conversa gerados durante o uso do software, incluindo mas não limitado a: conteúdo de chats, informações de comandos, dados de bases de conhecimento, vetores de dados ou outros conteúdos personalizados; • Não coletamos, armazenamos, transmitimos ou processamos qualquer informação sensível que possa identificar pessoalmente.

3. Explicação da Interação de Dados

Este software utiliza chaves de API de provedores de serviços de modelos terceirizados solicitadas e configuradas por você para realizar chamadas de modelos e funcionalidades de conversação. Os serviços de modelo utilizados (como LLMs, interfaces de API, etc.) são fornecidos e inteiramente responsabilizados pelo provedor terceirizado de sua escolha. O Cherry Studio atua apenas como uma ferramenta local que fornece funcionalidades de interface para serviços de modelos terceirizados.

Portanto:

• Todos os dados de conversa entre você e os serviços de modelos não têm relação com o Cherry Studio - não armazenamos, transmitimos ou intermediamos esses dados de forma alguma; • Você deve revisar e aceitar as políticas de privacidade e termos relacionados do respectivo provedor de serviços de modelos terceirizado. Essas políticas podem ser encontradas nos sites oficiais de cada provedor.

4. Declaração sobre Políticas de Privacidade de Provedores Terceirizados

Você assume integralmente os possíveis riscos de privacidade decorrentes do uso de provedores terceirizados de serviços de modelos. Para políticas de privacidade específicas, medidas de segurança de dados e responsabilidades pertinentes, consulte o conteúdo relevante no site oficial do provedor escolhido. Não nos responsabilizamos por tais questões.

5. Atualizações e Modificações do Acordo

Este acordo pode ser ajustado conforme atualizações do software. Acompanhe periodicamente as alterações. Quando ocorrerem mudanças substanciais, notificaremos você de forma apropriada.

6. Entre em Contato Conosco

Caso tenha dúvidas sobre esta política ou as medidas de proteção de privacidade do Cherry Studio, não hesite em nos contatar.

Agradecemos por escolher e confiar no Cherry Studio. Continuaremos fornecendo uma experiência de produto segura e confiável.

Contribuir com Documentação

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Contribuir para a Documentação

Envie um e-mail para [email protected] para obter acesso de edição

Título: Solicitar acesso de edição para Cherry Studio Docs

Corpo do e-mail: Preencha o motivo da solicitação

Ollama

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Ollama

Ollama é uma excelente ferramenta de código aberto que permite executar e gerenciar facilmente vários modelos de linguagem grandes (LLMs) localmente. O Cherry Studio agora suporta integração com Ollama, permitindo que você interaja diretamente com LLMs implantados localmente na interface familiar, sem depender de serviços em nuvem!

O que é Ollama?

Ollama é uma ferramenta que simplifica a implantação e uso de modelos de linguagem grandes (LLMs). Ele possui as seguintes características:

  • Execução local: Os modelos são executados completamente no seu computador local, sem necessidade de conexão à internet, protegendo sua privacidade e segurança de dados.

  • Simples e fácil de usar: Com comandos simples de linha de comando, você pode baixar, executar e gerenciar vários LLMs.

  • Riqueza de modelos: Suporta diversos modelos de código aberto populares como Llama 2, Deepseek, Mistral, Gemma, entre outros.

  • Multiplataforma: Compatível com macOS, Windows e Linux.

  • API Aberta: Possui interface compatível com OpenAI e pode ser integrado com outras ferramentas.

Por que usar Ollama no Cherry Studio?

  • Sem serviços de nuvem: Não está mais limitado por cotas e custos de API em nuvem, desfrute plenamente do poder dos LLMs locais.

  • Privacidade de dados: Todos os seus dados de conversa permanecem locais, sem preocupações com vazamento de privacidade.

  • Disponível offline: Mesmo sem conexão à internet, você pode continuar interagindo com o LLM.

  • Personalização: Selecione e configure o LLM que melhor atenda às suas necessidades.

Configurar Ollama no Cherry Studio

1. Instalar e executar Ollama

Primeiro, você precisa instalar e executar o Ollama no seu computador:

  • Baixar Ollama: Visite o site oficial do Ollama (https://ollama.com/) e baixe o pacote correspondente ao seu sistema operacional. No Linux, você pode instalar diretamente via comando:

    curl -fsSL https://ollama.com/install.sh | sh
  • Instalar Ollama: Siga as instruções do instalador para completar a instalação.

  • Baixar modelos: Abra o terminal (ou prompt de comando) e use o comando ollama run para baixar o modelo desejado. Exemplo para baixar Llama 3.2:

    ollama run llama3.2

    O Ollama baixará e executará o modelo automaticamente.

  • Manter Ollama em execução: Certifique-se de que o Ollama permaneça em execução durante sua interação com os modelos via Cherry Studio.

2. Adicionar Ollama como provedor no Cherry Studio

Adicione o Ollama como provedor personalizado de IA:

  • Abrir configurações: Na barra lateral do Cherry Studio, clique no ícone de engrenagem "Configurações".

  • Acessar serviços de modelo: Selecione a aba "Model Services" (Serviços de Modelo).

  • Adicionar provedor: Clique em "Ollama" na lista.

3. Configurar o provedor Ollama

Localize o Ollama na lista de provedores e configure:

  1. Status de ativação:

    • Ative o interruptor à direita para habilitar o serviço.

  2. Chave API:

    • O Ollama não requer chave API por padrão. Deixe este campo vazio ou preencha arbitrariamente.

  3. Endereço API:

    • Insira o endereço local da API do Ollama (padrão):

    http://localhost:11434/

    Ajuste se você alterou a porta.

  4. Tempo de manutenção ativa: Define o tempo máximo de inatividade da sessão (em minutos). O Cherry Studio desconectará automaticamente após este período para liberar recursos.

  5. Gerenciamento de modelos:

    • Clique em "+ Adicionar" para inserir manualmente o nome dos modelos baixados no Ollama (ex: llama3.2 se baixado via ollama run llama3.2).

    • Use o botão "Gerenciar" para editar ou remover modelos.

Começar a usar

Após a configuração, selecione "Ollama" e seu modelo no painel de chat do Cherry Studio para iniciar conversas com seu LLM local!

Dicas e sugestões

  • Primeira execução do modelo: O download inicial dos arquivos pode demorar significativamente.

  • Ver modelos disponíveis: Execute ollama list no terminal para listar modelos instalados.

  • Requisitos de hardware: Verifique se seu computador possui recursos suficientes (CPU/RAM/GPU) para executar LLMs.

  • Documentação Ollama: Clique em View Ollama Documentation and Models na página de configuração para acessar a documentação oficial.

OpenAI

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

OpenAI

Obter Chave API

  • Na página oficial da Chave API, clique em + Create new secret key

  • Copie a chave gerada e abra as configurações do fornecedor do CherryStudio

  • Localize o fornecedor OpenAI e insira a chave obtida

  • Clique em Gerir ou Adicionar na parte inferior, adicione os modelos suportados e ative o interruptor do fornecedor no canto superior direito para começar a utilizar.

  • Regiões da China, exceto Taiwan, não podem utilizar os serviços OpenAI diretamente, sendo necessário resolver problemas de proxy por conta própria.

  • É necessário ter saldo na conta.

Tutorial de Config. Notion

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Tutorial de Configuração do Notion

O Cherry Studio suporta a importação de tópicos para bases de dados do Notion.

Passo 1

Acesse o site Notion Integrations e crie um aplicativo

Clique no ícone de adição para criar aplicativo

Passo 2

Crie um aplicativo

Preencha as informações do aplicativo

Nome: Cherry Studio Tipo: Selecione a primeira opção Ícone: Você pode salvar esta imagem

Passo 3

Copie a chave secreta e cole-a nas configurações do Cherry Studio

Clique para copiar a chave secreta
Cole a chave nas configurações de dados

Passo 4

Acesse o site do Notion e crie uma nova página. Selecione o tipo de base de dados abaixo, nomeie como Cherry Studio e conecte conforme ilustrado

Crie uma nova página selecionando o tipo de base de dados
Nomeie a página e selecione "Connect to APP"

Passo 5

Copie o ID da base de dados

Se o URL da sua base de dados do Notion for semelhante a: https://www.notion.so/<long_hash_1>?v=<long_hash_2> Então o ID da base de dados do Notion é a parte <long_hash_1>

Preencha o ID da base de dados e clique em "Check"

Passo 6

Preencha Nome do campo de título da página:

Se sua interface estiver em inglês, preencha Name Se sua interface estiver em chinês, preencha 名称

Preencha o nome do campo de título da página

Passo 7

Parabéns! A configuração do Notion está concluída ✅ Agora você pode exportar conteúdo do Cherry Studio para sua base de dados do Notion

Exportar para o Notion
Verificar o resultado da exportação

Aliyun Bailian

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Alibaba Cloud Bailian

  1. Faça login no Alibaba Cloud Bailian. Se você não tiver uma conta da Alibaba Cloud, será necessário registar-se.

  2. Clique no botão 创建我的 API-KEY no canto superior direito.

Criação de Chave API no Alibaba Cloud Bailian
  1. Na janela pop-up, selecione o espaço de negócios padrão (ou você pode personalizar) e, se desejar, preencha uma descrição.

Janela de criação de chave API no Alibaba Cloud Bailian
  1. Clique no botão 确定 no canto inferior direito.

  2. Em seguida, você deverá ver uma nova linha na lista; clique no botão 查看 à direita.

    Visualizar chave API no Alibaba Cloud Bailian
  3. Clique no botão 复制.

    Copiar chave API no Alibaba Cloud Bailian
  4. Acesse o Cherry Studio e, em Configurações → Serviços de Modelo → Alibaba Cloud Bailian, encontre API 密钥. Cole a chave API copiada aqui.

    Inserir chave API no Alibaba Cloud Bailian
  5. Você pode ajustar as configurações relevantes conforme descrito em Serviços de Modelo e em seguida utilizá-lo.

Se não encontrar os modelos do Alibaba Cloud Bailian na lista de modelos, verifique se já adicionou os modelos conforme descrito em Serviços de Modelo e se ativou este provedor.

Cooperação Comercial

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Cooperação Comercial

Contato: Sr. Wang 📮:[email protected] 📱:18954281942 (não é número de atendimento ao cliente)

Para consultas de uso, junte-se ao nosso grupo de discussão de usuários no rodapé da página inicial do site oficial ou envie e-mail para [email protected]

Ou envie issues em: https://github.com/CherryHQ/cherry-studio/issues

Se precisar de mais orientações, junte-se ao nosso Planeta do Conhecimento

Detalhes da licença comercial: https://docs.cherry-ai.com/contact-us/questions/cherrystudio-xu-ke-xie-yi

OneAPI

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

OneAPI

  • Faça login e acesse a página de tokens

  • Crie um novo token (ou use o token "default"↑ diretamente)

  • Copie o token

  • Acesse as configurações de provedor do CherryStudio e clique em Adicionar no final da lista de provedores

  • Insira um nome para referência, selecione "OpenAI" como provedor e clique em OK

  • Cole a chave copiada anteriormente

  • Volte à página de obtenção da API Key e copie o endereço raiz da barra de endereços do navegador, por exemplo:

Copie apenas https://xxx.xxx.com. Não inclua "/" ou conteúdo após ele
  • Para endereços com IP + porta, insira http://IP:porta (ex: http://127.0.0.1:3000)

  • Distinga rigorosamente entre http e https. Se o SSL não estiver ativado, não use https

  • Adicione modelos (clique em "Gerenciar" para busca automática ou insira manualmente). Ative o botão no canto superior direito para começar a usar.

Outros temas do OneAPI podem ter interfaces diferentes, mas o método de adição segue o mesmo fluxo descrito acima.

Instalação do Ambiente MCP

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Instalação do Ambiente MCP

MCP (Model Context Protocol) é um protocolo de código aberto projetado para fornecer informações contextuais a modelos de linguagem de grande porte (LLMs) de forma padronizada. Para mais informações sobre o MCP, consulte .

Usando o MCP no Cherry Studio

Veja a seguir um exemplo usando a funcionalidade fetch para demonstrar como utilizar o MCP no Cherry Studio. Detalhes podem ser encontrados na documentação.

Preparação: Instalação do uv e bun

Atualmente, o Cherry Studio usa exclusivamente uv e bun integrados, não reutilizando as versões instaladas no sistema.

Em Configurações - Servidor MCP, clique no botão Instalar para iniciar o download e instalação automáticos. Como o download é feito diretamente do GitHub, pode ser lento e ter alta probabilidade de falha. A instalação é considerada bem-sucedida apenas se os arquivos estiverem presentes nas pastas mencionadas abaixo.

Diretório de instalação dos executáveis:

Windows: C:\Users\Nome do Usuário\.cherrystudio\bin

macOS e Linux: ~/.cherrystudio/bin

Diretório bin

Se a instalação automática falhar:

Você pode criar links simbólicos a partir dos comandos correspondentes no sistema para este diretório. Se o diretório não existir, crie-o manualmente. Como alternativa, faça o download manual dos executáveis e coloque-os neste diretório:

Bun: https://github.com/oven-sh/bun/releases UV: https://github.com/astral-sh/uv/releases

PPIO Cloud

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

PPIO PiO Cloud

Cherry Studio integra a API LLM da PPIO

Visão Geral do Tutorial

Cherry Studio é um cliente de desktop multi-modelo, atualmente compatível com pacotes de instalação para sistemas Windows, Linux e macOS. Ele agrega modelos LLM líderes, oferecendo assistência em diversos cenários. Os usuários podem melhorar sua eficiência através de gerenciamento inteligente de conversas, personalização de código aberto e interface multi-tema.

O Cherry Studio agora possui integração profunda com o canal de API de alto desempenho da PPIO — garantindo capacidade computacional corporativa para resposta ultrarrápida do DeepSeek-R1/V3 e 99,9% de disponibilidade de serviço, proporcionando uma experiência fluida e eficiente.

O tutorial abaixo contém o plano completo de integração (incluindo configuração de chaves), permitindo ativar o modo avançado de "Inteligência de Agendamento do Cherry Studio + API de Alto Desempenho da PPIO" em apenas 3 minutos.

1. Acesse o Cherry Studio e adicione "PPIO" como fornecedor de modelo

Primeiro, faça o download do Cherry Studio no site oficial: (se não conseguir acessar, utilize o link alternativo do Quark Pan: )

(1) Clique em "Configurações" no canto inferior esquerdo, defina o nome do fornecedor como PPIO e clique em "Confirmar"

(2) Acesse , clique no ícone do usuário → "Gerenciamento de Chaves de API" para entrar no painel de controle

Clique no botão [+ Criar] para gerar uma nova chave de API. Defina um nome para a chave. A chave gerada só será exibida uma vez — copie-a e salve-a para uso futuro

(3) No Cherry Studio, insira a chave: vá para "Configurações", selecione [PPIO PiO Cloud], insira a chave de API gerada no site oficial e clique em [Verificar]

(4) Selecione o modelo: usando deepseek/deepseek-r1/community como exemplo. Se necessário, outros modelos podem ser alternados diretamente.

As versões DeepSeek R1 e V3 community são para testes exploratórios com todos os parâmetros habilitados, sem diferenças em estabilidade ou desempenho. Para uso intensivo, recarregue créditos e alterne para versões não-community.

2. Configuração de Uso do Modelo

(1) Após clicar em [Verificar] e confirmar a conexão bem-sucedida, o uso normal está habilitado

(2) Finalmente, clique em [@], selecione o modelo DeepSeek R1 adicionado sob o fornecedor PPIO e inicie a conversa!

[Parte do material fonte: ]

3. Tutorial em Vídeo PPIO × Cherry Studio

Se preferir aprendizagem visual, preparamos um tutorial em vídeo no Bilibili. Com instruções passo a passo, você dominará rapidamente a configuração "API PPIO + Cherry Studio". Clique no link abaixo para acessar o vídeo e iniciar uma experiência de desenvolvimento fluida →

[Material de vídeo: sola]

Tutorial da Base de Conhecimento

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Tutorial de Base de Conhecimento

Na versão 0.9.1, o CherryStudio introduziu a tão esperada funcionalidade de Base de Conhecimento.

A seguir, apresentaremos o guia detalhado de utilização do CherryStudio passo a passo.

Adicionar Modelos de Embedding

  1. Busque modelos no serviço de gerenciamento de modelos - é possível filtrar rapidamente clicando em "Modelos de Embedding";

  2. Encontre o modelo desejado e adicione-o aos meus modelos.

Criar Base de Conhecimento

  1. Acesso à Base de Conhecimento: Na barra de ferramentas à esquerda do CherryStudio, clique no ícone da Base de Conhecimento para acessar a página de gerenciamento;

  2. Adicionar Base de Conhecimento: Clique em "Adicionar" para começar a criar sua base de conhecimento;

  3. Nomeação: Insira o nome da base de conhecimento e adicione um modelo de embedding, usando bge-m3 como exemplo, para finalizar a criação.

Adicionar Arquivos e Vetorizar

  1. Adicionar arquivos: Clique no botão de adicionar arquivos para abrir a seleção;

  2. Selecionar arquivos: Escolha entre formatos suportados como pdf, docx, pptx, xlsx, txt, md, mdx etc.;

  3. Vetorização: O sistema realizará automaticamente o processo de vetorização. Quando mostrar "Concluído" (verde ✓), significa que a vetorização está completa.

Adicionar Dados de Múltiplas Fontes

O CherryStudio suporta diversos métodos de adição de dados:

  1. Diretório de pastas: Adicione uma pasta inteira - os arquivos suportados serão vetorizados automaticamente;

  2. URL: Suporta links como ;

  3. Mapa do site: Suporta sitemaps em formato XML como ;

  4. Notas de texto: Permite inserir conteúdo personalizado em texto puro.

Dicas:

  1. Ilustrações em documentos importados não são convertidas em vetores automaticamente – é necessário convertê-las manualmente em texto;

  2. URLs como fonte podem falhar devido a políticas antifraude rigorosas, login obrigatório ou autorização. Recomenda-se testar após a criação;

  3. Sites geralmente possuem sitemaps (ex: ). Normalmente localizados em domínio.com/sitemap.xml;

  4. Se o site não tiver sitemap, crie um arquivo XML manualmente usando URLs públicas:

    1. Use IA para gerar sitemaps ou ferramentas geradoras;

    2. Utilize links diretos de OSS (Object Storage Service) ou armazenamento em nuvem. Ferramenta gratuita disponível em: .

Pesquisar na Base de Conhecimento

Após a vetorização, é possível realizar consultas:

  1. Clique no botão "Pesquisar Base de Conhecimento" no rodapé da página;

  2. Insira o conteúdo da consulta;

  3. Visualize os resultados da pesquisa;

  4. Verifique a pontuação de correspondência para cada resultado.

Gerar Respostas com Base de Conhecimento em Diálogos

  1. Crie um novo tópico. Na barra de ferramentas, clique em "Base de Conhecimento" para ver a lista e selecione uma base;

  2. Envie sua pergunta – o modelo retornará respostas geradas a partir dos resultados da pesquisa;

  3. As fontes de dados utilizadas aparecerão abaixo da resposta para acesso rápido.

Download do Cliente

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Versão estável mais recente: v1.4.8

Download Direto

Versão Windows

Nota: O Windows 7 não é compatível com o Cherry Studio.

Versão de Instalação (Setup)

Versão x64

Linha principal:

【】 【】

Linha alternativa:

【】 【】 【】

Versão ARM64

Linha principal:

【】 【】

Linha alternativa:

【】 【】 【】

Versão Portátil (Portable)

Versão x64

Linha principal:

【】 【】

Linha alternativa:

【】 【】 【】

Versão ARM64

Linha principal:

【】 【】

Linha alternativa:

【】 【】 【】


Versão macOS

Versão para chips Intel (x64)

Linha principal:

【】 【】

Linha alternativa:

【】 【】 【】

Versão Apple Silicon (ARM64, chips M-series)

Linha principal:

【】 【】

Linha alternativa:

【】 【】 【】


Versão Linux

Versão x86_64

Linha principal:

【】 【】

Linha alternativa:

【】 【】 【】

Versão ARM64

Linha principal:

【】 【】

Linha alternativa:

【】 【】 【】


Download via Nuvem

Adic. Servidor MCP ModelScope

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Adicionar Servidor ModelScope MCP

Para servidores ModelScope MCP, é necessário atualizar o Cherry Studio para a versão v1.2.9 ou superior.

Na versão v1.2.9, o Cherry Studio estabeleceu uma parceria oficial com o ModelScope (魔搭), simplificando significativamente as etapas de adição de servidores MCP. Essa integração evita erros de configuração e permite descobrir inúmeros servidores MCP na comunidade ModelScope. Acompanhe as etapas abaixo para aprender como sincronizar servidores MCP do ModelScope no Cherry Studio.

Etapas Operacionais

Ponto de Sincronização:

Clique em "Configurações de servidores MCP" e selecione Sincronizar servidores

Descobrir Serviços MCP:

Selecione "ModelScope" e explore os serviços MCP disponíveis

Verificar Detalhes do Servidor MCP:

Faça login no ModelScope e visualize os detalhes do serviço MCP

Conectar ao Servidor:

Na página de detalhes do serviço MCP, selecione "Conectar serviço"

Solicitar e Copiar Token de API:

Clique em "Obter token de API" no Cherry Studio para acessar o site do ModelScope. Copie o token de API e cole-o no Cherry Studio.

Sincronização Bem-sucedida:

Na lista de servidores MCP do Cherry Studio, o serviço conectado do ModelScope estará disponível para uso em conversas.

Atualização Incremental:

Para novos servidores MCP conectados posteriormente no site do ModelScope, bastará clicar em Sincronizar servidores para adicioná-los incrementalmente.

Com estas etapas, você dominou o processo de sincronização simplificada dos servidores MCP do ModelScope no Cherry Studio. Essa configuração elimina a complexidade e erros potenciais de configuração manual, permitindo o acesso a recursos abundantes da comunidade ModelScope.

Comece a explorar e utilizar esses poderosos serviços MCP para potencializar sua experiência com o Cherry Studio, abrindo novas possibilidades e conveniências!

WuWenXinQiong

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Infini-AI

Você já passou por isso: salvou 26 artigos cheios de conteúdo no WeChat e nunca mais os abriu, tem mais de 10 arquivos espalhados na pasta "Material de estudo" do computador, e quando tenta encontrar uma teoria que leu há meio ano só se lembra de algumas palavras-chave? Quando o volume diário de informações excede o limite do cérebro, 90% do conhecimento valioso é esquecido em 72 horas. Agora, com a API da plataforma de serviço de modelos de grande escala Infini-AI + Cherry Studio, você pode criar uma base de conhecimento pessoal que transforma artigos do WeChat acumulando poeira e conteúdos fragmentados de cursos em conhecimento estruturado, permitindo acesso preciso.

1. Construção da Base de Conhecimento Pessoal

1.1 Serviço de API Infini-AI: "Cérebro" da base de conhecimento, estável e fácil de usar

Como o "cérebro" da base de conhecimento, a plataforma Infini-AI oferece versões como o DeepSeek R1 Full Edition, provendo serviços de API estáveis. Atualmente, após cadastro, o uso é gratuito e sem barreiras. Suporta modelos de incorporação (embedding) mainstream como bge e jina para construir bases de conhecimento. A plataforma atualiza constantemente os serviços de modelos open-source mais recentes e poderosos, incluindo múltiplas modalidades como imagem, vídeo e áudio.

1.2 Cherry Studio: Construa sua base de conhecimento sem código

Cherry Studio é uma ferramenta de IA intuitiva. Comparado ao desenvolvimento tradicional de bases de conhecimento RAG (que leva 1-2 meses), esta ferramenta oferece operação sem código, importando com um clique formatos como Markdown/PDF/páginas web. Arquivos de 40MB são processados em 1 minuto. Além disso, permite adicionar pastas locais, artigos favoritados do WeChat e anotações de cursos.

2. 3 Passos para Criar Seu Assistente de Conhecimento Exclusivo

Passo 1: Preparação Básica

  1. Acesse o site oficial do Cherry Studio para baixar a versão compatível (https://cherry-ai.com/)

  2. Cadastre-se: Entre na plataforma Infini-AI (https://cloud.infini-ai.com/genstudio/model?cherrystudio)

  • Obtenha a chave da API: Na "Praça de Modelos", selecione deepseek-r1, clique em criar e copie o nome do modelo

Passo 2: Nas configurações do Cherry Studio, selecione "Infini-AI" nos serviços de modelo, insira a chave da API e ative o serviço

Após concluir, selecione o modelo necessário durante interações para usar os serviços da API Infini-AI no Cherry Studio. Para facilitar, defina também um "modelo padrão".

Passo 3: Adicione a base de conhecimento

Selecione qualquer versão dos modelos de incorporação bge ou jina da plataforma Infini-AI

3. Teste em Cenário Real de Usuário

  • Após importar materiais de estudo, insira: "Organize a derivação das fórmulas-chave do Capítulo 3 de 'Machine Learning'"

Resultado gerado (imagem anexa)

Modo Online Gratuito

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Modo de Internet Gratuita

Explicação:

  • Preservação de formatação: Mantive o símbolo de cabeçalho # sem alteração conforme as regras.

  • Tradução textual: "免费" → "Gratuita" (sem custo) "联网" → "Internet" (acesso à rede) "模式" → "Modo" (funcionalidade/operação)

  • Naturalidade: "Modo de Internet Gratuita" é a expressão mais comum em português para descrever funcionalidade de acesso gratuito à internet.

# Modo de Internet Gratuita
Site Oficial do Cherry Studio
GitHub
Alternativa 1
Alternativa 2
Alternativa 3
Site Oficial do Cherry Studio
GitHub
Alternativa 1
Alternativa 2
Alternativa 3
Site Oficial do Cherry Studio
GitHub
Alternativa 1
Alternativa 2
Alternativa 3
Site Oficial do Cherry Studio
GitHub
Alternativa 1
Alternativa 2
Alternativa 3
Site Oficial do Cherry Studio
GitHub
Alternativa 1
Alternativa 2
Alternativa 3
Site Oficial do Cherry Studio
GitHub
Alternativa 1
Alternativa 2
Alternativa 3
Site Oficial do Cherry Studio
GitHub
Alternativa 1
Alternativa 2
Alternativa 3
Site Oficial do Cherry Studio
GitHub
Alternativa 1
Alternativa 2
Alternativa 3
Quark
https://docs.siliconflow.cn/introduction
https://docs.siliconflow.cn/sitemap.xml
sitemap do CherryStudio
ocoolAI
Drawing

Feedback & Sugestões

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Feedback & Sugestões

Grupo de Discussão do Telegram

Os membros do grupo compartilham suas experiências de uso e ajudam a resolver problemas

Junte-se ao grupo de discussão do Telegram para obter ajuda: https://t.me/CherryStudioAI

Grupo QQ

Os membros do grupo QQ podem ajudar-se mutuamente e compartilhar links de download

Grupo QQ (1025067911)

Issues do GitHub

Adequado para registrar problemas que os desenvolvedores possam esquecer, ou para participar de discussões aqui

Issues do GitHub: https://github.com/CherryHQ/cherry-studio/issues/new/choose

E-mail

Caso não encontre outros canais de feedback, entre em contato com o desenvolvedor para obter ajuda

E-mail do desenvolvedor: [email protected]

Como Perguntar Eficientemente

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Métodos Eficientes de Perguntar

Cherry Studio é um projeto gratuito e de código aberto. À medida que o projeto cresce, a carga de trabalho da equipe também aumenta. Para reduzir custos de comunicação e resolver suas dúvidas de forma rápida e eficiente, pedimos que antes de fazer perguntas, siga estas etapas. Isso permitirá que a equipe dedique mais tempo à manutenção e desenvolvimento do projeto. Agradecemos sua cooperação!

1. Consulta e Pesquisa em Documentação

A maioria das questões básicas pode ser resolvida consultando a documentação com atenção:

  • Dúvidas sobre funcionalidades e uso do software podem ser encontradas na documentação de Funcionalidades;

  • Perguntas frequentes estão compiladas na página FAQ - verifique primeiro se há soluções lá;

  • Questões complexas podem ser resolvidas diretamente através da pesquisa ou usando a caixa de pesquisa;

  • Leia atentamente os conteúdos dos quadros de aviso em cada documento - isso ajuda a evitar muitos problemas;

  • Consulte ou pesquise problemas semelhantes e soluções na página de Issues do GitHub.

2. Pesquisa na Internet e Consulta à IA

Para questões não relacionadas à funcionalidade do cliente (como erros de modelo, respostas inesperadas, configuração de parâmetros), recomendamos:

  • Pesquisar soluções relacionadas na internet primeiro;

  • Descrever o erro e o problema para uma IA para buscar soluções.

3. Pergunte na Comunidade Oficial ou Abra um Issue no GitHub

Se as etapas 1 e 2 não resolverem seu problema, você pode:

  • Pedir ajuda nos canais oficiais: Telegram, Discord ou Grupo QQ.

  • Descrever detalhadamente o problema ao buscar ajuda.

Orientações específicas:

  1. Para erros de modelo:

    • Forneça captura de tela completa da interface e informações de erro do console.

    • Informações sensíveis podem ser ocultadas, mas mantenha no print: nome do modelo, parâmetros e conteúdo do erro.

    • Método para ver erros do console: clique aqui.

  2. Para bugs de software:

    • Descreva o erro concretamente e forneça etapas detalhadas de .

    • Se for intermitente, descreva o cenário, contexto e parâmetros relevantes.

    • Inclua plataforma (Windows/Mac/Linux) e versão do software na descrição.

Solicitar documentação ou sugerir melhorias Contate @Wangmouuu no Telegram, QQ (1355873789) ou email: [email protected].

{% hint style="danger" %}
Atenção: A geração de imagens do Gemini precisa ser usada na interface de conversa, pois o Gemini é uma geração de imagens interativa multimodal e não suporta ajustes de parâmetros.
{% endhint %}
​
​
https://cherry-ai.com/download
https://pan.quark.cn/s/c8533a1ec63e#/list/share
Gerenciamento de Chaves de API do PPIO Infra
​
Chen En
​
《[Frustrado com o DeepSeek travando?] PPIO Cloud + DeepSeek Full Power = Zero congestionamento, decolagem imediata》

Tutorial de Config. Obsidian

数据设置→Obsidian配置

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Tutorial de Configuração do Obsidian

Cherry Studio suporta integração com o Obsidian para exportar conversas completas ou individuais para a sua biblioteca do Obsidian.

Este processo não requer instalação de plugins adicionais do Obsidian. No entanto, como o mecanismo de importação do Cherry Studio é semelhante ao Obsidian Web Clipper, recomenda-se atualizar o Obsidian para a versão mais recente (atual versão mínima: 1.7.2) para evitar falhas na importação de conversas extensas.

Tutorial Atualizado

Comparado à versão antiga, a nova funcionalidade de exportação para o Obsidian seleciona automaticamente o caminho da biblioteca, eliminando a necessidade de inserir manualmente nomes de bibliotecas ou pastas.

Passo 1: Configurar o Cherry Studio

Abra Configurações → Configurações de Dados → Menu Configuração do Obsidian no Cherry Studio. Os nomes das bibliotecas do Obsidian abertas localmente aparecerão automaticamente na lista suspensa. Selecione sua biblioteca alvo:

Passo 2: Exportar Conversas

Exportar Conversa Completa

Retorne à interface de conversa do Cherry Studio. Clique com o botão direito na conversa, selecione Exportar e clique em Exportar para Obsidian:

Uma janela será aberta para ajustar as Propriedades da nota, o local da pasta no Obsidian e o método de processamento:

  • Biblioteca: Selecione outra biblioteca do menu suspenso

  • Caminho: Selecione a pasta de destino para a nota exportada

  • Propriedades da nota do Obsidian:

    • Tags

    • Data de criação (created)

    • Origem (source)

  • Métodos de processamento disponíveis:

    • Novo (substituir se existir): Cria uma nova nota na pasta especificada, substituindo notas existentes com mesmo nome

    • Prepend: Adiciona o conteúdo ao início de uma nota existente com mesmo nome

    • Anexar: Adiciona o conteúdo ao final de uma nota existente com mesmo nome

Apenas o primeiro método inclui Propriedades. Os outros dois métodos não incluem Propriedades.

Configurar propriedades da nota
Selecionar caminho
Escolher método de processamento

Após selecionar todas as opções, clique em OK para exportar a conversa completa.

Exportar Mensagem Individual

Clique no menu de três linhas abaixo da mensagem, selecione Exportar e clique em Exportar para Obsidian:

Exportar mensagem individual

A mesma janela de configuração de propriedades e métodos de processamento será exibida. Siga os mesmos passos do tutorial acima.

Exportação Concluída

🎉 Parabéns! Você concluiu toda a configuração de integração do Cherry Studio com o Obsidian. Aproveite!

Exportado para o Obsidian
Verificar resultado

Tutorial Antigo (para Cherry Studio <v1.1.13)

Passo 1: Preparar o Obsidian

Abra sua biblioteca do Obsidian e crie uma pasta para salvar as conversas exportadas (exemplo: pasta "Cherry Studio"):

Anote o nome da Biblioteca destacado no canto inferior esquerdo.

Passo 2: Configurar o Cherry Studio

Em Configurações → Configurações de Dados → Menu Configuração do Obsidian do Cherry Studio, insira o nome da Biblioteca e da Pasta obtidos no Passo 1:

O campo Tags globais é opcional para definir tags padrão em todas as notas exportadas.

Passo 3: Exportar Conversas

Exportar Conversa Completa

Clique com o botão direito na conversa, selecione Exportar e clique em Exportar para Obsidian:

Exportar conversa completa

Configure as Propriedades da nota e escolha um método de processamento:

  • Novo (substituir se existir)

  • Prepend

  • Anexar

Configurar propriedades da nota

Apenas o primeiro método inclui Propriedades.

Exportar Mensagem Individual

Clique no menu de três linhas abaixo da mensagem e selecione Exportar para Obsidian:

Exportar mensagem individual

Siga os mesmos passos do tutorial acima.

Exportação Concluída

🎉 Parabéns! Você concluiu toda a configuração de integração. Aproveite!

Exportado para o Obsidian
Verificar resultado

Alterar Local de Armaz.

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Local de Armazenamento Padrão

O armazenamento de dados do Cherry Studio segue as normas do sistema, onde os dados são automaticamente salvos no diretório do usuário, conforme as seguintes localizações:

macOS: /Users/username/Library/Application Support/CherryStudioDev Windows: C:\Users\username\AppData\Roaming\CherryStudio Linux: /home/username/.config/CherryStudio

Esta localização também pode ser verificada em:

Modificar o Local de Armazenamento (Referência)

Método 1: Você pode criar um link simbólico. Saia do aplicativo, mova os dados para o local desejado e crie um link no local original apontando para o novo diretório.

Instruções detalhadas: https://github.com/CherryHQ/cherry-studio/issues/621#issuecomment-2588652880

Método 2: Aproveitando características do Electron, configure parâmetros de inicialização para alterar o diretório de armazenamento.

--user-data-dir Exemplo: Cherry-Studio-*-x64-portable.exe --user-data-dir="%user_data_dir%"

Demonstração:

PS D:\CherryStudio> dir

     Diretório: D:\CherryStudio

Modo        ÚltimaEscrita    Comprimento Nome
----        -------------    ------ ----
d-----      2025/4/18 14:05             user-data-dir
-a----      2025/4/14 23:05   94987175  Cherry-Studio-1.2.4-x64-portable.exe
-a----      2025/4/18 14:05        701  init_cherry_studio.bat

init_cherry_studio.bat (codificação: ANSI)

@title Inicializar CherryStudio
@echo off

set current_path_dir=%~dp0
@echo Diretório atual: %current_path_dir%
set user_data_dir=%current_path_dir%user-data-dir
@echo Diretório de dados: %user_data_dir%

@echo Procurando executável Cherry-Studio-*-portable.exe
setlocal enabledelayedexpansion

for /f "delims=" %%F in ('dir /b /a-d "Cherry-Studio-*-portable*.exe" 2^>nul') do ( # Adaptado para versões do GitHub e site oficial
    set "target_file=!cd!\%%F"
    goto :break
)
:break
if defined target_file (
    echo Arquivo encontrado: %target_file%
) else (
    echo Nenhum arquivo compatível encontrado
    pause
    exit
)

@echo Pressione qualquer tecla para continuar
pause

@echo Iniciando CherryStudio
start %target_file% --user-data-dir="%user_data_dir%"

@echo Processo concluído
@echo on
exit

Estrutura do diretório user-data-dir após inicialização:

PS D:\CherryStudio> dir .\user-data-dir\

     Diretório: D:\CherryStudio\user-data-dir

Modo        ÚltimaEscrita    Comprimento Nome
----        -------------    ------ ----
d-----      2025/4/18 14:29             blob_storage
d-----      2025/4/18 14:07             Cache
d-----      2025/4/18 14:07             Code Cache
d-----      2025/4/18 14:07             Data
d-----      2025/4/18 14:07             DawnGraphiteCache
d-----      2025/4/18 14:07             DawnWebGPUCache
d-----      2025/4/18 14:07             Dictionaries
d-----      2025/4/18 14:07             GPUCache
d-----      2025/4/18 14:07             IndexedDB
d-----      2025/4/18 14:07             Local Storage
d-----      2025/4/18 14:07             logs
d-----      2025/4/18 14:30             Network
d-----      2025/4/18 14:07             Partitions
d-----      2025/4/18 14:29             Session Storage
d-----      2025/4/18 14:07             Shared Dictionary
d-----      2025/4/18 14:07             WebStorage
-a----      2025/4/18 14:07         36  .updaterId
-a----      2025/4/18 14:29         20  config.json
-a----      2025/4/18 14:07        434  Local State
-a----      2025/4/18 14:29         57  Preferences
-a----      2025/4/18 14:09       4096  SharedStorage
-a----      2025/4/18 14:30        140  window-state.json

Tutorial de Login/Registro Tavily

如何注册tavily?

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Tutorial de Login, Registro e Conexão à Internet do Tavily

1. Site oficial do Tavily

https://app.tavily.com/home

Alguns usuários podem ter acesso lento; se tiver um proxy, pode usá-lo.

2. Etapas detalhadas de registro no Tavily

Acesse o site oficial acima ou vá para Cherry Studio > Configurações > Busca na Web > Clique em "Obter chave" para ser redirecionado diretamente para a página de login/registro do Tavily.

Se for a primeira vez usando, você precisa registrar uma conta (Sign up) antes de fazer login (Log in). O redirecionamento padrão é para a página de login.

  1. Clique em "Registrar conta", insira seu e-mail principal ou use uma conta Google/GitHub. Em seguida, prossiga para criar sua senha (etapas comuns).

Registrar conta
  1. 🚨🚨🚨【ETAPA CRUCIAL】** Após o registro bem-sucedido, haverá uma verificação decódigo dinâmico. Você precisará escanear um QR code para gerar um código único (Code) e continuar.

Muitos usuários travam aqui... não se preocupe

Temos duas soluções simples:

  1. Baixe o aplicativo de autenticação da Microsoft – Authenticator [um pouco complicado]

  2. Use o miniprograma do WeChat: 腾讯身份验证器 (Verificador de Identidade Tencent) [simples e recomendado]

  1. Abra o WeChat, pesquise pelo miniprograma: 腾讯身份验证器

Miniprograma WeChat - Pesquisar - Abrir
Após abrir, escaneie o QR code da página do Tavily
Você receberá uma sequência numérica
Cole na página do Tavily
Será solicitado que você salve o código em local seguro - siga essa recomendação (embora raramente usado)

3. 🎉 Registro concluído 🎉

Após essas etapas, você verá esta tela confirmando o registro. Copie a chave para o Cherry Studio e comece a usar.

Instalação Automática do MCP

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Instalação Automática do MCP

A instalação automática do MCP requer a atualização do Cherry Studio para a versão v1.1.18 ou superior.

Introdução ao Funcionamento

Além da instalação manual, o Cherry Studio possui integrado a ferramenta @mcpmarket/mcp-auto-install, uma forma mais conveniente de instalar servidores MCP. Basta inserir o comando correspondente em uma conversa de modelo grande que suporte o serviço MCP.

Lembrete da fase de teste:

  • @mcpmarket/mcp-auto-install ainda está na fase de testes

  • O desempenho depende da "inteligência" do modelo grande: algumas instalações serão automáticas, enquanto outras exigirão ajustes manuais de parâmetros nas configurações do MCP

  • Atualmente, a fonte de pesquisa é @modelcontextprotocol, podendo ser personalizada (explicado abaixo)

Instruções de Uso

Por exemplo, você pode inserir:

O sistema identificará automaticamente sua solicitação e completará a instalação através do @mcpmarket/mcp-auto-install. Essa ferramenta suporta diversos tipos de servidores MCP, incluindo mas não limitados a:

  • filesystem (sistema de arquivos)

  • fetch (requisição de rede)

  • sqlite (banco de dados)

  • etc.

A variável MCP_PACKAGE_SCOPES permite personalizar a fonte de pesquisa de serviços MCP, com valor padrão: @modelcontextprotocol.

Introdução à biblioteca @mcpmarket/mcp-auto-install

Referência de configuração padrão:

@mcpmarket/mcp-auto-install é um pacote npm de código aberto. Consulte detalhes e documentação no . @mcpmarket representa a coleção oficial de serviços MCP do Cherry Studio.

Info. de Ref. de Modelos Comuns

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Informações de Referência Comuns sobre Modelos

  • As informações abaixo são apenas para referência. Se houver erros, entre em contato para corrigi-los. Fornecedores diferentes podem ter diferenças no tamanho do contexto e nas informações do modelo.

  • Ao inserir dados no cliente, converta "k" para valores reais (teoricamente 1k = 1024 tokens; 1m = 1024k tokens). Por exemplo, 8k equivale a 8 × 1024 = 8192 tokens. Recomenda-se multiplicar por 1000 durante o uso real para evitar erros, por exemplo, 8k = 8 × 1000 = 8000, 1m = 1 × 1000000 = 1000000.

  • Os itens marcados como "-" na coluna "Saída Máxima" indicam que não foi encontrada informação oficial clara sobre o limite de saída do modelo.

... (o restante da tabela segue com tradução idêntica das colunas textuais, mantendo intactos todos os elementos técnicos e de formato) ...

Nome do Modelo
Entrada Máx.
Saída Máx.
Chamada de Função
Capacidades
Fornecedor
Descrição

Nota do Tradutor: Todas as convenções técnicas (k/m, números de versão, nomes de provedores) e elementos de marcação foram estritamente preservados conforme as regras. Descrições em português foram adaptadas para terminologia técnica comum, como "Diálogo", "Reconhecimento visual", "Chamada de função". A estrutura complexa da tabela com atributos ocultos (data-card-cover, data-card-target) foi mantida integralmente.

Config. de Lista Negra para Buscas

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Configuração da Lista Negra de Pesquisa na Web

O Cherry Studio suporta duas formas de configurar a lista negra: manualmente e através da adição de fontes de assinatura. As regras de configuração seguem a referência do .

Configuração Manual

Você pode adicionar regras aos resultados de pesquisa ou clicar no ícone da barra de ferramentas para bloquear sites específicos. As regras podem ser especificadas através de:

  • (exemplo: *://*.example.com/*)

  • (exemplo: /example\.(net|org)/).

Configuração de Fontes de Assinatura

Você também pode assinar conjuntos de regras públicos. Este site lista algumas assinaturas: https://iorate.github.io/ublacklist/subscriptions

Abaixo estão algumas fontes de assinatura recomendadas:

Nome
Link
Tipo

360gpt-pro

8k

-

Não suporta

Diálogo

360AI_360gpt

Principal modelo de bilhões de parâmetros da série 360 Brain, amplamente aplicável em cenários complexos em diversos campos.

360gpt-turbo

7k

-

Não suporta

Diálogo

360AI_360gpt

Modelo de bilhões de parâmetros que equilibra desempenho e custo, ideal para cenários com requisitos de desempenho/custo elevados.

360gpt-turbo-responsibility-8k

8k

-

Não suporta

Diálogo

360AI_360gpt

Modelo de bilhões de parâmetros que equilibra desempenho e custo, ideal para cenários com requisitos de desempenho/custo elevados.

glm-4v-flash

2k

1k

Não suporta

Diálogo, Reconhecimento visual

智谱_glm

Modelo gratuito: possui recursos avançados de compreensão de imagens

帮我安装一个 filesystem mcp server
// `axun-uUpaWEdMEMU8C61K` é o ID do serviço, pode ser personalizado
"axun-uUpaWEdMEMU8C61K": {
  "name": "mcp-auto-install",
  "description": "Automatically install MCP services (Beta version)",
  "isActive": false,
  "registryUrl": "https://registry.npmmirror.com",
  "command": "npx",
  "args": [
    "-y",
    "@mcpmarket/mcp-auto-install",
    "connect",
    "--json"
  ],
  "env": {
    "MCP_REGISTRY_PATH": "Detalhes em https://www.npmjs.com/package/@mcpmarket/mcp-auto-install"
  },
  "disabledTools": []
}
repositório oficial npm
Inserir comando para instalar o servidor MCP
Interface de configuração do servidor MCP

uBlacklist subscription compilation

https://git.io/ublacklist

Chinês

uBlockOrigin-HUGE-AI-Blocklist

https://raw.githubusercontent.com/laylavish/uBlockOrigin-HUGE-AI-Blocklist/main/list_uBlacklist.txt

Gerado por IA

ublacklist
Padrões de correspondência
Expressões regulares
Configuração de fontes de assinatura

Conhecimento Básico

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Conhecimento Científico Popular

O que são tokens?

Tokens são as unidades básicas de processamento de texto em modelos de IA, podendo ser entendidos como as menores unidades de "pensamento" do modelo. Eles não correspondem exatamente a caracteres ou palavras como as entendemos, mas sim a um método especial de segmentação de texto usado pelo próprio modelo.

1. Segmentação de Texto em Chinês

  • Um caractere chinês geralmente é codificado como 1-2 tokens

  • Exemplo: "你好" ≈ 2-4 tokens

2. Segmentação de Texto em Inglês

  • Palavras comuns geralmente são 1 token

  • Palavras longas ou incomuns são divididas em múltiplos tokens

  • Exemplo:

    • "hello" = 1 token

    • "indescribable" = 4 tokens

3. Caracteres Especiais

  • Espaços, pontuação e outros também ocupam tokens

  • Caracteres de nova linha geralmente são 1 token

Os Tokenizers variam entre diferentes provedores de serviços, e até mesmo entre diferentes modelos do mesmo provedor. Este conhecimento serve apenas para esclarecer o conceito de token.


O que é um Tokenizer?

Tokenizer (segmentador) é a ferramenta que converte texto em tokens para modelos de IA. Ele determina como o texto de entrada é dividido nas menores unidades compreensíveis pelo modelo.

Por que Tokenizers variam entre modelos?

1. Dados de Treinamento Diferentes

  • Corpus linguísticos distintos levam a diferentes otimizações

  • Variações no suporte a múltiplos idiomas

  • Otimizações especializadas para áreas específicas (saúde, direito, etc.)

2. Algoritmos de Segmentação Diferentes

  • BPE (Byte Pair Encoding) - OpenAI GPT series

  • WordPiece - Google BERT

  • SentencePiece - Ideal para cenários multilíngues

3. Objetivos de Otimização Diferentes

  • Alguns focam em eficiência de compressão

  • Outros em preservação semântica

  • Outros em velocidade de processamento

Impacto Prático

O mesmo texto pode ter contagens diferentes de tokens em modelos distintos:

Entrada: "Hello, world!"
GPT-3: 4 tokens
BERT: 3 tokens
Claude: 3 tokens

O que são Modelos de Incorporação (Embedding Models)?

Conceito Básico: Modelos de incorporação são técnicas que convertem dados discretos de alta dimensão (texto, imagens, etc.) em vetores contínuos de baixa dimensão, permitindo que máquinas compreendam e processem melhor informações complexas. Imagine como simplificar um quebra-cabeça complexo em um ponto coordenado que ainda mantém características essenciais. No ecossistema de grandes modelos, atuam como "tradutores" convertendo informações humanas em formas numéricas computáveis.

Funcionamento: No processamento de linguagem natural, modelos de incorporação mapeiam palavras para posições específicas em espaços vetoriais. Nesse espaço, palavras semanticamente relacionadas agrupam-se naturalmente. Por exemplo:

  • "Rei" e "rainha" terão vetores próximos

  • "Gato" e "cachorro" como animais domésticos estarão próximos

  • "Carro" e "pão", semanticamente não relacionados, ficarão distantes

Principais Casos de Uso:

  • Análise de texto: classificação de documentos, análise de sentimentos

  • Sistemas de recomendação: sugestão de conteúdo personalizado

  • Processamento de imagens: busca por imagens semelhantes

  • Motores de busca: otimização de pesquisa semântica

Vantagens-Chave:

  1. Redução dimensional: simplifica dados complexos para formas vetoriais tratáveis

  2. Preservação semântica: mantém informações semânticas cruciais dos dados originais

  3. Eficiência computacional: acelera significativamente treinamento e inferência de modelos

Valor Tecnológico: Modelos de incorporação são componentes fundamentais de sistemas modernos de IA, fornecendo representações de alta qualidade para tarefas de aprendizado de máquina e são essenciais para avanços em processamento de linguagem natural, visão computacional e áreas afins.


Funcionamento de Modelos Embedding em Recuperação de Conhecimento

Fluxo de Trabalho Básico:

  1. Fase de Pré-processamento do Banco de Conhecimento

  • Divisão de documentos em chunks (segmentos de texto) de tamanho apropriado

  • Conversão de cada chunk em vetor usando o modelo embedding

  • Armazenamento de vetores e texto original em banco de dados vetorial

  1. Fase de Processamento de Consultas

  • Conversão da pergunta do usuário em vetor

  • Busca por conteúdo similar no banco vetorial

  • Fornecimento do conteúdo recuperado como contexto para o LLM


O que é MCP (Model Context Protocol)?

MCP é um protocolo open-source que fornece informações contextuais a modelos de linguagem (LLM) de forma padronizada.

  • Analogia: Imagine MCP como um "pen drive" para IA. Assim como pen drives armazenam vários arquivos que ficam acessíveis ao conectar no computador, servidores MCP aceitam "plugins" contextuais diversos. LLMs podem solicitar esses plugins conforme necessário, obtendo informações contextuais ricas para expandir suas capacidades.

  • Comparação com Function Tools: Ferramentas funcionais tradicionais também ampliam capacidades de LLMs, mas MCP opera em abstração mais elevada. Enquanto Function Tools focam em tarefas específicas, MCP oferece um mecanismo modular e universal de obtenção de contexto.

Vantagens Essenciais do MCP

  1. Padronização: Interface e formato de dados unificados permitem colaboração direta entre diferentes LLMs e provedores de contexto.

  2. Modularidade: Contexto pode ser dividido em módulos (plugins) independentes para fácil gerenciamento e reuso.

  3. Flexibilidade: LLMs selecionam plugins contextuais dinamicamente conforme necessidades, viabilizando interações mais inteligentes e personalizadas.

  4. Escalabilidade: Arquitetura do MCP suporta futuras inclusões de tipos contextuais adicionais, oferecendo possibilidades ilimitadas para expansão de capacidades de LLMs.

Conhecimento Básico

CSS Personalizado

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

CSS Personalizado

Você pode alterar a aparência do software para se adequar melhor às suas preferências personalizando o CSS. Por exemplo:

CSS Personalizado
:root {
  --color-background: #1a462788;
  --color-background-soft: #1a4627aa;
  --color-background-mute: #1a462766;
  --navbar-background: #1a4627;
  --chat-background: #1a4627;
  --chat-background-user: #28b561;
  --chat-background-assistant: #1a462722;
}

#content-container {
  background-color: #2e5d3a !important;
}

Variáveis Integradas

:root {
  font-family: "汉仪唐美人" !important; /* Fonte */
}

/* Cor da fonte expandida em reflexão profunda */
.ant-collapse-content-box .markdown {
  color: red;
}

/* Variáveis de tema */
:root {
  --color-black-soft: #2a2b2a; /* Cor de fundo escura */
  --color-white-soft: #f8f7f2; /* Cor de fundo clara */
}

/* Tema escuro */
body[theme-mode="dark"] {
  /* Cores */
  --color-background: #2b2b2b; /* Cor de fundo escura */
  --color-background-soft: #303030; /* Cor de fundo clara */
  --color-background-mute: #282c34; /* Cor de fundo neutra */
  --navbar-background: var(-–color-black-soft); /* Cor de fundo da barra de navegação */
  --chat-background: var(–-color-black-soft); /* Cor de fundo do chat */
  --chat-background-user: #323332; /* Cor de fundo do chat do usuário */
  --chat-background-assistant: #2d2e2d; /* Cor de fundo do chat do assistente */
}

/* Estilos específicos para tema escuro */
body[theme-mode="dark"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* Cor de fundo do container de conteúdo */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* Cor de fundo das mensagens */
  }

  .inputbar-container {
    background-color: #3d3d3a; /* Cor de fundo da barra de entrada */
    border: 1px solid #5e5d5940; /* Cor da borda da barra de entrada */
    border-radius: 8px; /* Raio da borda da barra de entrada */
  }

  /* Estilos de código */
  code {
    background-color: #e5e5e20d; /* Cor de fundo do código */
    color: #ea928a; /* Cor do texto do código */
  }

  pre code {
    color: #abb2bf; /* Cor do texto de código pré-formatado */
  }
}

/* Tema claro */
body[theme-mode="light"] {
  /* Cores */
  --color-white: #ffffff; /* Branco */
  --color-background: #ebe8e2; /* Cor de fundo clara */
  --color-background-soft: #cbc7be; /* Cor de fundo clara */
  --color-background-mute: #e4e1d7; /* Cor de fundo neutra */
  --navbar-background: var(-–color-white-soft); /* Cor de fundo da barra de navegação */
  --chat-background: var(-–color-white-soft); /* Cor de fundo do chat */
  --chat-background-user: #f8f7f2; /* Cor de fundo do chat do usuário */
  --chat-background-assistant: #f6f4ec; /* Cor de fundo do chat do assistente */
}

/* Estilos específicos para tema claro */
body[theme-mode="light"] {
  #content-container {
    background-color: var(-–chat-background-assistant) !important; /* Cor de fundo do container de conteúdo */
  }

  #content-container #messages {
    background-color: var(-–chat-background-assistant); /* Cor de fundo das mensagens */
  }

  .inputbar-container {
    background-color: #ffffff; /* Cor de fundo da barra de entrada */
    border: 1px solid #87867f40; /* Cor da borda da barra de entrada */
    border-radius: 8px; /* Raio da borda da barra de entrada (ajuste conforme preferência) */
  }

  /* Estilos de código */
  code {
    background-color: #3d39290d; /* Cor de fundo do código */
    color: #7c1b13; /* Cor do texto do código */
  }

  pre code {
    color: #000000; /* Cor do texto de código pré-formatado */
  }
}

Consulte o código-fonte para mais variáveis de tema: https://github.com/CherryHQ/cherry-studio/tree/main/src/renderer/src/assets/styles

Recomendações Relacionadas

Biblioteca de temas do Cherry Studio: https://github.com/boilcy/cherrycss

Compartilhando skins de tema estilo chinês para Cherry Studio: https://linux.do/t/topic/325119/129

Provedores Personalizados

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Provedores Personalizados

O Cherry Studio não apenas integra os principais serviços de modelos de IA, mas também oferece poderosas capacidades de personalização. Com o recurso Provedores Personalizados de IA, você pode integrar facilmente qualquer modelo de IA que necessitar.

Por que usar Provedores Personalizados de IA?

  • Flexibilidade: Liberte-se das limitações da lista pré-definida de provedores e escolha livremente os modelos de IA mais adequados às suas necessidades.

  • Diversidade: Experimente modelos de IA de várias plataformas para explorar seus pontos fortes exclusivos.

  • Controle: Gerencie diretamente suas chaves de API e endereços de acesso, garantindo segurança e privacidade.

  • Personalização: Integre modelos implantados de forma privada para atender a cenários comerciais específicos.

Como adicionar um Provedor Personalizado de IA?

Siga estes passos simples para adicionar seu provedor personalizado no Cherry Studio:

  1. Abra as Configurações: Na barra de navegação esquerda do Cherry Studio, clique em "Configurações" (ícone de engrenagem).

  2. Acesse Serviços de Modelos: Na página de configurações, selecione a aba "Serviços de Modelos".

  3. Adicione Provedor: Na página "Serviços de Modelos", você verá a lista de provedores existentes. Clique no botão "+ Adicionar" abaixo da lista para abrir o pop-up "Adicionar Provedor".

  4. Preencha as Informações: No pop-up, preencha:

    • Nome do Provedor: Dê um nome identificável (ex: MyCustomOpenAI).

    • Tipo de Provedor: Selecione na lista suspensa. Atualmente suportado:

      • OpenAI

      • Gemini

      • Anthropic

      • Azure OpenAI

  5. Salve a Configuração: Após preencher, clique em "Adicionar" para salvar.

Configurando o Provedor Personalizado

Após adicionar, encontre seu provedor na lista e configure:

  1. Status de Ativação: O interruptor à direita da lista ativa/desativa o serviço.

  2. Chave da API:

    • Insira sua chave de API (API Key) fornecida pelo provedor.

    • Clique em "Verificar" à direita para validar a chave.

  3. Endereço da API:

    • Insira o endereço de acesso da API (Base URL).

    • Consulte a documentação oficial do provedor para obter o endereço correto.

  4. Gerenciamento de Modelos:

    • Clique em "+ Adicionar" para incluir manualmente os IDs dos modelos que deseja usar (ex: gpt-3.5-turbo, gemini-pro).

    * Consulte a documentação oficial se não souber os nomes exatos. * Clique em "Gerenciar" para editar ou excluir modelos adicionados.

Começando a Usar

Após a configuração, selecione seu provedor e modelo no chat do Cherry Studio para iniciar conversas com a IA!

Usando o vLLM como Provedor Personalizado

O vLLM é uma biblioteca de inferência de LLM rápida e fácil de usar, similar ao Ollama. Siga estes passos para integrá-lo ao Cherry Studio:

  1. Instale o vLLM: Siga o guia oficial (https://docs.vllm.ai/en/latest/getting_started/quickstart.html).

    pip install vllm  # Se usar pip
    uv pip install vllm  # Se usar uv
  2. Inicie o Serviço vLLM: Use a interface compatível com OpenAI:

    • Via vllm.entrypoints.openai.api_server:

    python -m vllm.entrypoints.openai.api_server --model gpt2
    • Via uvicorn:

    vllm --model gpt2 --served-model-name gpt2

    O serviço rodará na porta padrão 8000. Use --port para especificar outra porta.

  3. Adicione o vLLM no Cherry Studio:

    • Siga os passos anteriores para adicionar novo provedor.

    • Nome do Provedor: vLLM

    • Tipo de Provedor: Selecione OpenAI.

  4. Configure o vLLM:

    • Chave da API: Deixe em branco ou insira qualquer conteúdo (vLLM não requer chave).

    • Endereço da API: Insira o endereço do vLLM (padrão: http://localhost:8000/).

    • Gerenciamento de Modelos: Adicione o nome do modelo carregado (ex: gpt2 para o exemplo acima).

  5. Inicie as Conversas: Selecione o provedor vLLM e o modelo (ex: gpt2) para conversar com o LLM via vLLM!

Dicas e Truques

  • Leia a Documentação: Antes de adicionar provedores, consulte a documentação oficial sobre chaves de API, endereços e nomes de modelos.

  • Verifique as Chaves: Use o botão "Verificar" para validar chaves rapidamente.

  • Endereços Precisos: Diferentes provedores e modelos podem ter endereços distintos.

  • Modelos Necessários: Adicione apenas modelos que realmente utilizará para evitar excessos.

Config. Base Conhec. Dify

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Configurando o Repositório de Conhecimento do Dify

O MCP de Repositório de Conhecimento do Dify requer a atualização do Cherry Studio para v1.2.9 ou superior.

Adicionar servidor MCP do Repositório de Conhecimento do Dify

  1. Abra 搜索MCP.

  2. Adicione o servidor dify-knowledge.

Configurar o Repositório de Conhecimento do Dify

Requer configuração de parâmetros e variáveis de ambiente

  1. A chave do Repositório de Conhecimento do Dify pode ser obtida da seguinte forma

Usar o MCP do Repositório de Conhecimento do Dify

Cherry Studio - 全能的AI助手Cherry Studio
Cherry Studio - 全能的AI助手Cherry Studio

Licença Comercial Cherry Studio

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Acordo de Licença do Cherry Studio

Ao utilizar ou distribuir qualquer parte ou elemento dos materiais do Cherry Studio, você será considerado como tendo reconhecido e aceito o conteúdo deste acordo, que entra em vigor imediatamente.

I. Definições

  1. Este Acordo de Licença do Cherry Studio (doravante "Acordo") refere-se aos termos e condições definidos neste documento, relativos ao uso, cópia, distribuição e modificação dos materiais.

  2. "Nós" (ou "nosso") refere-se a 上海千彗科技有限公司.

  3. "Você" (ou "seu") refere-se ao indivíduo ou entidade legal que exerce os direitos concedidos por este acordo e/ou utiliza os materiais para qualquer propósito e em qualquer área de aplicação.

  4. "Terceiro" refere-se a qualquer indivíduo ou entidade legal sem relação de controle comum conosco ou com você.

  5. "Cherry Studio" refere-se a este pacote de software, incluindo mas não limitado a [por exemplo: biblioteca principal, editor, plugins, projetos de exemplo], bem como código fonte, documentação, códigos de exemplo e outros elementos distribuídos por nós. (Descrição detalhada conforme a composição real do CherryStudio)

  6. "Materiais" refere-se coletivamente ao Cherry Studio proprietário e documentação (e quaisquer partes destes) da 上海千彗科技有限公司, fornecidos sob este acordo.

  7. "Formato de origem" significa o formato preferido para modificações, incluindo mas não limitado a código-fonte, arquivos-fonte de documentação e arquivos de configuração.

  8. "Formato de destino" significa qualquer formato resultante de conversão mecânica ou tradução do formato de origem, incluindo mas não limitado a código objeto compilado, documentação gerada e formatos convertidos para outros tipos de mídia.

  9. "Uso comercial" refere-se a propósitos de benefício ou vantagem comercial direta ou indireta, incluindo mas não limitado a vendas, licenciamento, assinaturas, publicidade, marketing, treinamento, consultoria, etc.

  10. "Modificação" significa qualquer alteração, ajuste, derivação ou desenvolvimento secundário do formato de origem dos materiais, incluindo mas não limitado a modificações de nome do aplicativo, logotipo, código, funcionalidades, interface, etc.

II. Concessão de Direitos

  1. Uso comercial gratuito (limitado a código não modificado): Concedemos a você uma licença não exclusiva, global, não transferível e livre de royalties para usar, copiar, distribuir e compartilhar materiais não modificados, inclusive para uso comercial, sujeita aos termos e condições deste acordo, baseada nos direitos de propriedade intelectual ou outros direitos que detemos sobre os materiais.

  2. Autorização comercial (quando necessário): Ao atender às condições descritas no Artigo III "Autorização Comercial", você deverá obter autorização comercial por escrito explícita de nós para exercer os direitos sob este acordo.

III. Autorização Comercial

Você deverá entrar em contato conosco e obter autorização comercial por escrita explícita antes de continuar usando os materiais do Cherry Studio em qualquer uma das seguintes situações:

  1. Modificações e derivados: Se você modificar os materiais do Cherry Studio ou desenvolver trabalhos derivados (incluindo mas não limitado a modificações de nome do aplicativo, logotipo, código, funcionalidades, interface, etc.).

  2. Serviços corporativos: Se você fornecer serviços baseados no Cherry Studio dentro de sua organização ou para clientes corporativos, com suporte para 10 ou mais usuários acumulados.

  3. Venda em conjunto com hardware: Se você pré-instalar ou integrar o Cherry Studio em dispositivos ou produtos de hardware para venda em conjunto.

  4. Aquisições em larga escala por instituições governamentais ou educacionais: Se o seu cenário de uso envolver projetos de aquisição em larga escala por governos ou instituições educacionais, especialmente com requisitos sensíveis de segurança ou privacidade de dados.

  5. Serviços de nuvem públicos: Se você fornecer serviços de nuvem públicos baseados no Cherry Studio.

IV. Redistribuição

Você pode distribuir cópias não modificadas dos materiais ou fornecê-los como parte de produtos ou serviços que contenham materiais não modificados, em formato de origem ou destino, desde que cumpra as seguintes condições:

  1. Você deve fornecer uma cópia deste Acordo a qualquer outro destinatário dos materiais;

  2. Você deve manter em todas as cópias dos materiais distribuídos a seguinte declaração de atribuição, colocada em um arquivo "NOTICE" ou texto similar distribuído como parte dessas cópias: "Cherry Studio é licenciado sob o CHERRY STUDIO LICENSE AGREEMENT, Copyright (c) 上海千彗科技有限公司. Todos os direitos reservados."

V. Regras de Uso

  1. Os materiais podem estar sujeitos a controles ou restrições de exportação. Você deve cumprir as leis e regulamentos aplicáveis ao usar os materiais.

  2. Se você usar os materiais ou quaisquer resultados derivados para criar, treinar, ajustar ou melhorar software ou modelos que serão distribuídos ou fornecidos, encorajamos você a destacar claramente nos documentos relevantes do produto as expressões "Built with Cherry Studio" ou "Powered by Cherry Studio".

VI. Propriedade Intelectual

  1. Reservamos todos os direitos de propriedade intelectual sobre os materiais e obras derivadas produzidas por nós ou para nós. Sob os termos e condições deste acordo, a titularidade da propriedade intelectual sobre modificações e obras derivadas que você criar será definida por acordo de licença comercial específico. Sem autorização comercial, você não terá direitos de propriedade sobre modificações ou obras derivadas, permanecendo a propriedade intelectual conosco.

  2. Nenhuma licença de marca é concedida para usar nossas marcas registradas, marcas comerciais, logotipos ou nomes de produtos, exceto quando necessário para cumprir obrigações de notificação deste acordo ou para uso razoável e habitual na descrição e redistribuição dos materiais.

  3. Se você mover ação judicial ou qualquer outro processo legal (incluindo reconvenções ou contra-requerimentos) contra nós ou qualquer entidade, alegando que os materiais ou quaisquer resultados derivados, ou partes destes, infringem qualquer direito de propriedade intelectual ou outro direito seu, todas as licenças concedidas sob este acordo serão encerradas a partir da data de início ou apresentação de tal ação ou processo legal.

VII. Isenção de Responsabilidade e Limitação

  1. Não temos obrigação de dar suporte, atualizar, fornecer treinamento ou desenvolver versões posteriores dos materiais do Cherry Studio, nem de conceder quaisquer licenças relacionadas.

  2. Os materiais são fornecidos "COMO ESTÃO", sem garantias expressas ou implícitas, incluindo garantias de comercialização, não violação ou adequação a propósito específico. Não fazemos garantias e não assumimos responsabilidade pela segurança ou estabilidade dos materiais ou quaisquer resultados derivados.

  3. Em nenhuma circunstância seremos responsáveis por quaisquer danos decorrentes do uso ou incapacidade de uso dos materiais ou resultados derivados, incluindo mas não limitado a danos diretos, indiretos, especiais ou consequenciais, independentemente da causa.

  4. Você nos defenderá, indenizará e nos isentará de qualquer reclamação feita por terceiros relacionada ao seu uso ou distribuição dos materiais.

VIII. Vigência e Rescisão

  1. O prazo deste acordo inicia quando você aceitar este acordo ou acessar os materiais, permanecendo válido até rescisão conforme termos e condições aqui estabelecidos.

  2. Podemos rescindir este acordo se você violar quaisquer de seus termos. Após rescisão, você deve cessar imediatamente o uso dos materiais. Os Artigos VII, IX e "II. Contrato de Contribuidor" permanecem válidos após a rescisão.

IX. Lei Aplicável e Jurisdição

  1. Este acordo e quaisquer disputas decorrentes deste ou relacionadas a ele serão regidos pelas leis da China.

  2. O Tribunal Popular de Xangai terá jurisdição exclusiva sobre quaisquer disputas decorrentes deste acordo.

Perguntas Frequentes

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Perguntas Frequentes

Códigos de Erro Comuns

  • 4xx (Códigos de status de erro do cliente): Geralmente indicam erros de sintaxe na solicitação, falha de autenticação ou problemas que impedem o processamento da requisição.

  • 5xx (Códigos de status de erro do servidor): Geralmente indicam problemas no lado do servidor, como servidor indisponível, tempo limite de processamento, etc.

Código de Erro
Possíveis Causas
Soluções

400

Formato incorreto do corpo da solicitação, entre outros

Verifique o conteúdo do erro na resposta da conversa ou no para ver detalhes do erro e siga as instruções.

[Caso comum 1]: Para modelos Gemini, pode ser necessário vincular um cartão; [Caso comum 2]: Dados excedem o limite de tamanho, comum em modelos visuais. Imagens maiores que o limite superior retornam este erro; [Caso comum 3]: Parâmetros não suportados ou incorretos. Teste com um novo assistente limpo; [Caso comum 4]: Contexto excede o limite. Limpe o histórico ou inicie uma nova conversa.

401

Autenticação falhou: modelo não suportado ou conta suspensa no servidor

Entre em contato com o provedor de serviços ou verifique o status da conta

403

Sem permissão para a operação solicitada

Execute ações conforme o erro na resposta da conversa ou informações do

404

Recurso não encontrado

Verifique o caminho da solicitação

422

Sintaxe correta, mas erro semântico

Erros processáveis mas não executáveis. Comum em erros de semântica JSON (ex: valor nulo; esperado string, mas número/booleano fornecido).

429

Limite de taxa de solicitação excedido

Taxa (TPM/RPM) atingiu o limite máximo. Aguarde antes de tentar novamente

500

Erro interno do servidor, solicitação não processada

Contate o provedor se persistir

501

Funcionalidade não implementada pelo servidor

502

Resposta inválida recebida de servidor remoto pelo gateway/proxy

503

Serviço indisponível (sobrecarga/manutenção). O cabeçalho Retry-After indica tempo de espera.

504

Gateway/proxy não obteve resposta do servidor remoto a tempo


Como Verificar Erros no Console

  • Clique na janela do cliente Cherry Studio e pressione Ctrl + Shift + I (Mac: Command + Option + I)

  • A janela ativa deve ser a do cliente Cherry Studio para abrir o console;

  • Abra o console ANTES de testar ou iniciar solicitações para coletar informações.

  • Na janela do console: Clique em Network → Selecione a última entrada com × vermelho em ② (completions para diálogo/tradução/erros de modelo ou generations para pintura) → Clique em Response para ver o conteúdo completo (área ④).

Se não conseguir identificar o erro, envie um print desta tela para o Grupo oficial.

Este método funciona para diálogos, testes de modelo, criação de bases de conhecimento, pintura, etc. Sempre abra o console ANTES de realizar a operação.

Nomes diferentes em "Name" (área ②):

Diálogo/Tradução/Verificação: completions Pintura: generations Criação de Base: embeddings


Fórmula Não Renderizada/Erro na Renderização

  • Fórmulas exibidas como código? Verifique delimitadores:

Uso de Delimitadores

Fórmula em linha

  • Cifrão simples: $fórmula$

  • Ou \(fórmula\)

Bloco de fórmula

  • Cifrão duplo: $$fórmula$$

  • Ou \[fórmula\]

  • Exemplo: $$\sum_{i=1}^n x_i$$ ∑i=1nxi\sum_{i=1}^n x_i∑i=1n​xi​

  • Erros de renderização com caracteres chineses? Troque o mecanismo para KateX.


Falha ao Criar Base de Conhecimento/Dimensão de Embedding

  1. Modelo indisponível

Confirme suporte do provedor ou status do serviço.

  1. Uso de modelo não compatível com embedding


Modelo Não Reconhece Imagens/Falha no Upload/Seleção

Verifique suporte à visão: modelos compatíveis têm ícone de olho 👁️ após o nome.

Modelos visuais permitem upload de imagens. Se a função não estiver ativada:

  • Acesse os modelos do provedor

  • Clique no ícone de configuração

  • Marque a opção de imagem

Modelos sem suporte visual não processarão imagens, mesmo com a opção ativada. Consulte informações específicas com seu provedor.

console
console

Impl. Local de SearXNG

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Implantação e Configuração do SearXNG

CherryStudio oferece suporte à pesquisa na web via SearXNG. Como o SearXNG é um projeto de código aberto que pode ser implantado localmente ou em servidores, sua configuração difere ligeiramente de outros provedores que exigem APIs.

Link do projeto SearXNG: SearXNG

Vantagens do SearXNG

  • Código aberto e gratuito, sem necessidade de API

  • Alta privacidade relativa

  • Altamente personalizável

Implantação Local

1. Implantação Direta com Docker

Como o SearXNG não requer configurações complexas de ambiente, podemos implantá-lo rapidamente usando Docker com apenas uma porta livre, sem precisar do docker compose.

1. Baixar e configurar Docker

Após instalar, selecione um caminho para armazenamento de imagens:

2. Pesquisar e baixar a imagem do SearXNG

Na barra de pesquisa, digite searxng:

Baixar a imagem:

3. Executar a imagem

Após o download, acesse a página Images:

Selecione a imagem baixada e clique em "Run":

Abra as configurações para ajustar:

Exemplo usando a porta 8085:

Após execução bem-sucedida, clique no link para abrir a interface do SearXNG:

Esta página confirma a implantação bem-sucedida:

Implantação em Servidor

Como a instalação do Docker no Windows pode ser complexa, os usuários podem implantar o SearXNG em servidores e compartilhá-lo. No entanto, o SearXNG atualmente não suporta autenticação, permitindo que outros localizem e abusem da instância.

Para solucionar isso, o Cherry Studio agora suporta Autenticação Básica HTTP (RFC7617). Se você expor seu SearXNG publicamente, configure obrigatoriamente a autenticação via Nginx ou software similar. Abaixo está um tutorial rápido (requer conhecimentos básicos de Linux).

Implantar o SearXNG

Use Docker conforme anteriormente. Supondo que o Docker CE já está instalado (tutorial oficial), execute estes comandos (Debian):

sudo apt update
sudo apt install git -y

# Clonar repositório oficial
cd /opt
git clone https://github.com/searxng/searxng-docker.git
cd /opt/searxng-docker

# Para servidores com baixa largura de banda, defina como false
export IMAGE_PROXY=true

# Modificar configurações
cat <<EOF > /opt/searxng-docker/searxng/settings.yml
# see https://docs.searxng.org/admin/settings/settings.html#settings-use-default-settings
use_default_settings: true
server:
  # base_url is defined in the SEARXNG_BASE_URL environment variable, see .env and docker-compose.yml
  secret_key: $(openssl rand -hex 32)
  limiter: false  # can be disabled for a private instance
  image_proxy: $IMAGE_PROXY
ui:
  static_use_hash: true
redis:
  url: redis://redis:6379/0
search:
  formats:
    - html
    - json
EOF

Para alterar a porta ou reutilizar um Nginx existente, edite docker-compose.yaml:

version: "3.7"

services:
# Remova esta seção para reutilizar o Nginx existente
  caddy:
    container_name: caddy
    image: docker.io/library/caddy:2-alpine
    network_mode: host
    restart: unless-stopped
    volumes:
      - ./Caddyfile:/etc/caddy/Caddyfile:ro
      - caddy-data:/data:rw
      - caddy-config:/config:rw
    environment:
      - SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}
      - SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}
    cap_drop:
      - ALL
    cap_add:
      - NET_BIND_SERVICE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"
# Remova esta seção para reutilizar o Nginx existente
  redis:
    container_name: redis
    image: docker.io/valkey/valkey:8-alpine
    command: valkey-server --save 30 1 --loglevel warning
    restart: unless-stopped
    networks:
      - searxng
    volumes:
      - valkey-data2:/data
    cap_drop:
      - ALL
    cap_add:
      - SETGID
      - SETUID
      - DAC_OVERRIDE
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

  searxng:
    container_name: searxng
    image: docker.io/searxng/searxng:latest
    restart: unless-stopped
    networks:
      - searxng
    # Porta padrão 8080. Para usar 8000: "127.0.0.1:8000:8080"
    ports:
      - "127.0.0.1:8080:8080"
    volumes:
      - ./searxng:/etc/searxng:rw
    environment:
      - SEARXNG_BASE_URL=https://${SEARXNG_HOSTNAME:-localhost}/
      - UWSGI_WORKERS=${SEARXNG_UWSGI_WORKERS:-4}
      - UWSGI_THREADS=${SEARXNG_UWSGI_THREADS:-4}
    cap_drop:
      - ALL
    cap_add:
      - CHOWN
      - SETGID
      - SETUID
    logging:
      driver: "json-file"
      options:
        max-size: "1m"
        max-file: "1"

networks:
  searxng:

volumes:
# Remova esta seção para reutilizar o Nginx existente
  caddy-data:
  caddy-config:
# Remova esta seção para reutilizar o Nginx existente
  valkey-data2:

Execute docker compose up -d para iniciar. Monitore logs com docker compose logs -f searxng.

Configurar Proxy Reverso e Autenticação HTTP Básica no Nginx

Se usar painéis como Baota ou 1Panel, consulte a documentação para configurar o proxy reverso. Adicione ao arquivo Nginx:

server
{
    listen 443 ssl;

    # Seu nome de host
    server_name search.example.com;

    # index index.html;
    # root /data/www/default;

    # Certificado SSL
    ssl_certificate    /path/to/your/cert/fullchain.pem;
    ssl_certificate_key    /path/to/your/cert/privkey.pem;

    # Adicione estas linhas ao bloco location
    location / {
        auth_basic "Informe seu usuário e senha";
        auth_basic_user_file /etc/nginx/conf.d/search.htpasswd;

        proxy_http_version 1.1;
        proxy_set_header Connection "";
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Forwarded-For $proxy_protocol_addr;
        proxy_pass http://127.0.0.1:8000;
        client_max_body_size 0;
    }

    # access_log  ...;
    # error_log  ...;
}

Crie o arquivo de senhas (substitua exemplo_usuario e exemplo_senha):

echo "exemplo_usuario:$(openssl passwd -5 'exemplo_senha')" > /etc/nginx/conf.d/search.htpasswd

Reinicie o Nginx. Acesse a página para verificar a autenticação:

Configuração no Cherry Studio

Após implantar o SearXNG, configure no CherryStudio:

Acesse as configurações de pesquisa na web e selecione Searxng:

A validação inicial falhará (normal, sem JSON configurado):

Corrigir Configuração

No Docker, acesse a guia Files e localize settings.yml:

Abra o editor de arquivos:

Na linha 78, adicione json aos formatos:

Antes

Depois

Reinicie a imagem:

Valide novamente no Cherry Studio:

Use:

  • Local: http://localhost:[porta]

  • Docker: http://host.docker.internal:[porta]

Para instâncias em servidor com autenticação, adicione credenciais nas configurações:

Personalização de Mecanismos de Busca

O SearXNG vem com configurações padrão. Para personalizar mecanismos usados pelos modelos de IA, ajuste o arquivo de configuração:

Exemplo de configuração:

Erros Comuns de Validação

Formato JSON Não Adicionado

Adicione json aos formatos em settings.yml:

Mecanismos de Busca Incorretos

Para evitar falhas com Google em regiões bloqueadas, force o uso do Baidu:

use_default_settings:
  engines:
    keep_only:
      - baidu
engines:
  - name: baidu
    engine: baidu 
    categories: 
      - web
      - general
    disabled: false

Limite de Taxa Excedido

Desative o limiter em settings.yml:

Interface de Conversa

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Interface de Conversa

Assistentes e Tópicos

Assistentes

Assistentes são configurações personalizadas aplicadas a modelos selecionados, como predefinições de prompts e parâmetros. Essas configurações fazem com que o modelo atenda melhor às suas expectativas de trabalho.

Assistente padrão do sistema oferece parâmetros genéricos pré-configurados (sem prompts). Você pode usá-lo diretamente ou acessar a para encontrar predefinições necessárias.

Tópicos

Assistentes são o conjunto pai de tópicos. Um único assistente pode conter vários tópicos (conversas). Todos os tópicos compartilham as configurações do modelo do assistente, como parâmetros e prompts.

Botões da Área de Mensagem

Novo Tópico: Cria um novo tópico no assistente atual.

Enviar Imagem/Documento: Imagens requerem suporte do modelo. Documentos serão analisados como texto para contexto.

Pesquisa na Web: Configure informações de pesquisa nas configurações. Resultados são fornecidos como contexto ao modelo (veja ).

Base de Conhecimento: Ativa a integração com base de conhecimento (veja ).

Servidor MCP: Ativa recursos do servidor MCP (veja ).

Gerar Imagem: Oculto por padrão. Para modelos como Gemini, acione manualmente para gerar imagens.

Devido a limitações técnicas, acione manualmente o botão para gerar imagens (será removido após otimização).

Selecionar Modelo: Altera o modelo para conversas subsequentes, mantendo o contexto.

Frases Rápidas: Pré-configure frases frequentes nas configurações para acesso rápido (suporta variáveis).

Limpar Mensagens: Exclui todo o conteúdo do tópico.

Expandir: Amplia a área de mensagem para textos longos.

Limpar Contexto: Remove o contexto das mensagens anteriores sem excluir conteúdo ("esquece" conversas passadas).

Tokens Estimados: Mostra contexto atual, contexto máximo (∞ = ilimitado), palavras na mensagem e tokens estimados.

Estimativa apenas. Tokens reais variam por modelo (consulte o provedor).

Traduzir: Traduz o conteúdo da caixa de entrada para inglês.

Configurações de Conversa

Configurações do Modelo

Sincronizadas com Configurações do Modelo do assistente (veja ).

Nas configurações de conversa, apenas Configurações do Modelo afeta o assistente atual. Demais configurações são globais (ex.: estilo de bolhas aplica-se a todos os tópicos).

Configurações de Mensagem

Linha Divisória:

Separa o corpo da mensagem da barra de ações.

Fonte Serifada:

Alterna estilos de fonte (personalize com ).

Mostrar Números de Linha:

Exibe números em blocos de código gerados pelo modelo.

Dobrar Blocos de Código:

Dobra automaticamente blocos de código extensos.

Quebrar Linhas em Código:

Permite quebra automática de linhas longas em blocos de código.

Dobrar Processo de Raciocínio:

Dobra automaticamente etapas de raciocínio de modelos compatíveis.

Estilo de Mensagem:

Alterna entre estilo de bolhas ou lista.

Estilo de Código:

Altera o estilo visual de blocos de código.

Motor de Fórmulas:

  • KaTeX: Renderização mais rápida (otimizado para performance);

  • MathJax: Mais recursos (suporte a símbolos/comandos avançados), porém mais lento.

Tamanho da Fonte:

Ajusta o tamanho da fonte na interface.

Configurações de Entrada

Mostrar Tokens Estimados:

Exibe estimativa de tokens para texto digitado (não inclui contexto; apenas referência).

Colar Texto Longo como Arquivo:

Textos longos colados na caixa de entrada são exibidos como arquivos para reduzir interferência.

Renderizar Markdown em Mensagens:

Quando inativo, apenas mensagens de resposta são renderizadas.

Traduzir com Três Espaços:

Traduz conteúdo da caixa de entrada para inglês após três espaços consecutivos.

Isso sobrescreve o texto original.

Idioma de Destino:

Define o idioma alvo para traduções (botão e atalho de espaços).

Configurações do Assistente

Selecione o nome do assistente → Menu de contexto → Configurações

Editar Assistente

As configurações afetam todos os tópicos do assistente.

Configurações de Prompt

Nome:

Nome personalizado para identificação.

Prompt:

Edite conforme exemplos na página de Agentes.

Configurações do Modelo

Modelo Padrão:

Define um modelo padrão para o assistente (sobrescreve o ).

Prioridade: Modelo do assistente > Modelo global.

Redefinir Modelo Automaticamente:

Ativo: Novos tópicos usam o modelo padrão do assistente. Inativo: Novos tópicos herdam o modelo do tópico anterior.

Exemplo: Modelo padrão: gpt-3.5-turbo. No Tópico 1, você muda para gpt-4o. Ativo → Tópico 2 usa gpt-3.5-turbo. Inativo → Tópico 2 usa gpt-4o.

Temperatura (Temperature) :

Controla criatividade (padrão=0.7):

  • Baixa (0-0.3): Precisão (ex.: código, dados);

  • Média (0.4-0.7): Equilíbrio (ex.: conversas);

  • Alta (0.8-1.0): Máxima criatividade (ex.: textos criativos).

Top P (Amostragem Nuclear):

Padrão=1. Controla diversidade léxica:

  • Baixo (0.1-0.3): Vocabulário conservador (ex.: documentação técnica);

  • Médio (0.4-0.6): Equilíbrio;

  • Alto (0.7-1.0): Máxima diversidade (ex.: criação de conteúdo).

  • Parâmetros usáveis separada ou conjuntamente

  • Ajuste conforme a tarefa

  • Valores são referenciais; consulte documentação do modelo.

Janela de Contexto

Número de mensagens retidas (mais mensagens = mais tokens):

  • 5-10: Conversas simples

  • 10: Tarefas complexas

  • Nota: Mensagens extras consomem mais tokens

Limitar Tamanho (MaxToken)

Máximo de por resposta. Afeta qualidade/comprimento.

Exemplo: Para testar conectividade, defina MaxToken=1.

Limites variam por modelo (ex.: 32k/64k tokens).

Sugestões:

  • Conversas: 500-800

  • Textos curtos: 800-2000

  • Código: 2000-3600

  • Textos longos: 4000+ (requer suporte do modelo)

Respostas podem ser truncadas (ex.: código longo). Ajuste conforme necessidade.

Saída em Fluxo (Stream)

Transmite respostas incrementalmente (efeito "máquina de escrever"). Inativo → Respostas completas enviadas de uma vez.

Desative para modelos incompatíveis (ex.: o1-mini).

Parâmetros Customizados

Adicione parâmetros extras (ex.: presence_penalty). Uso avançado.

Exemplos de parâmetros padrão: top-p, maxtokens, stream. Referência:

  • Parâmetros customizados têm prioridade sobre padrões

    Ex.: model: gpt-4o sobrescreve seleções.

  • Use <kbd>nome_parametro:undefined</kbd> para excluir parâmetros.

  • Consulte documentação de provedores para parâmetros exclusivos.

página de Agentes
Modo Online
Tutorial
Tutorial
Configurar Assistente
CSS
modelo padrão global
Tokens
Documentação

Ranking de Modelos

Este documento foi traduzido do chinês por IA e ainda não foi revisado.

Este é um leaderboard baseado em dados do Chatbot Arena (lmarena.ai), gerado por um processo automatizado.

Data de atualização: 2025-07-04 11:42:19 UTC / 2025-07-04 19:42:19 CST (Horário de Pequim)

Clique no nome do modelo no leaderboard para acessar sua página de detalhes ou teste.

Leaderboard

Rank(UB)
Rank(StyleCtrl)
Nome do Modelo
Pontuação
Intervalo de Confiança
Votos
Provedor
Licença
Data Limite de Conhecimento

1

1

1473

+5/-4

14,062

Google

Proprietária

Dados não disponíveis

2

2

1446

+4/-5

14,432

Google

Proprietária

Dados não disponíveis

3

2

1428

+4/-3

23,599

OpenAI

Proprietária

Dados não disponíveis

3

2

1426

+5/-4

20,095

OpenAI

Proprietária

Dados não disponíveis

3

6

1424

+5/-5

12,396

DeepSeek

MIT

Dados não disponíveis

3

7

1423

+3/-4

25,067

xAI

Proprietária

Dados não disponíveis

4

6

1418

+4/-4

19,451

Google

Proprietária

Dados não disponíveis

5

4

1415

+6/-5

15,271

OpenAI

Proprietária

Dados não disponíveis

9

7

1398

+5/-5

16,552

Google

Proprietária

Dados não disponíveis

9

11

1389

+5/-4

14,090

Alibaba

Apache 2.0

Dados não disponíveis

10

6

1385

+5/-4

17,456

OpenAI

Proprietária

Dados não disponíveis

10

11

1384

+3/-4

20,171

DeepSeek

MIT

Dados não disponíveis

10

18

1380

+6/-6

8,244

Tencent

Proprietária

Dados não disponíveis

11

12

1374

+8/-8

6,117

MiniMax

Apache 2.0

Dados não disponíveis

13

12

1375

+4/-3

19,430

DeepSeek

MIT

Dados não disponíveis

14

6

1372

+3/-3

19,708

Anthropic

Proprietária

Dados não disponíveis

14

18

1369

+5/-4

18,439

Mistral

Proprietária

Dados não disponíveis

15

11

1367

+3/-3

29,038

OpenAI

Proprietária

Dados não disponíveis

15

23

1367

+4/-4

13,817

Alibaba

Apache 2.0

Dados não disponíveis

16

25

1364

+3/-3

36,673

Google

Proprietária

Dados não disponíveis

16

11

1364

+5/-4

17,150

OpenAI

Proprietária

Dados não disponíveis

16

23

1363

+3/-4

31,778

Alibaba

Proprietária

Dados não disponíveis

16

29

1361

+5/-5

9,759

xAI

Proprietária

Dados não disponíveis

19

25

1361

+3/-4

25,902

Google

Gemma

Dados não disponíveis

25

18

1352

+3/-3

33,177

OpenAI

Proprietária

2023/10

25

12

1345

+5/-5

15,543

Anthropic

Proprietária

Dados não disponíveis

26

24

1342

+5/-4

19,404

OpenAI

Proprietária

Dados não disponíveis

26

32

1338

+10/-10

3,976

Google

Gemma

Dados não disponíveis

26

21

1338

+4/-4

16,454

OpenAI

Proprietária

Dados não disponíveis

27

30

1336

+3/-4

22,841

DeepSeek

DeepSeek

Dados não disponíveis

27

38

1334

+4/-5

18,063

Alibaba

Apache 2.0

Dados não disponíveis

28

49

1330

+7/-7

6,343

Amazon

Proprietária

Dados não disponíveis

28

36

1328

+8/-6

6,028

Zhipu

Proprietária

Dados não disponíveis

29

31

1330

+3/-4

26,104

Google

Proprietária

Dados não disponíveis

29

33

1328

+6/-8

6,055

Alibaba

Proprietária

Dados não disponíveis

30

33

1327

+3/-4

23,879

Cohere

CC-BY-NC-4.0

Dados não disponíveis

30

39

1322

+8/-6

5,126

StepFun

Proprietária

Dados não disponíveis

30

31

1320

+11/-12

2,452

Tencent

Proprietária

Dados não disponíveis

32

39

1314

+14/-8

2,371

Nvidia

Nvidia

Dados não disponíveis

33

32

1322

+3/-3

36,135

OpenAI

Proprietária

Dados não disponíveis

33

39

1321

+2/-3

54,951

OpenAI

Proprietária

2023/10

33

33

1314

+11/-11

2,510

Tencent

Proprietária

Dados não disponíveis

35

32

1320

+3/-2

58,645

Google

Proprietária

Dados não disponíveis

37

17

1315

+4/-3

25,145

Anthropic

Proprietária

Dados não disponíveis

40

53

1309

+7/-8

6,311

Google

Gemma

Dados não disponíveis

42

21

1308

+3/-4

29,775

Anthropic

Proprietária

Dados não disponíveis

43

44

1305

+2/-2

67,084

xAI

Proprietária

2024/3

43

48

1305

+2/-4

28,968

01 AI

Proprietária

Dados não disponíveis

45

35

1302

+2/-1

117,747

OpenAI

Proprietária

2023/10

45

58

1300

+5/-6

10,715

Alibaba

Proprietária

Dados não disponíveis

46

25

1301

+2/-3

77,078

Anthropic

Proprietária

2024/4

48

51

1297

+4/-7

7,243

DeepSeek

DeepSeek

Dados não disponíveis

48

62

1293

+8/-8

4,321

Google

Gemma

Dados não disponíveis

50

48

1289

+9/-10

3,856

Tencent

Proprietária

Dados não disponíveis

51

59

1293

+3/-3

26,074

NexusFlow

NexusFlow

Dados não disponíveis

51

40

1293

+4/-5

17,075

Meta

Llama 4

Dados não disponíveis

51

56

1291

+3/-3

27,788

Zhipu AI

Proprietária

Dados não disponíveis

51

49

1288

+7/-7

6,302

OpenAI

Proprietária

Dados não disponíveis

52

58

1289

+2/-2

72,531

OpenAI

Proprietária

2023/10

52

66

1289

+3/-3

37,021

Google

Proprietária

Dados não disponíveis

52

76

1286

+6/-6

7,577

Nvidia

Llama 3.1

2023/12

54

39

1286

+3/-3

43,788

Meta

Llama 3.1 Community

2023/12

55

36

1286

+2/-2

86,159

Anthropic

Proprietária

2024/4

57

40

1285

+2/-2

63,038

Meta

Llama 3.1 Community

2023/12

57

39

1284

+2/-3

52,144

Google

Proprietária

Online

57

72

1284

+2/-2

55,442

xAI

Proprietária

2024/3

58

44

1283

+3/-3

47,973

OpenAI

Proprietária

2023/10

58

58

1281

+4/-4

17,432

Alibaba

Qwen

Dados não disponíveis

58

58

1278

+7/-9

4,014

Tencent

Proprietária

Dados não disponíveis

66

74

1273

+7/-7

6,154

Mistral

Apache 2.0

Dados não disponíveis

68

53

1277

+2/-2

82,435

Google

Proprietária

2023/11

68

69

1276

+3/-4

26,344

DeepSeek

DeepSeek

Dados não disponíveis

68

56

1275

+2/-3

47,256

Meta

Llama-3.3

Dados não disponíveis

68

74

1275

+2/-2

41,519

Alibaba

Qwen

2024/9

69

53

1274

+2/-1

102,133

OpenAI

Proprietária

2023/12

74

59

1269

+2/-3

48,217

Mistral

Mistral Research

2024/7

74

74

1268

+4/-4

20,580

NexusFlow

CC-BY-NC-4.0

2024/7

74

58

1267

+3/-2

103,748

OpenAI

Proprietária

2023/4

74

74

1266

+4/-3

29,633

Mistral

MRL

Dados não disponíveis

74

79

1262

+8/-9

3,010

Ai2

Llama 3.1

Dados não disponíveis

74

61

1262

+9/-11

3,602

Mistral

Proprietária

Dados não disponíveis

75

81

1265

+2/-2

58,637

Meta

Llama 3.1 Community

2023/12

76

55

1265

+2/-1

202,641

Anthropic

Proprietária

2023/8

76

84

1262

+4/-3

26,371

Amazon

Proprietária

Dados não disponíveis

78

61

1262

+2/-2

97,079

OpenAI

Proprietária

2023/12

83

56

1257

+3/-2

48,556

Anthropic

Proprietária

Dados não disponíveis

83

82

1253

+7/-4

7,948

Reka AI

Proprietária

Dados não disponíveis

88

85

1244

+2/-2

65,661

Google

Proprietária

2023/11

88

84

1239

+6/-4

9,125

AI21 Labs

Jamba Open

2024/3

88

87

1236

+9/-12

3,905

Tencent

Proprietária

Dados não disponíveis

89

85

1237

+2/-2

79,538

Google

Gemma license

2024/6

89

92

1235

+7/-7

5,730

Alibaba

Apache 2.0

Dados não disponíveis

89

93

1235

+5/-5

15,321

Mistral

Apache 2.0

Dados não disponíveis

89

100

1234

+4/-4

20,646

Amazon

Proprietária

Dados não disponíveis

89

86

1234

+6/-5

10,548

Princeton

MIT

2024/7

89

87

1233

+5/-4

10,535

Cohere

CC-BY-NC-4.0

2024/8

89

82

1229

+9/-7

3,889

Nvidia

Llama 3.1

2023/12

91

102

1230

+3/-2

37,697

Google

Proprietária

Dados não disponíveis

91

90

1227

+4/-3

20,608

Nvidia

NVIDIA Open Model

2023/6

91

100

1223

+10/-8

3,460

Allen AI

Apache-2.0

Dados não disponíveis

92

98

1227

+3/-3

28,768

Cohere

CC-BY-NC-4.0

Dados não disponíveis

93

91

1223

+7/-6

8,132

Reka AI

Proprietária

Dados não disponíveis

94

96

1224

+5/-4

10,221

Zhipu AI

Proprietária

Dados não disponíveis

97

92

1224

+1/-2

163,629

Meta

Llama 3 Community

2023/12

97

106

1223

+4/-4

25,213

Microsoft

MIT

Dados não disponíveis

102

91

1218

+2/-2

113,067

Anthropic

Proprietária

2023/8

104

114

1215

+4/-4

20,654

Amazon

Proprietária

Dados não disponíveis

107

102

1209

+2/-2

57,197

Google

Gemma license

2024/6

107

115

1206

+8/-9

2,901

Tencent

Proprietária

Dados não disponíveis

108

100

1207

+2/-2

80,846

Cohere

CC-BY-NC-4.0

2024/3

108

116

1203

+8/-9

3,074

Ai2

Llama 3.1

Dados não disponíveis

109

101

1205

+2/-3

38,872

Alibaba

Qianwen LICENSE

2024/6

109

87

1204

+2/-3

55,962

OpenAI

Proprietária

2021/9

109

114

1200

+8/-8

5,111

Mistral

MRL

Dados não disponíveis

110

116

1197

+5/-7

10,391

Cohere

CC-BY-NC-4.0

Dados não disponíveis

110

104

1197

+5/-5

10,851

Cohere

CC-BY-NC-4.0

2024/8

112

106

1197

+2/-2

122,309

Anthropic

Proprietária

2023/8

112

98

1196

+4/-5

15,753

DeepSeek AI

DeepSeek License

2024/6

112

114

1193

+5/-5

9,274

AI21 Labs

Jamba Open

2024/3

113

131

1193

+2/-3

52,578

Meta

Llama 3.1 Community

2023/12

121

98

1180

+2/-2

91,614

OpenAI

Proprietária

2021/9

121

116

1179

+4/-3

27,430

Alibaba

Qianwen LICENSE

2024/4

121

148

1170

+9/-8

3,410

Alibaba

Apache 2.0

Dados não disponíveis

122

131

1175

+3/-3

25,135

01 AI

Apache-2.0

2024/5

122

115

1175

+2/-3

64,926

Mistral

Proprietária

Dados não disponíveis

122

116

1173

+4/-5

16,027

Reka AI

Proprietária

Online

125

125

1169

+2/-2

109,056

Meta

Llama 3 Community

2023/3

125

138

1166

+4/-5

10,599

InternLM

Other

2024/8

125

122

1165

+4/-3

25,803

Reka AI

Proprietária

2023/11

125

126

1160

+10/-8

3,289

IBM

Apache 2.0

Dados não disponíveis

126

120

1166

+2/-2

56,398

Cohere

CC-BY-NC-4.0

2024/3

126

125

1165

+3/-3

35,556

Mistral

Proprietária

Dados não disponíveis

127

120

1165

+2/-2

53,751

Mistral

Apache 2.0

2024/4

127

120

1165

+2/-3

40,658

Alibaba

Qianwen LICENSE

2024/2

128

138

1161

+2/-2

48,892

Google

Gemma license

2024/7

135

120

1149

+4/-4

18,800

Google

Proprietária

2023/4

135

128

1145

+9/-8

4,854

HuggingFace

Apache 2.0

2024/4

136

133

1143

+3/-4

22,765

Alibaba

Qianwen LICENSE

2024/2

136

141

1137

+10/-8

3,380

IBM

Apache 2.0

Dados não disponíveis

137

137

1140

+3/-4

26,105

Microsoft

MIT

2023/10

137

149

1136

+4/-5

16,676

Nexusflow

Apache-2.0

2024/3

140

138

1131

+3/-2

76,126

Mistral

Apache 2.0

2023/12

140

144

1129

+5/-4

15,917

01 AI

Yi License

2023/6

140

128

1128

+6/-8

6,557

Google

Proprietária

2023/4

141

141

1126

+5/-4

18,687

Alibaba

Qianwen LICENSE

2024/2

142

141

1124

+5/-5

8,383

Microsoft

Llama 2 Community

2023/8

143

128

1123

+3/-2

68,867

OpenAI

Proprietária

2021/9

143

148

1120

+6/-6

8,390

Meta

Llama 3.2

2023/12

144

138

1121

+3/-3

33,743

Databricks

DBRX LICENSE

2023/12

144

145

1119

+4/-5

18,476

Microsoft

MIT

2023/10

144

146

1116

+7/-5

6,658

AllenAI/UW

AI2 ImpACT Low-risk

2023/11

149

139

1111

+6/-8

7,002

IBM

Apache 2.0

Dados não disponíveis

151

157

1110

+4/-3

39,595

Meta

Llama 2 Community

2023/7

151

144

1109

+5/-5

12,990

OpenChat

Apache-2.0

2024/1

151

150

1108

+4/-4

22,936

LMSYS

Não comercial

2023/8

152

144

1107

+3/-3

34,173

Snowflake

Apache 2.0

2024/4

152

153

1106

+5/-7

10,415

UC Berkeley

CC-BY-NC-4.0

2023/11

152

160

1102

+8/-7

3,836

NousResearch

Apache-2.0

2024/1

153

159

1098

+8/-9

3,636

Nvidia

Llama 2 Community

2023/11

156

145

1101

+3/-3

25,070

Google

Gemma license

2024/2

157

147

1094

+7/-10

4,988

DeepSeek AI

DeepSeek License

2023/11

157

145

1094

+6/-8

8,106

OpenChat

Apache-2.0

2023/11

158

154

1091

+7/-7

7,191

IBM

Apache 2.0

Dados não disponíveis

159

147

1092

+6/-8

5,088

NousResearch

Apache-2.0

2023/11

159

164

1087

+8/-9

4,872

Alibaba

Qianwen LICENSE

2024/2

160

164

1090

+4/-4

20,067

Mistral

Apache-2.0

2023/12

160

164

1088

+4/-5

12,808

Microsoft

MIT

2023/10

160

140

1085

+5/-5

17,036

OpenAI

Proprietária

2021/9

160

160

1080

+12/-15

1,714

Cognitive Computations

Apache-2.0

2023/10

161

168

1084

+4/-3

21,097

Microsoft

MIT

2023/10

161

163

1080

+7/-7

4,286

Upstage AI

CC-BY-NC-4.0

2023/11

162

168

1081

+5/-5

19,722

Meta

Llama 2 Community

2023/7

165

164

1076

+7/-7

7,176

Microsoft

Llama 2 Community

2023/7

170

173

1071

+6/-6

8,523

Meta

Llama 3.2

2023/12

170

171

1071

+6/-5

11,321

HuggingFace

MIT

2023/10

170

166

1064

+13/-12

2,375

HuggingFace

Apache 2.0

Dados não disponíveis

170

173

1059

+18/-16

1,192

Meta

Llama 2 Community

2024/1

171

164

1063

+10/-9

2,644

MosaicML

CC-BY-NC-SA-4.0

2023/6

172

168

1058

+13/-10

1,811

HuggingFace

MIT

2023/10

173

172

1060

+7/-6

7,509

Meta

Llama 2 Community

2023/7

173

163

1051

+15/-15

1,327

TII

Falcon-180B TII License

2023/9

176

168

1059

+4/-4

19,775

LMSYS

Llama 2 Community

2023/7

176

173

1055

+6/-6

9,176

Google

Gemma license

2024/2

176

173

1054

+4/-3

21,622

Microsoft

MIT

2023/10

176

188

1054

+5/-4

14,532

Meta

Llama 2 Community

2023/7

176

164

1052

+10/-8

5,065

Alibaba

Qianwen LICENSE

2023/8

176

174

1050

+10/-10

2,996

UW

Não comercial

2023/5

185

178

1038

+5/-6

11,351

Google

Gemma license

2024/2

186

182

1035

+7/-6

5,276

Together AI

Apache 2.0

2023/12

186

195

1033

+7/-6

6,503

Allen AI

Apache-2.0

2024/2

189

187

1025

+6/-6

9,142

Mistral

Apache 2.0

2023/9

189

188

1022

+7/-7

7,017

LMSYS

Llama 2 Community

2023/7

190

177

1021

+6/-7

8,713

Google

Proprietária

2021/6

194

192

1007

+7/-7

4,918

Google

Gemma license

2024/2

194

190

1006

+7/-7

7,816

Alibaba

Qianwen LICENSE

2024/2

196

195

982

+6/-7

7,020

UC Berkeley

Não comercial

2023/4

196

196

972

+10/-9

4,763

Tsinghua

Apache-2.0

2023/10

198

195

950

+12/-15

1,788

Nomic AI

Não comercial

2023/3

198

196

946

+7/-12

3,997

MosaicML

CC-BY-NC-SA-4.0

2023/5

198

201

942

+11/-12

2,713

Tsinghua

Apache-2.0

2023/6

198

201

939

+7/-7

4,920

RWKV

Apache 2.0

2023/4

202

196

919

+10/-8

5,864

Stanford

Não comercial

2023/3

202

202

911

+9/-8

6,368

OpenAssistant

Apache 2.0

2023/4

203

204

896

+10/-9

4,983

Tsinghua

Não comercial

2023/3

204

204

885

+9/-8

4,288

LMSYS

Apache 2.0

2023/4

206

207

857

+9/-10

3,336

Stability AI

CC-BY-NC-SA-4.0

2023/4

206

204

840

+10/-9

3,480

Databricks

MIT

2023/4

208

205

817

+12/-15

2,446

Meta

Não comercial

2023/2

Explicações

  • Rank(UB): Classificação calculada com base no modelo Bradley-Terry. Esta classificação reflete o desempenho geral do modelo na arena e fornece uma estimativa do limite superior de sua pontuação Elo, ajudando a entender sua competitividade potencial.

  • Rank(StyleCtrl): Classificação após controle de estilo de conversação. Visa reduzir o viés de preferência causado pelo estilo de resposta do modelo (por exemplo, verbosidade ou concisão), avaliando mais puramente sua capacidade central.

  • Nome do Modelo: Nome do Modelo de Linguagem Grande (LLM). Esta coluna contém links relacionados ao modelo; clique para acessar.

  • Pontuação: Pontuação Elo obtida pelo modelo através de votos dos usuários na arena. O Elo é um sistema de classificação relativa; pontuações mais altas indicam melhor desempenho. Esta pontuação é dinâmica e reflete a força relativa do modelo no ambiente competitivo atual.

  • Intervalo de Confiança: Intervalo de confiança de 95% para a pontuação Elo do modelo (por exemplo: +6/-6). Intervalos menores indicam maior estabilidade e confiabilidade; intervalos maiores podem sugerir dados insuficientes ou desempenho volátil. Fornece uma avaliação quantificada da precisão da pontuação.

  • Votos: Número total de votos recebidos pelo modelo na arena. Mais votos geralmente indicam maior confiabilidade estatística da pontuação.

  • Provedor: Organização ou empresa que fornece o modelo.

  • Licença: Tipo de licença do modelo, por exemplo: proprietária (Proprietary), Apache 2.0, MIT, etc.

  • Data Limite de Conhecimento: Data de corte do conhecimento nos dados de treinamento do modelo. Dados não disponíveis indica que a informação não foi fornecida ou é desconhecida.

Fonte de Dados e Frequência de Atualização

Os dados deste leaderboard são gerados e fornecidos automaticamente pelo projeto fboulnois/llm-leaderboard-csv, que obtém e processa dados do lmarena.ai. Este leaderboard é atualizado diariamente por GitHub Actions.

Aviso Legal

Este relatório é apenas para referência. Os dados do leaderboard são dinâmicos e baseados em votos de preferência dos usuários no Chatbot Arena durante períodos específicos. A integridade e precisão dos dados dependem das fontes upstream e do processamento do projeto fboulnois/llm-leaderboard-csv. Modelos diferentes podem ter licenças distintas; consulte sempre as instruções oficiais do provedor do modelo antes de usar.

Gemini-2.5-Pro
Gemini-2.5-Pro-Preview-05-06
ChatGPT-4o-latest (2025-03-26)
o3-2025-04-16
DeepSeek-R1-0528
Grok-3-Preview-02-24
Gemini-2.5-Flash
GPT-4.5-Preview
Gemini-2.5-Flash-Preview-04-17
Qwen3-235B-A22B-no-thinking
GPT-4.1-2025-04-14
DeepSeek-V3-0324
Hunyuan-Turbos-20250416
Minimax-M1
DeepSeek-R1
Claude Opus 4 (20250514)
Mistral Medium 3
o1-2024-12-17
Qwen3-235B-A22B
Gemini-2.0-Flash-001
o4-mini-2025-04-16
Qwen2.5-Max
Grok-3-Mini-beta
Gemma-3-27B-it
o1-preview
Claude Sonnet 4 (20250514)
o3-mini-high
Gemma-3-12B-it
GPT-4.1-mini-2025-04-14
DeepSeek-V3
QwQ-32B
Amazon-Nova-Experimental-Chat-05-14
GLM-4-Plus-0111
Gemini-2.0-Flash-Lite
Qwen-Plus-0125
Command A (03-2025)
Step-2-16K-Exp
Hunyuan-TurboS-20250226
Llama-3.3-Nemotron-Super-49B-v1
o3-mini
o1-mini
Hunyuan-Turbo-0110
Gemini-1.5-Pro-002
Claude 3.7 Sonnet (thinking-32k)
Gemma-3n-e4b-it
Claude 3.7 Sonnet
Grok-2-08-13
Yi-Lightning
GPT-4o-2024-05-13
Qwen2.5-plus-1127
Claude 3.5 Sonnet (20241022)
Deepseek-v2.5-1210
Gemma-3-4B-it
Hunyuan-Large-2025-02-10
Athene-v2-Chat-72B
Llama-4-Maverick-17B-128E-Instruct
GLM-4-Plus
GPT-4.1-nano-2025-04-14
GPT-4o-mini-2024-07-18
Gemini-1.5-Flash-002
Llama-3.1-Nemotron-70B-Instruct
Meta-Llama-3.1-405B-Instruct-bf16
Claude 3.5 Sonnet (20240620)
Meta-Llama-3.1-405B-Instruct-fp8
Gemini Advanced App (2024-05-14)
Grok-2-Mini-08-13
GPT-4o-2024-08-06
Qwen-Max-0919
Hunyuan-Standard-2025-02-10
Mistral-Small-3.1-24B-Instruct-2503
Gemini-1.5-Pro-001
Deepseek-v2.5
Llama-3.3-70B-Instruct
Qwen2.5-72B-Instruct
GPT-4-Turbo-2024-04-09
Mistral-Large-2407
Athene-70B
GPT-4-1106-preview
Mistral-Large-2411
Llama-3.1-Tulu-3-70B
magistral-medium-2506
Meta-Llama-3.1-70B-Instruct
Claude 3 Opus
Amazon Nova Pro 1.0
GPT-4-0125-preview
Claude 3.5 Haiku (20241022)
Reka-Core-20240904
Gemini-1.5-Flash-001
Jamba-1.5-Large
Hunyuan-Large-Vision
Gemma-2-27B-it
Qwen2.5-Coder-32B-Instruct
Mistral-Small-24B-Instruct-2501
Amazon Nova Lite 1.0
Gemma-2-9B-it-SimPO
Command R+ (08-2024)
Llama-3.1-Nemotron-51B-Instruct
Gemini-1.5-Flash-8B-001
Nemotron-4-340B-Instruct
OLMo-2-0325-32B-Instruct
Aya-Expanse-32B
Reka-Flash-20240904
GLM-4-0520
Llama-3-70B-Instruct
Phi-4
Claude 3 Sonnet
Amazon Nova Micro 1.0
Gemma-2-9B-it
Hunyuan-Standard-256K
Command R+ (04-2024)
Llama-3.1-Tulu-3-8B
Qwen2-72B-Instruct
GPT-4-0314
Ministral-8B-2410
Aya-Expanse-8B
Command R (08-2024)
Claude 3 Haiku
DeepSeek-Coder-V2-Instruct
Jamba-1.5-Mini
Meta-Llama-3.1-8B-Instruct
GPT-4-0613
Qwen1.5-110B-Chat
QwQ-32B-Preview
Yi-1.5-34B-Chat
Mistral-Large-2402
Reka-Flash-21B-online
Llama-3-8B-Instruct
InternLM2.5-20B-chat
Reka-Flash-21B
Granite-3.1-8B-Instruct
Command R (04-2024)
Mistral Medium
Mixtral-8x22b-Instruct-v0.1
Qwen1.5-72B-Chat
Gemma-2-2b-it
Gemini-1.0-Pro-001
Zephyr-ORPO-141b-A35b-v0.1
Qwen1.5-32B-Chat
Granite-3.1-2B-Instruct
Phi-3-Medium-4k-Instruct
Starling-LM-7B-beta
Mixtral-8x7B-Instruct-v0.1
Yi-34B-Chat
Gemini Pro
Qwen1.5-14B-Chat
WizardLM-70B-v1.0
GPT-3.5-Turbo-0125
Meta-Llama-3.2-3B-Instruct
DBRX-Instruct-Preview
Phi-3-Small-8k-Instruct
Tulu-2-DPO-70B
Granite-3.0-8B-Instruct
Llama-2-70B-chat
OpenChat-3.5-0106
Vicuna-33B
Snowflake Arctic Instruct
Starling-LM-7B-alpha
Nous-Hermes-2-Mixtral-8x7B-DPO
NV-Llama2-70B-SteerLM-Chat
Gemma-1.1-7B-it
DeepSeek-LLM-67B-Chat
OpenChat-3.5
Granite-3.0-2B-Instruct
OpenHermes-2.5-Mistral-7B
Qwen1.5-7B-Chat
Mistral-7B-Instruct-v0.2
Phi-3-Mini-4K-Instruct-June-24
GPT-3.5-Turbo-1106
Dolphin-2.2.1-Mistral-7B
Phi-3-Mini-4k-Instruct
SOLAR-10.7B-Instruct-v1.0
Llama-2-13b-chat
WizardLM-13b-v1.2
Meta-Llama-3.2-1B-Instruct
Zephyr-7B-beta
SmolLM2-1.7B-Instruct
CodeLlama-70B-instruct
MPT-30B-chat
Zephyr-7B-alpha
CodeLlama-34B-instruct
falcon-180b-chat
Vicuna-13B
Gemma-7B-it
Phi-3-Mini-128k-Instruct
Llama-2-7B-chat
Qwen-14B-Chat
Guanaco-33B
Gemma-1.1-2b-it
StripedHyena-Nous-7B
OLMo-7B-instruct
Mistral-7B-Instruct-v0.1
Vicuna-7B
PaLM-Chat-Bison-001
Gemma-2B-it
Qwen1.5-4B-Chat
Koala-13B
ChatGLM3-6B
GPT4All-13B-Snoozy
MPT-7B-Chat
ChatGLM2-6B
RWKV-4-Raven-14B
Alpaca-13B
OpenAssistant-Pythia-12B
ChatGLM-6B
FastChat-T5-3B
StableLM-Tuned-Alpha-7B
Dolly-V2-12B
LLaMA-13B
Logo
Logo