Interface de Conversa
Este documento foi traduzido do chinês por IA e ainda não foi revisado.
Interface de Conversa
Assistentes e Tópicos
Assistentes
Assistentes
são configurações personalizadas aplicadas a modelos selecionados, como predefinições de prompts e parâmetros. Essas configurações fazem com que o modelo atenda melhor às suas expectativas de trabalho.
Assistente padrão do sistema
oferece parâmetros genéricos pré-configurados (sem prompts). Você pode usá-lo diretamente ou acessar a página de Agentes para encontrar predefinições necessárias.
Tópicos
Assistentes
são o conjunto pai de tópicos
. Um único assistente pode conter vários tópicos (conversas). Todos os tópicos
compartilham as configurações do modelo do assistente
, como parâmetros e prompts.


Botões da Área de Mensagem

Novo Tópico
: Cria um novo tópico no assistente atual.
Enviar Imagem/Documento
: Imagens requerem suporte do modelo. Documentos serão analisados como texto para contexto.
Pesquisa na Web
: Configure informações de pesquisa nas configurações. Resultados são fornecidos como contexto ao modelo (veja Modo Online).
Base de Conhecimento
: Ativa a integração com base de conhecimento (veja Tutorial).
Servidor MCP
: Ativa recursos do servidor MCP (veja Tutorial).
Gerar Imagem
: Oculto por padrão. Para modelos como Gemini, acione manualmente para gerar imagens.
Selecionar Modelo
: Altera o modelo para conversas subsequentes, mantendo o contexto.
Frases Rápidas
: Pré-configure frases frequentes nas configurações para acesso rápido (suporta variáveis).
Limpar Mensagens
: Exclui todo o conteúdo do tópico.
Expandir
: Amplia a área de mensagem para textos longos.
Limpar Contexto
: Remove o contexto das mensagens anteriores sem excluir conteúdo ("esquece" conversas passadas).
Tokens Estimados
: Mostra contexto atual
, contexto máximo
(∞ = ilimitado), palavras na mensagem
e tokens estimados
.
Traduzir
: Traduz o conteúdo da caixa de entrada para inglês.
Configurações de Conversa

Configurações do Modelo
Sincronizadas com Configurações do Modelo
do assistente (veja Configurar Assistente).
Configurações de Mensagem
Linha Divisória
:
Separa o corpo da mensagem da barra de ações.

Fonte Serifada
:
Alterna estilos de fonte (personalize com CSS).
Mostrar Números de Linha
:
Exibe números em blocos de código gerados pelo modelo.

Dobrar Blocos de Código
:
Dobra automaticamente blocos de código extensos.
Quebrar Linhas em Código
:
Permite quebra automática de linhas longas em blocos de código.
Dobrar Processo de Raciocínio
:
Dobra automaticamente etapas de raciocínio de modelos compatíveis.
Estilo de Mensagem
:
Alterna entre estilo de bolhas ou lista.
Estilo de Código
:
Altera o estilo visual de blocos de código.
Motor de Fórmulas
:
KaTeX: Renderização mais rápida (otimizado para performance);
MathJax: Mais recursos (suporte a símbolos/comandos avançados), porém mais lento.
Tamanho da Fonte
:
Ajusta o tamanho da fonte na interface.
Configurações de Entrada
Mostrar Tokens Estimados
:
Exibe estimativa de tokens para texto digitado (não inclui contexto; apenas referência).
Colar Texto Longo como Arquivo
:
Textos longos colados na caixa de entrada são exibidos como arquivos para reduzir interferência.
Renderizar Markdown em Mensagens
:
Quando inativo, apenas mensagens de resposta são renderizadas.

Traduzir com Três Espaços
:
Traduz conteúdo da caixa de entrada para inglês após três espaços consecutivos.
Isso sobrescreve o texto original.
Idioma de Destino
:
Define o idioma alvo para traduções (botão e atalho de espaços).
Configurações do Assistente
Selecione o nome do assistente → Menu de contexto → Configurações
Editar Assistente

Configurações de Prompt
Nome
:
Nome personalizado para identificação.
Prompt
:
Edite conforme exemplos na página de Agentes.
Configurações do Modelo
Modelo Padrão
:
Define um modelo padrão para o assistente (sobrescreve o modelo padrão global).
Redefinir Modelo Automaticamente
:
Ativo: Novos tópicos usam o modelo padrão do assistente. Inativo: Novos tópicos herdam o modelo do tópico anterior.
Exemplo: Modelo padrão: gpt-3.5-turbo. No Tópico 1, você muda para gpt-4o. Ativo → Tópico 2 usa gpt-3.5-turbo. Inativo → Tópico 2 usa gpt-4o.
Temperatura (Temperature)
:
Controla criatividade (padrão=0.7):
Baixa (0-0.3): Precisão (ex.: código, dados);
Média (0.4-0.7): Equilíbrio (ex.: conversas);
Alta (0.8-1.0): Máxima criatividade (ex.: textos criativos).
Top P (Amostragem Nuclear)
:
Padrão=1. Controla diversidade léxica:
Baixo (0.1-0.3): Vocabulário conservador (ex.: documentação técnica);
Médio (0.4-0.6): Equilíbrio;
Alto (0.7-1.0): Máxima diversidade (ex.: criação de conteúdo).
Janela de Contexto
Número de mensagens retidas (mais mensagens = mais tokens):
5-10: Conversas simples
10: Tarefas complexas
Nota: Mensagens extras consomem mais tokens
Limitar Tamanho (MaxToken)
Máximo de Tokens por resposta. Afeta qualidade/comprimento.
Exemplo: Para testar conectividade, defina MaxToken=1.
Limites variam por modelo (ex.: 32k/64k tokens).
Sugestões:
Conversas: 500-800
Textos curtos: 800-2000
Código: 2000-3600
Textos longos: 4000+ (requer suporte do modelo)
Respostas podem ser truncadas (ex.: código longo). Ajuste conforme necessidade.
Saída em Fluxo (Stream)
Transmite respostas incrementalmente (efeito "máquina de escrever"). Inativo → Respostas completas enviadas de uma vez.
Parâmetros Customizados
Adicione parâmetros extras (ex.: presence_penalty
). Uso avançado.
Exemplos de parâmetros padrão: top-p, maxtokens, stream. Referência: Documentação
最后更新于
这有帮助吗?