Interfaz de chat

Interfaz de Chat

Asistentes y Temas

Asistente

助手 es una configuración personalizada para el modelo seleccionado, como ajustes preestablecidos de indicaciones y parámetros, que permite que el modelo funcione mejor según sus expectativas laborales.

Asistente predeterminado del sistema ofrece parámetros genéricos preestablecidos (sin indicaciones). Puede usarlo directamente o buscar los ajustes preestablecidos que necesite en la página de agentes.

Tema

助手 es el conjunto principal de 话题 (temas). Un solo asistente puede contener múltiples temas (conversaciones). Todos los 话题 comparten la configuración del modelo como parámetros y palabras preestablecidas (prompt) del 助手.

Nuevo tema Crea un nuevo tema bajo el asistente actual.

Subir imagen o documento Las imágenes requieren soporte del modelo. Los documentos se analizan automáticamente como texto para proporcionar contexto al modelo.

Búsqueda en web Requiere configurar información de búsqueda web en ajustes. Los resultados se devuelven como contexto al modelo. Ver Modo con conexión a internet.

Base de conocimiento Activa la base de conocimiento. Ver Tutorial de base de conocimiento.

Servidor MCP Activa la función de servidor MCP. Ver Tutorial de uso de MCP.

Generar imagen No se muestra por defecto. Para modelos compatibles (ej. Gemini), active manualmente para generar imágenes.

Por razones técnicas, debe activar manualmente este botón para generar imágenes. Se eliminará después de optimizar esta función.

Seleccionar modelo Cambia al modelo especificado para la siguiente conversación, manteniendo el contexto.

Frases rápidas Requiere frases comunes preestablecidas en ajustes. Se utilizan aquí para entrada directa, admitiendo variables.

Limpiar mensajes Elimina todo el contenido del tema actual.

Expandir Amplía el cuadro de diálogo para entradas largas.

Limpiar contexto Trunca el contexto disponible para el modelo sin borrar contenido; el modelo "olvida" conversaciones previas.

Cantidad estimada de tokens Muestra tokens estimados. Los cuatro datos son: Contexto actual, Contexto máximo (∞ = ilimitado), Caracteres en el cuadro de entrada, Tokens estimados.

Esto solo estima tokens. Los tokens reales varían por modelo; consulte datos del proveedor.

Traducir Traduce el contenido del cuadro de entrada al inglés.

Configuración del chat

Configuración del modelo

Sincronizado con parámetros de Configuración del modelo en ajustes del asistente. Ver Editar asistente.

En esta sección, solo Configuración del modelo afecta al asistente actual; otros ajustes son globales. Ej: Configurar el estilo de mensaje como burbujas aplicará en todos los temas/asistentes.

Configuración de mensajes

Línea divisoria de mensajes:

Separa el contenido del mensaje del panel de acciones.

Usar fuente serif

Cambia el estilo de fuente. También puede cambiarlo mediante CSS personalizado.

Mostrar números de línea en código

Muestra números de línea en bloques de código generados por el modelo.

Bloques de código plegables

Plegado automático de bloques de código cuando son extensos.

Bloques de código con ajuste de línea

Ajuste automático de línea cuando el código excede el ancho de ventana.

Plegar proceso de razonamiento automáticamente

Plegado automático del proceso de razonamiento después de completarse (en modelos compatibles).

Estilo de mensaje

Cambia la interfaz a burbujas o estilo lista.

Estilo de código

Cambia el estilo de visualización de fragmentos de código.

Motor de fórmulas matemáticas

  • KaTeX: Renderizado más rápido (optimizado para rendimiento).

  • MathJax: Renderizado más lento pero más funciones (admite más símbolos).

Tamaño de fuente en mensajes

Ajusta el tamaño de fuente en la interfaz.

Configuración de entrada

Mostrar tokens estimados

Muestra tokens estimados en el cuadro de entrada (referencial; no incluye contexto real).

Pegar texto largo como archivo

Al pegar texto extenso, se muestra como archivo para reducir interferencias.

Renderizar Markdown en mensajes enviados

Cuando está desactivado, solo se renderizan respuestas del modelo (no los mensajes enviados).

Traducción rápida con triple espacio

Presionar espacio tres veces traduce el contenido del cuadro de entrada al inglés.

Idioma objetivo

Establece el idioma para traducciones (botón y triple espacio).

Configuración del asistente

Seleccione el nombre del asistente→ en el menú contextual elija la configuración

Editar asistente

La configuración del asistente afecta todos sus temas.

Configuración de indicaciones

Nombre

Nombre personalizado para identificar al asistente.

Indicación

Prompt; puede editarse basándose en ejemplos de la página de agentes.

Configuración del modelo

Modelo predeterminado

Fija un modelo inicial para este asistente. Si no se establece, usa el modelo global (Modelo de asistente predeterminado).

Prioridad: Modelo del asistente > Modelo global. Si no existe modelo del asistente, predeterminado = global.

Restablecer modelo automáticamente

Activado: Tras cambiar modelos en un tema, el nuevo tema usará el modelo predeterminado del asistente. Desactivado: Nuevos temas conservan el último modelo usado.

Ejemplo: Modelo predeterminado = gpt-3.5-turbo. En Tema1 se cambia a gpt-4o.

  • Con restablecimiento: Tema2 usa gpt-3.5-turbo.

  • Sin restablecimiento: Tema2 usa gpt-4o.

Temperatura (Temperature)

Controla aleatoriedad (valor predeterminado: 0.7):

  • Baja (0-0.3): Output determinista (ej. generación de código).

  • Media (0.4-0.7): Balance creatividad/coherencia (recomendado para chat).

  • Alta (0.8-1.0): Máxima creatividad (puede reducir coherencia).

Top P (Muestreo de núcleo)

Valor predeterminado: 1.

  • Valores bajos (0.1-0.3): Palabras de alta probabilidad (output conservador).

  • Medios (0.4-0.6): Equilibrio diversidad/precisión.

  • Altos (0.7-1.0): Máxima diversidad léxica (ej. escritura creativa).

  • Usar parámetros combinados o independientes.

  • Experimente para ajustes óptimos.

  • Rangos son referenciales; consulte documentación del modelo.

Cantidad de contexto (Context Window)

Número de mensajes conservados en contexto (a mayor valor, más tokens consumidos):

  • 5-10: Conversaciones simples.

  • 10: Tareas complejas con memoria extendida (ej. escritura estructurada).

Habilitar límite de longitud (MaxToken)

Límite máximo de tokens por respuesta. Afecta calidad/longitud del output.

Ej: En pruebas de conectividad con key, MaxToken=1 es suficiente.

La mayoría de modelos soportan hasta 32K tokens (consulte documentación específica).

Salida por transmisión (Stream)

Output continuo (datos enviados al generarse). En entornos como CherryStudio, produce efecto máquina de escribir.

  • Activado: Output carácter por carácter.

  • Desactivado: Respuesta completa enviada de una vez.

Desactive si el modelo no admite stream (ej. o1-mini inicial).

Parámetros personalizados

Agrega parámetros adicionales al cuerpo de la solicitud (ej. presence_penalty). Normalmente innecesarios.

Ejemplos de parámetros existentes: top-p, max tokens, stream. Sintaxis: Nombre:Tipo:Valor. Ver documentación: Visitar

  • Prioridad: Parámetros personalizados > Parámetros incorporados (en caso de duplicados).

  • Use <kbd>Nombre:undefined</kbd> para excluir parámetros.

  • Proveedores pueden tener parámetros exclusivos; consulte su documentación.

最后更新于

这有帮助吗?