Interfaz de diálogo
Este documento ha sido traducido del chino por IA y aún no ha sido revisado.
Asistentes y Temas
Asistente
El Asistente
consiste en personalizar la configuración del modelo seleccionado para su uso, como establecer indicaciones predefinidas y parámetros preconfigurados. Estas configuraciones permiten adaptar el modelo a tus expectativas laborales.
El Asistente predeterminado del sistema
ofrece parámetros genéricos preconfigurados (sin indicaciones). Puedes usarlo directamente o buscar configuraciones específicas en la página de agentes.
Temas
El Asistente
es el conjunto padre de los Temas
. Un solo asistente puede contener múltiples temas (conversaciones), donde todos los Temas
comparten la configuración del modelo del Asistente
, como parámetros e indicaciones (prompts).


Botones del cuadro de diálogo

Nuevo tema
: Crea un nuevo tema dentro del asistente actual.
Subir imagen o documento
: Requiere soporte del modelo. Los documentos se analizan automáticamente como contexto para el modelo.
Búsqueda web
: Configura información de búsqueda en ajustes. Los resultados se envían como contexto al modelo. Detalles en Modo online.
Base de conocimiento
: Activa la base de conocimiento. Ver Tutorial de base de conocimiento.
Servidor MCP
: Activa la funcionalidad de servidor MCP. Ver Tutorial de MCP.
Generar imagen
: No visible por defecto. Para modelos compatibles (ej. Gemini), actívalo manualmente.
Seleccionar modelo
: Cambia el modelo para conversaciones futuras conservando el contexto.
Frases rápidas
: Configura frases comunes en ajustes y úsalas aquí. Soporta variables.
Borrar mensajes
: Elimina todo el contenido del tema actual.
Expandir
: Amplía el cuadro de diálogo para textos largos.
Borrar contexto
: Limpia el contexto disponible para el modelo sin eliminar contenido ("olvida" conversaciones anteriores).
Tokens estimados
: Muestra tokens estimados. Datos: Contexto actual
, Máximo contexto
(∞ = ilimitado), Palabras en entrada actual
, Tokens estimados
.
Traducir
: Traduce el contenido actual al inglés.
Configuración de conversación

Configuración del modelo
Sincronizada con los parámetros de Configuración del modelo
del asistente. Ver Editar asistente.
Configuración de mensajes
Línea divisoria de mensajes
:
Línea divisoria de mensajes
:Separa el contenido del mensaje de la barra de acciones.

Usar fuente serif
:
Usar fuente serif
:Cambia el estilo de fuente. También puedes personalizar fuentes mediante CSS personalizado.
Mostrar números de línea en código
:
Mostrar números de línea en código
:Muestra números de línea en bloques de código generados.

Bloques de código plegables
:
Bloques de código plegables
:Plegado automático cuando bloques de código son extensos.
Ajuste de línea en bloques de código
:
Ajuste de línea en bloques de código
:Ajuste automático para líneas largas que excedan la ventana.
Plegado automático de pensamientos
:
Plegado automático de pensamientos
:Modelos compatibles pliegan automáticamente procesos de pensamiento tras completarlos.
Estilo de mensaje
:
Estilo de mensaje
:Cambia entre estilos de burbuja o lista.
Estilo de código
:
Estilo de código
:Cambia el estilo visual de bloques de código.
Motor de fórmulas matemáticas
:
Motor de fórmulas matemáticas
:KaTeX: Renderizado más rápido, optimizado para rendimiento.
MathJax: Renderizado lento, pero más completo en símbolos y comandos.
Tamaño de fuente de mensajes
:
Tamaño de fuente de mensajes
:Ajusta el tamaño de fuente en la interfaz.
Configuración de entrada
Mostrar tokens estimados
:
Mostrar tokens estimados
:Muestra tokens estimados para texto de entrada (referencial, no consumo real).
Pegar texto largo como archivo
:
Pegar texto largo como archivo
:Textos largos pegados se muestran como archivos para reducir interferencias.
Renderizar Markdown en entrada
:
Renderizar Markdown en entrada
:Desactivado: Solo renderiza respuestas del modelo, no mensajes enviados.

Traducción rápida (3 espacios)
:
Traducción rápida (3 espacios)
:Tres espacios consecutivos traducen mensaje a inglés (sobrescribe texto original).
Advertencia: Sobrescribe el texto original.
Idioma objetivo
:
Idioma objetivo
:Configura idioma para botón de traducción y método de 3 espacios.
Configuración del asistente
Selecciona nombre del asistente → Menú contextual → Configuración
Editar asistente

Configuración de indicaciones
Nombre
:
Nombre
:Nombre personalizado para identificación.
Indicación
:
Indicación
:Prompt. Consulta formatos en la página de agentes.
Configuración del modelo
Modelo predeterminado
:
Modelo predeterminado
:Modelo fijo para este asistente. Si no se establece, usa el modelo global.
Reinicio automático de modelo
:
Reinicio automático de modelo
:Activado: Al crear temas nuevos, usan el modelo predeterminado del asistente. Desactivado: Nuevos temas heredan el modelo del tema anterior.
Ejemplo: Modelo predeterminado = gpt-3.5-turbo. En Tema 1 cambio a gpt-4o:
• Reinicio automático ON: Tema 2 usa gpt-3.5-turbo
• Reinicio automático OFF: Tema 2 usa gpt-4o
Temperatura (Temperature)
:
Temperatura (Temperature)
:Controla aleatoriedad (valor predeterminado: 0.7):
Baja (0-0.3): Precisión (ej. código)
Media (0.4-0.7): Equilibrio (ej. conversación)
Alta (0.8-1.0): Creatividad (ej. escritura)
Top P (Muestreo nuclear)
:
Top P (Muestreo nuclear)
:Predeterminado: 1. Valores bajos = salida conservadora; altos = diversidad:
Bajo (0.1-0.3): Vocabulario restringido (ej. documentos)
Medio (0.4-0.6): Equilibrio
Alto (0.7-1.0): Diversidad creativa
Cantidad de contexto (Context Window)
Cantidad de contexto (Context Window)
Número de mensajes retenidos (mayor cantidad = más tokens):
5-10: Conversaciones simples
>10: Tareas complejas (ej. redacción estructurada)
Nota: Más mensajes = mayor consumo de tokens
Habilitar límite de longitud (MaxToken)
Habilitar límite de longitud (MaxToken)
Tokens máximos por respuesta. Afecta calidad y longitud:
Ejemplo: Para probar conectividad, establecer MaxToken=1
Límites típicos: 32k tokens (varía por modelo). Recomendaciones:
• Chat básico: 500-800 • Textos cortos: 800-2000 • Generación de código: 2000-3600 • Textos largos: ≥4000 (requiere soporte del modelo)
Respuestas pueden truncarse si exceden MaxToken. Ajusta según necesidades.
Salida en flujo (Stream)
Salida en flujo (Stream)
Transmisión continua de datos (efecto máquina de escribir): • Activado: Salida carácter por carácter • Desactivado: Salida completa tras generación
Parámetros personalizados
Parámetros personalizados
Añade parámetros adicionales al cuerpo de la solicitud (ej. presence_penalty
). Normalmente avanzado.
Referencia: Documentación
Última actualización
¿Te fue útil?