Interfaz de diálogo

Asistentes y Temas

Asistente

El Asistente consiste en personalizar la configuración del modelo seleccionado para su uso, como establecer indicaciones predefinidas y parámetros preconfigurados. Estas configuraciones permiten adaptar el modelo a tus expectativas laborales.

El Asistente predeterminado del sistema ofrece parámetros genéricos preconfigurados (sin indicaciones). Puedes usarlo directamente o buscar configuraciones específicas en la página de agentes.

Temas

El Asistente es el conjunto padre de los Temas. Un solo asistente puede contener múltiples temas (conversaciones), donde todos los Temas comparten la configuración del modelo del Asistente, como parámetros e indicaciones (prompts).

Nuevo tema: Crea un nuevo tema dentro del asistente actual.

Subir imagen o documento: Requiere soporte del modelo. Los documentos se analizan automáticamente como contexto para el modelo.

Búsqueda web: Configura información de búsqueda en ajustes. Los resultados se envían como contexto al modelo. Detalles en Modo online.

Base de conocimiento: Activa la base de conocimiento. Ver Tutorial de base de conocimiento.

Servidor MCP: Activa la funcionalidad de servidor MCP. Ver Tutorial de MCP.

Generar imagen: No visible por defecto. Para modelos compatibles (ej. Gemini), actívalo manualmente.

Por limitaciones técnicas, debes activar manualmente este botón para generar imágenes. Se eliminará tras futuras optimizaciones.

Seleccionar modelo: Cambia el modelo para conversaciones futuras conservando el contexto.

Frases rápidas: Configura frases comunes en ajustes y úsalas aquí. Soporta variables.

Borrar mensajes: Elimina todo el contenido del tema actual.

Expandir: Amplía el cuadro de diálogo para textos largos.

Borrar contexto: Limpia el contexto disponible para el modelo sin eliminar contenido ("olvida" conversaciones anteriores).

Tokens estimados: Muestra tokens estimados. Datos: Contexto actual, Máximo contexto (∞ = ilimitado), Palabras en entrada actual, Tokens estimados.

Solo estimación. Los tokens reales varían según el modelo. Consulta datos del proveedor.

Traducir: Traduce el contenido actual al inglés.

Configuración de conversación

Configuración del modelo

Sincronizada con los parámetros de Configuración del modelo del asistente. Ver Editar asistente.

En Configuración de conversación, solo esta sección afecta al asistente actual. Otros ajustes son globales (ej. estilo de burbuja aplica a todos los temas).

Configuración de mensajes

Línea divisoria de mensajes:

Separa el contenido del mensaje de la barra de acciones.

Usar fuente serif

Cambia el estilo de fuente. También puedes personalizar fuentes mediante CSS personalizado.

Mostrar números de línea en código

Muestra números de línea en bloques de código generados.

Bloques de código plegables

Plegado automático cuando bloques de código son extensos.

Ajuste de línea en bloques de código

Ajuste automático para líneas largas que excedan la ventana.

Plegado automático de pensamientos

Modelos compatibles pliegan automáticamente procesos de pensamiento tras completarlos.

Estilo de mensaje

Cambia entre estilos de burbuja o lista.

Estilo de código

Cambia el estilo visual de bloques de código.

Motor de fórmulas matemáticas

  • KaTeX: Renderizado más rápido, optimizado para rendimiento.

  • MathJax: Renderizado lento, pero más completo en símbolos y comandos.

Tamaño de fuente de mensajes

Ajusta el tamaño de fuente en la interfaz.

Configuración de entrada

Mostrar tokens estimados

Muestra tokens estimados para texto de entrada (referencial, no consumo real).

Pegar texto largo como archivo

Textos largos pegados se muestran como archivos para reducir interferencias.

Renderizar Markdown en entrada

Desactivado: Solo renderiza respuestas del modelo, no mensajes enviados.

Traducción rápida (3 espacios)

Tres espacios consecutivos traducen mensaje a inglés (sobrescribe texto original).

Idioma objetivo

Configura idioma para botón de traducción y método de 3 espacios.

Configuración del asistente

Selecciona nombre del asistente → Menú contextual → Configuración

Editar asistente

Afecta a todos los temas bajo este asistente.

Configuración de indicaciones

Nombre

Nombre personalizado para identificación.

Indicación

Prompt. Consulta formatos en la página de agentes.

Configuración del modelo

Modelo predeterminado

Modelo fijo para este asistente. Si no se establece, usa el modelo global.

Prioridad: Modelo del asistente > Modelo global de conversación. Sin configuración, modelo del asistente = modelo global.

Reinicio automático de modelo

Activado: Al crear temas nuevos, usan el modelo predeterminado del asistente. Desactivado: Nuevos temas heredan el modelo del tema anterior.

Ejemplo: Modelo predeterminado = gpt-3.5-turbo. En Tema 1 cambio a gpt-4o:

• Reinicio automático ON: Tema 2 usa gpt-3.5-turbo

• Reinicio automático OFF: Tema 2 usa gpt-4o

Temperatura (Temperature)

Controla aleatoriedad (valor predeterminado: 0.7):

  • Baja (0-0.3): Precisión (ej. código)

  • Media (0.4-0.7): Equilibrio (ej. conversación)

  • Alta (0.8-1.0): Creatividad (ej. escritura)

Top P (Muestreo nuclear)

Predeterminado: 1. Valores bajos = salida conservadora; altos = diversidad:

  • Bajo (0.1-0.3): Vocabulario restringido (ej. documentos)

  • Medio (0.4-0.6): Equilibrio

  • Alto (0.7-1.0): Diversidad creativa

  • Parámetros usables individualmente o combinados

  • Experimenta para ajustarlos a tus necesidades

  • Rangos sugeridos: referencia general (consultar documentación específica del modelo)

Cantidad de contexto (Context Window)

Número de mensajes retenidos (mayor cantidad = más tokens):

  • 5-10: Conversaciones simples

  • >10: Tareas complejas (ej. redacción estructurada)

  • Nota: Más mensajes = mayor consumo de tokens

Habilitar límite de longitud (MaxToken)

Tokens máximos por respuesta. Afecta calidad y longitud:

Ejemplo: Para probar conectividad, establecer MaxToken=1

Límites típicos: 32k tokens (varía por modelo). Recomendaciones:

Salida en flujo (Stream)

Transmisión continua de datos (efecto máquina de escribir): • Activado: Salida carácter por carácter • Desactivado: Salida completa tras generación

Desactiva para modelos incompatibles (ej. o1-mini inicial).

Parámetros personalizados

Añade parámetros adicionales al cuerpo de la solicitud (ej. presence_penalty). Normalmente avanzado. Referencia: Documentación

• Prioridad: Parámetros personalizados > Parámetros integrados

Ejemplo: Configurar model:gpt-4o ignora selecciones posteriores • Usa nombre_parametro:undefined para excluir parámetros • Proveedores pueden tener parámetros exclusivos (consultar documentación)

Última actualización

¿Te fue útil?