Qué es un buen prompt
Un buen prompt es específico. La ingeniería de prompts consiste en traducir conceptos que solemos manejar de manera intuitiva o desde el sentido común y convertirlos en instrucciones explícitas y conscientes.
Al hacer estas relaciones más claras, los LLM pueden capturar conexiones más profundas y complejas entre las ideas.
Siempre que sea posible, es recomendable redactar el prompt en tu lenguaje nativo, ya que mejora la precisión semántica.
Framework para crear prompts efectivos
1. Rol
Asignar un rol mueve al modelo hacia áreas de conocimiento específicas. Esto permite respuestas más alineadas con el resultado que buscamos.
Un rol puede ser, por ejemplo: “Actúa como un analista financiero senior” o “Eres un profesor experto en historia latinoamericana”.
Dentro del rol también se puede incluir el objetivo general que se espera que cumpla.
2. Enfoque
Aquí se indica con precisión qué quieres que haga el modelo: clasificar, redactar, resumir, corregir, analizar, crear ideas, etc.
3. Contexto
Incluye los datos, ejemplos, herramientas o referencias que el modelo utilizará para realizar la tarea.
Sin contexto adecuado, un buen prompt puede fracasar.
4. Límites
Definen las reglas que restringen la creatividad del modelo y evitan la divagación.
Sirven para especificar qué no debe hacer el modelo o qué debe cumplir estrictamente para obtener el resultado esperado.
Comparativa entre diferentes tipos de LLMs
No existe un modelo que sea “el mejor para todo”. Cada usuario debe elegir la herramienta que mejor se adapte a su necesidad.
- Modelos rápidos: Responden sin planificar en detalle. Son ideales para tareas simples y directas.
- Modelos “thinking” o reflexivos: Dedican tiempo a planificar su cadena de razonamiento. Son más lentos, pero ofrecen respuestas más profundas y acertadas.
Few-Shot Prompting
El few-shot prompting es útil para tareas donde la información es ambigua o abstracta, como:
- Clasificar textos por emoción.
- Categorizar contenido según impacto.
- Identificar patrones en datos difusos.
Los ejemplos (buenos y malos) ayudan al modelo a entender lo que se busca, pero deben usarse con equilibrio para no limitar su creatividad ni inducir sesgos.
Recomendaciones:
- Variar el orden de los ejemplos.
- Usarlo cuando hay ambigüedad, complejidad o se requiere alta precisión.
Cómo estructurar un prompt
Usar formato como Markdown, HTML o pseudo-ML ayuda al modelo a entender con claridad dónde empieza y termina cada sección.
El formateo permite:
- Aumentar la consistencia en los resultados.
- Resaltar instrucciones críticas.
- Minimizar malentendidos.
Mitigar el problema de la ventana de contexto
Los modelos prestan más atención a lo más reciente. Para evitar pérdidas de información clave:
- Recordar periódicamente las instrucciones importantes.
- Utilizar formato para resaltar lo crítico.
- Hacer preguntas para detectar olvidos o alucinaciones.
Cuando la conversación es muy larga, es útil extraer y resumir la información relevante, para luego continuar en un nuevo hilo con ese resumen como punto de partida.
Técnicas de mitigación
Grounding
Consiste en aclarar explícitamente cuál debe ser la fuente de la respuesta.
Se puede lograr:
- Usando mayúsculas o etiquetas.
- Indicando frases como “solo usa esta información”.
También ayuda a evitar alucinaciones pedir al modelo que, si no encuentra la respuesta, declare que no está disponible.
Cadena de pensamiento (Chain-of-thought)
Solicitar que el modelo responda paso a paso permite analizar su proceso y mejorar la calidad de sus soluciones.
También se puede pedir que genere múltiples propuestas antes de seleccionar la mejor.
Prompt Chaining
Cuando conocemos la lógica del negocio, podemos dividir un proyecto grande en varias tareas pequeñas, cada una representada por un prompt.
Esto ayuda a optimizar la ventana de contexto y mejora la calidad del resultado final.
Parámetros: Temperatura y Top-P
Temperatura
- Baja: Para consistencia, precisión y tareas analíticas.
- Alta: Para creatividad, generación de ideas o contenido original.
Top-P
Controla la diversidad del vocabulario:
- Top-P alto: Mayor variedad de palabras, más libertad creativa y exploración semántica.
- Top-P bajo: El modelo se limita a las palabras más probables y seguras.
Cómo evaluar la efectividad de un prompt
- Consistencia: Repetir el prompt y obtener resultados similares.
- Precisión: Especialmente importante cuando no queremos creatividad.
- Relevancia: Que el contenido generado responda exactamente a lo solicitado.
- Claridad: El modelo debe mantener el tono y formato indicado.
Un LLM puede usarse para evaluar estos criterios sobre respuestas generadas por otro LLM.
Top comments (0)