Prompt engineering

¿Qué es “prompt engineering” y por qué importa?
El prompt engineering es el diseño de instrucciones para guiar a modelos de lenguaje y obtener salidas útiles y consistentes. Los LLM predicen el siguiente token (unidad de texto) en función del contexto; por eso la redacción exacta, el formato pedido y los ejemplos influyen totalmente en el resultado.
Beneficios principales (B2B): mayor calidad en contenidos y análisis, menos iteraciones, outputs normalizados (JSON/tablas), y base para automatizaciones (agentes, flujos -workflows-).
Conceptos básicos (nivel inicial)
Tokens, longitud de salida y coste
- Longitud de salida: máximo de tokens que puede devolver el modelo; si es corta, no “escribe más conciso”, solo corta la respuesta. Úsala para resúmenes y control de costes.
Sampling: temperatura, top-k y top-p
- Temperatura controla la aleatoriedad: alta = más creatividad; baja = más consistencia.
- top-k: limita la elección a los k tokens más probables; top-p: usa probabilidad acumulada. Ambos afectan creatividad/precisión.
Regla rápida: usa una temperatura de 0–0,3 cuando necesites respuestas precisas y consistentes; súbela a 0,5–0,9 para más ideas y variedad creativa. Ajusta según la tarea y el canal.
Zero-shot vs. ejemplos
- Zero-shot: das la instrucción sin ejemplos. Útil para tareas simples o conocidas por el modelo.
- One/Few-shot: añades 1–5 ejemplos para fijar el formato o el estilo (recomendado cuando necesitas JSON estable).
Técnicas intermedias (control y consistencia)
Rol, sistema y contexto
-
Role prompting (“Actúa como…”), mensaje de sistema (propósito y tono) y contexto (datos relevantes) orientan el comportamiento y la calidad de la respuesta.
Plantilla breve:
Control del formato
Pide explícitamente JSON/tablas/esquemas para salidas reutilizables; define claves y tipos.
Buenas prácticas
- Empieza de forma simple y añade detalle solo cuando sea necesario.
- Especifica la salida (formato, campos, longitud).
- Es mejor usar instrucciones positivas que prohibiciones; usa variables para prompts programáticos.
Técnicas avanzadas (razonamiento y agentes)
1. Chain-of-Thought (CoT)
Pide “piensa paso a paso” para mejorar tareas lógicas/matemáticas/analíticas y reducir errores en modelos sin “modo thinking”. Se puede combinar con few-shot.
2. Self-consistency
Genera varias respuestas y selecciona la más consistente por votación; mejora exactitud a costa de más latencia/coste.
3. Step-back prompting
Primero formula una pregunta más general para activar conocimiento de fondo y luego resuelve la tarea específica. Útil en creatividad/estrategia.
4. Tree-of-Thought (ToT)
Explora múltiples caminos de razonamiento en árbol; requiere gestión del flujo de trabajo con código o framework. Adecuado para problemas complejos de exploración.
5. ReAct (Reason + Act) y agentes
Combina razonamiento con herramientas externas (búsqueda, ejecución de código, funciones). Se implementa con frameworks tipo LangChain/CrewAI.
6. Ingeniería de prompts automática
Apóyate en la IA para escribir mejores prompts: del borrador a un PRD (documento de requisitos de proyecto) y del PRD al código o entregables.
7. “Forzar” uso de código cuando conviene
Para cálculos o contabilizaciones, pedir escribir y ejecutar código es más fiable que una respuesta en lenguaje natural.
Marco práctico en 5 pasos que puedes aplicar ya
-
Define el caso y el output (salida)
Rol, objetivo, público, tono y formato exacto (JSON, tabla, lista, etc.). -
Elige estrategia
Simple → zero-shot. Formato rígido → few-shot. Razonamiento → CoT/self-consistency. Exploración → ToT. Herramientas → ReAct. -
Controla creatividad
Temperatura/Top-k/Top-p según tarea (baja para precisión, alta para generación de ideas). -
Itera con criterios
Revisa tu resultado con esta lista rápida: ¿está completo, tiene el formato pedido, cita fuentes, evita sesgos y se puede seguir el proceso?
Si algo falla, añade ejemplos o pídele a la IA que piense primero en lo general y luego en el caso concreto (técnica step-back). -
Estandariza
Guarda plantillas, parametriza variables y documenta los prompts ganadores para reutilizarlos.
Plantillas rápidas listas para usar
Auditoría SEO técnica (formato JSON)
Resumen ejecutivo de datos (tabla)
CoT + few-shot (clasificación)
Errores frecuentes y cómo evitarlos
- Pedir “lo que no quieres” en vez de definir lo que sí quieres (usa instrucciones positivas).
- No especificar formato → resultados poco reutilizables.
- Ajustar mal la temperatura/longitud → creatividad/precisión desequilibradas o respuestas cortadas.
- No intentes usar Tree-of-Thought “a mano”. Sin una definición clara de los pasos coordinados con el código este se vuelve caótico y difícil de controlar. Mejor usa un framework que lo gestione.
FAQ sobre prompt engineering
¿Qué es zero-shot?
Instrucción sin ejemplos; útil para tareas simples o conocidas por el modelo.
¿Cuándo usar few-shot?
Cuando necesites un formato estable o reducir ambigüedad; 3–5 ejemplos es una guía práctica.
¿Sirve “pensar paso a paso”?
Sí, CoT mejora exactitud en lógica/numérico y puede combinarse con ejemplos.
¿Qué técnica usar para problemas muy complejos?
Tree-of-Thought (con coordinación de pasos) o ReAct con herramientas externas.
¿Cómo reducir al mínimo los errores “tontos”?
Cuando sea determinista (p. ej., realizar un cálculo o contabilización de elementos), pide escribir y ejecutar código.
¿Quieres seguir ampliando tu formación en IA generativa?
Explora otros artículos de nuestra Wiki, revisa nuestras guías y artículos del blog o contacta con el equipo de Idento si quieres desarrollar un proyecto que requiera el uso de IA o automatización.

