Alucinación
/həˌluːsɪˈneɪʃən/
Also known as: AI hallucination, confabulation, factual error
¿Qué es una Alucinación de IA?
Una alucinación de IA ocurre cuando un modelo de lenguaje grande produce salida que parece plausible pero es factualmente incorrecta o no está respaldada por evidencia. A diferencia de un error de software estándar donde un sistema podría fallar o devolver un error, un LLM que alucina proporciona respuestas completamente fabricadas con el mismo tono de autoridad que las correctas.
Las alucinaciones pueden categorizarse como:
- Errores de factualidad: El modelo declara hechos incorrectos
- Errores de fidelidad: El modelo distorsiona o tergiversa la fuente o el prompt
¿Por Qué los LLMs Alucinan?
Las causas son tanto técnicas como sistémicas:
Factores técnicos:
- Datos de entrenamiento ruidosos o incompletos
- La naturaleza probabilística de la predicción del próximo token
- Falta de fundamentación en conocimiento externo
- Limitaciones arquitectónicas en memoria y razonamiento
Incentivos sistémicos: El artículo de OpenAI de 2025 “Why Language Models Hallucinate” explica que la predicción del próximo token y los benchmarks que penalizan las respuestas “No lo sé” empujan implícitamente a los modelos a farolear en lugar de negarse de forma segura. El entrenamiento estándar recompensa la adivinación confiada sobre admitir incertidumbre.
Tasas de Alucinación en 2025
El campo ha logrado un progreso significativo:
- Modelos de nivel superior (Gemini-2.0-Flash, o3-mini-high): Tasas de alucinación del 0.7% al 0.9%
- Nivel medio: 2% al 5%
- Promedio en todos los modelos: ~9.2% para conocimiento general
Cuatro modelos ahora alcanzan tasas sub-1%—un hito significativo para la confiabilidad empresarial.
Estrategias de Mitigación
Generación Aumentada por Recuperación (RAG): La solución técnica más efectiva. En lugar de depender de la memoria interna, el sistema recupera documentos relevantes de fuentes confiables, luego alimenta este contexto al LLM.
Ingeniería de Prompts: Ser específico, proporcionar contexto, instruir “piensa paso a paso,” y permitir explícitamente respuestas “No lo sé”.
Entrenamiento consciente de calibración: Nuevos enfoques recompensan el comportamiento amigable con la incertidumbre en lugar de la adivinación confiada.
Humano en el bucle: Las decisiones críticas requieren verificación humana.
El Debate del Nombre
Geoffrey Hinton argumenta que estas deberían llamarse “confabulaciones” en lugar de alucinaciones. Alucinación implica patología; la confabulación es comportamiento humano normal—construimos memorias en lugar de recuperar archivos. La distinción importa: la confabulación sugiere que esta es una característica inherente de los sistemas generativos, no un error a eliminar.
“We don’t store files and retrieve them; we construct memories when we need them.” “No almacenamos archivos y los recuperamos; construimos memorias cuando las necesitamos.” — Geoffrey Hinton
El Cambio en el Pensamiento
El campo se ha movido de “perseguir cero alucinaciones” a “gestionar la incertidumbre de manera medible y predecible.” La precisión perfecta puede ser imposible, pero la fiabilidad de nivel empresarial aceptable es alcanzable.
Lecturas Relacionadas
- Confabulación - El término preferido de Hinton
- Fundamentación - Conectar salidas a fuentes verificadas
- Geoffrey Hinton - Pionero abogando por el marco de confabulación