Alucinación

/həˌluːsɪˈneɪʃən/

Also known as: AI hallucination, confabulation, factual error

behavior beginner

¿Qué es una Alucinación de IA?

Una alucinación de IA ocurre cuando un modelo de lenguaje grande produce salida que parece plausible pero es factualmente incorrecta o no está respaldada por evidencia. A diferencia de un error de software estándar donde un sistema podría fallar o devolver un error, un LLM que alucina proporciona respuestas completamente fabricadas con el mismo tono de autoridad que las correctas.

Las alucinaciones pueden categorizarse como:

  • Errores de factualidad: El modelo declara hechos incorrectos
  • Errores de fidelidad: El modelo distorsiona o tergiversa la fuente o el prompt

¿Por Qué los LLMs Alucinan?

Las causas son tanto técnicas como sistémicas:

Factores técnicos:

  • Datos de entrenamiento ruidosos o incompletos
  • La naturaleza probabilística de la predicción del próximo token
  • Falta de fundamentación en conocimiento externo
  • Limitaciones arquitectónicas en memoria y razonamiento

Incentivos sistémicos: El artículo de OpenAI de 2025 “Why Language Models Hallucinate” explica que la predicción del próximo token y los benchmarks que penalizan las respuestas “No lo sé” empujan implícitamente a los modelos a farolear en lugar de negarse de forma segura. El entrenamiento estándar recompensa la adivinación confiada sobre admitir incertidumbre.

Tasas de Alucinación en 2025

El campo ha logrado un progreso significativo:

  • Modelos de nivel superior (Gemini-2.0-Flash, o3-mini-high): Tasas de alucinación del 0.7% al 0.9%
  • Nivel medio: 2% al 5%
  • Promedio en todos los modelos: ~9.2% para conocimiento general

Cuatro modelos ahora alcanzan tasas sub-1%—un hito significativo para la confiabilidad empresarial.

Estrategias de Mitigación

Generación Aumentada por Recuperación (RAG): La solución técnica más efectiva. En lugar de depender de la memoria interna, el sistema recupera documentos relevantes de fuentes confiables, luego alimenta este contexto al LLM.

Ingeniería de Prompts: Ser específico, proporcionar contexto, instruir “piensa paso a paso,” y permitir explícitamente respuestas “No lo sé”.

Entrenamiento consciente de calibración: Nuevos enfoques recompensan el comportamiento amigable con la incertidumbre en lugar de la adivinación confiada.

Humano en el bucle: Las decisiones críticas requieren verificación humana.

El Debate del Nombre

Geoffrey Hinton argumenta que estas deberían llamarse “confabulaciones” en lugar de alucinaciones. Alucinación implica patología; la confabulación es comportamiento humano normal—construimos memorias en lugar de recuperar archivos. La distinción importa: la confabulación sugiere que esta es una característica inherente de los sistemas generativos, no un error a eliminar.

“We don’t store files and retrieve them; we construct memories when we need them.” “No almacenamos archivos y los recuperamos; construimos memorias cuando las necesitamos.” — Geoffrey Hinton

El Cambio en el Pensamiento

El campo se ha movido de “perseguir cero alucinaciones” a “gestionar la incertidumbre de manera medible y predecible.” La precisión perfecta puede ser imposible, pero la fiabilidad de nivel empresarial aceptable es alcanzable.

Lecturas Relacionadas

Mentioned In

Video thumbnail

Geoffrey Hinton

Hallucinations should be called confabulations - we do them too.