Hallucination

/həˌluːsɪˈneɪʃən/

Also known as: AI hallucination, confabulation, factual error

behavior beginner

Qu’est-ce qu’une hallucination d’IA ?

Une hallucination d’IA se produit lorsqu’un grand modèle de langage produit une sortie qui semble plausible mais qui est factuellement fausse ou non étayée par des preuves. Contrairement à un bug logiciel standard où un système pourrait planter ou retourner une erreur, un LLM qui hallucine fournit des réponses complètement fabriquées avec le même ton d’autorité que les réponses correctes.

Les hallucinations peuvent être catégorisées comme :

  • Erreurs de factualité : Le modèle énonce des faits incorrects
  • Erreurs de fidélité : Le modèle déforme ou interprète mal la source ou le prompt

Pourquoi les LLM hallucinent-ils ?

Les causes sont à la fois techniques et systémiques :

Facteurs techniques :

  • Données d’entraînement bruitées ou incomplètes
  • La nature probabiliste de la prédiction du prochain token
  • Manque d’ancrage dans la connaissance externe
  • Limitations architecturales dans la mémoire et le raisonnement

Incitations systémiques : L’article d’OpenAI de 2025 “Why Language Models Hallucinate” explique que la prédiction du prochain token et les benchmarks qui pénalisent les réponses “Je ne sais pas” poussent implicitement les modèles à bluffer plutôt qu’à refuser en toute sécurité. L’entraînement standard récompense les suppositions confiantes plutôt que l’admission d’incertitude.

Taux d’hallucination en 2025

Le domaine a fait des progrès significatifs :

  • Modèles de premier niveau (Gemini-2.0-Flash, o3-mini-high) : 0,7% à 0,9% de taux d’hallucination
  • Niveau moyen : 2% à 5%
  • Moyenne sur tous les modèles : ~9,2% pour les connaissances générales

Quatre modèles atteignent maintenant des taux inférieurs à 1%—une étape importante pour la fiabilité en entreprise.

Stratégies d’atténuation

Retrieval-Augmented Generation (RAG) : La solution technique la plus efficace. Au lieu de se fier à la mémoire interne, le système récupère des documents pertinents à partir de sources de confiance, puis fournit ce contexte au LLM.

Ingénierie des prompts : Être spécifique, fournir du contexte, instruire “réfléchis étape par étape”, et permettre explicitement les réponses “Je ne sais pas”.

Entraînement conscient de la calibration : De nouvelles approches récompensent le comportement favorable à l’incertitude plutôt que les suppositions confiantes.

Humain dans la boucle : Les décisions critiques nécessitent une vérification humaine.

Le débat sur la dénomination

Geoffrey Hinton soutient que celles-ci devraient être appelées “confabulations” plutôt qu’hallucinations. L’hallucination implique une pathologie ; la confabulation est un comportement humain normal—nous construisons des souvenirs plutôt que de récupérer des fichiers. La distinction compte : la confabulation suggère que c’est une caractéristique inhérente des systèmes génératifs, pas un bug à éliminer.

“We don’t store files and retrieve them; we construct memories when we need them.” — Geoffrey Hinton

“Nous ne stockons pas de fichiers et ne les récupérons pas ; nous construisons des souvenirs quand nous en avons besoin.”

Le changement de pensée

Le domaine est passé de “poursuivre zéro hallucination” à “gérer l’incertitude de manière mesurable et prévisible.” Une précision parfaite peut être impossible, mais une fiabilité acceptable au niveau de l’entreprise est réalisable.

Lectures connexes

Mentioned In

Video thumbnail

Geoffrey Hinton

Les hallucinations devraient être appelées confabulations - nous en faisons aussi.