Halluzination
/həˌluːsɪˈneɪʃən/
Also known as: AI hallucination, confabulation, factual error
Was ist eine KI-Halluzination?
Eine KI-Halluzination tritt auf, wenn ein großes Sprachmodell Ausgaben produziert, die plausibel aussehen, aber faktisch falsch oder nicht durch Beweise gestützt sind. Im Gegensatz zu einem Standard-Software-Bug, bei dem ein System abstürzen oder einen Fehler zurückgeben könnte, liefert ein halluzinieren des LLM vollständig erfundene Antworten mit demselben autoritären Ton wie korrekte.
Halluzinationen können kategorisiert werden als:
- Faktizitätsfehler: Das Modell gibt inkorrekte Fakten an
- Treue-Fehler: Das Modell verzerrt oder falsch interpretiert die Quelle oder den Prompt
Warum halluzinieren LLMs?
Die Ursachen sind sowohl technisch als auch systemisch:
Technische Faktoren:
- Verrauschte oder unvollständige Trainingsdaten
- Die probabilistische Natur der Next-Token-Vorhersage
- Mangel an Grounding in externem Wissen
- Architektonische Einschränkungen in Gedächtnis und Denken
Systemische Anreize: OpenAIs Paper 2025 “Why Language Models Hallucinate” erklärt, dass Next-Token-Vorhersage und Benchmarks, die “Ich weiß nicht”-Antworten bestrafen, implizit Modelle dazu drängen zu bluffen, anstatt sicher abzulehnen. Standard-Training belohnt selbstbewusstes Raten über das Eingeständnis von Unsicherheit.
Halluzinationsraten 2025
Das Feld hat signifikante Fortschritte gemacht:
- Top-Tier-Modelle (Gemini-2.0-Flash, o3-mini-high): 0,7% bis 0,9% Halluzinationsraten
- Mittleres Tier: 2% bis 5%
- Durchschnitt über alle Modelle: ~9,2% für allgemeines Wissen
Vier Modelle erreichen jetzt Sub-1%-Raten - ein signifikanter Meilenstein für Enterprise-Vertrauenswürdigkeit.
Minderungsstrategien
Retrieval-Augmented Generation (RAG): Die effektivste technische Lösung. Anstatt sich auf internes Gedächtnis zu verlassen, ruft das System relevante Dokumente aus vertrauenswürdigen Quellen ab und füttert dann diesen Kontext dem LLM.
Prompt Engineering: Spezifisch sein, Kontext bereitstellen, “denke Schritt für Schritt” anweisen und explizit “Ich weiß nicht”-Antworten erlauben.
Kalibrierungsbewusstes Training: Neue Ansätze belohnen unsicherheitsfreundliches Verhalten statt selbstbewusstem Raten.
Human-in-the-Loop: Kritische Entscheidungen erfordern menschliche Verifizierung.
Die Benennungsdebatte
Geoffrey Hinton argumentiert, dass diese “Konfabulationen” statt Halluzinationen genannt werden sollten. Halluzination impliziert Pathologie; Konfabulation ist normales menschliches Verhalten - wir konstruieren Erinnerungen, anstatt Dateien abzurufen. Die Unterscheidung zählt: Konfabulation suggeriert, dass dies ein inhärentes Merkmal generativer Systeme ist, kein zu eliminierender Bug.
“We don’t store files and retrieve them; we construct memories when we need them.” — Geoffrey Hinton
“Wir speichern keine Dateien und rufen sie ab; wir konstruieren Erinnerungen, wenn wir sie brauchen.”
Der Denk-Wandel
Das Feld hat sich von “Jagd nach Null-Halluzinationen” zu “Unsicherheit auf messbare, vorhersagbare Weise managen” bewegt. Perfekte Genauigkeit mag unmöglich sein, aber akzeptable Enterprise-Level-Zuverlässigkeit ist erreichbar.
Weiterführende Lektüre
- Confabulation - Hintons bevorzugter Begriff
- Grounding - Ausgaben mit verifizierten Quellen verbinden
- Geoffrey Hinton - Pionier, der für das Konfabulations-Framing plädiert