Konfabulation
kon-fab-yoo-LAY-shun
Also known as: hallucination
Definition
Konfabulation ist Geoffrey Hintons bevorzugter Begriff für KI-”Halluzinationen” - das Phänomen, bei dem Modelle plausibel klingende, aber falsche Informationen generieren. Hinton argumentiert, dass der Begriff besser widerspiegelt, dass Menschen dasselbe tun.
Warum Konfabulation, nicht Halluzination?
“Halluzination” impliziert, Dinge zu sehen, die nicht da sind - ein pathologischer Zustand. “Konfabulation” ist ein psychologischer Begriff für Gedächtniskonstruktion, was normales menschliches Verhalten ist.
“Hallucinations should be called confabulations - we do them too.” — Geoffrey Hinton
“Halluzinationen sollten Konfabulationen genannt werden - wir tun sie auch.”
Das John Dean Beispiel
Hinton nutzt Watergate-Aussagen als Beweis, dass Menschen konfabulieren:
John Dean sagte unter Eid über Treffen mit Nixon aus. Er versuchte, die Wahrheit zu sagen, lag aber “bei riesigen Mengen an Details falsch” - Treffen, die nie stattfanden, falsch zugeordnete Zitate. Dennoch war “die Quintessenz dessen, was er sagte, genau richtig.”
Wie Gedächtnis tatsächlich funktioniert
Weder Menschen noch LLMs speichern Informationen wie Dateien:
“We don’t store files and retrieve them; we construct memories when we need them, influenced by everything we’ve learned since.”
“Wir speichern keine Dateien und rufen sie ab; wir konstruieren Erinnerungen, wenn wir sie brauchen, beeinflusst von allem, was wir seitdem gelernt haben.”
Dieser Konstruktionsprozess kann Fehler einführen - derselbe Mechanismus hinter sowohl menschlichen falschen Erinnerungen als auch KI-Konfabulationen.
Implikationen
- Konfabulation ist normal - kein einzigartiger Bug der KI
- Verifizierung zählt - sowohl für menschliche als auch KI-Ausgaben
- Vertrauenskalibrierung - das wirkliche Problem ist, nicht zu wissen, wann man konfabuliert
Verwandte Begriffe
- Hallucination - Der gängige (aber wohl irreführende) Begriff
- Grounding - Ausgaben mit verifizierten Quellen verbinden