Halluzination
Wenn ein KI-Modell falsche Informationen überzeugend als Fakt präsentiert — eines der größten Probleme aktueller Sprachmodelle.
Definition
Eine Halluzination liegt vor, wenn ein KI-Modell Informationen erfindet und sie mit hoher Überzeugung als wahr darstellt. Das Modell generiert plausibel klingenden Text, der faktisch falsch ist — etwa erfundene Studien, falsche Zahlen oder nicht existierende Personen. Halluzinationen entstehen, weil LLMs statistische Textmuster reproduzieren, nicht Wissen verifizieren. Gegenmaßnahmen sind RAG (Antworten auf echte Dokumente stützen), Quellenangaben einfordern, Faktenprüfung und niedrigere Temperature-Einstellungen. Bei KI-Agenten sind Halluzinationen besonders gefährlich, weil ein erfundenes Ergebnis automatisch an den nächsten Arbeitsschritt weitergegeben wird.
Verwandte Begriffe
KI-Wissen vertiefen?
KI-Überblick liefert täglich eingeordnete KI-Trends, Lernpfade und Deep Dives — 14 Tage kostenlos.
Kostenlos starten