Level 1· Lektion 2 von 6
Halluzinationen erkennen
Warum AI selbstbewusst luegt und wie Du es merkst.
8 min
Was ist eine Halluzination?
Das Modell erfindet Fakten, Zitate, Paper-Titel, Personen oder Links — und praesentiert sie wie gesichertes Wissen. Es "weiss" nicht dass es nicht weiss.
Klassische Halluzinations-Muster
- Erfundene Buch- oder Paper-Titel mit "echten" Autoren
- URLs die plausibel aussehen aber nicht existieren
- Falsche Versionsnummern oder Daten bei Software
- Komplett erfundene Zitate von echten Leuten
- Falsche Code-APIs die aussehen als koennten sie existieren
Wie Du Dich schuetzt
- Trau keiner Zahl die Dir das Modell gibt ohne Quelle
- Lass Dir Quellen nennen — aber check sie selber
- Frag nach Unsicherheit: "Wie sicher bist Du?"
- Bei Code: immer testen, nie blind kopieren
- Bei Recht/Medizin/Finanzen: immer Zweitquelle
Die Faustregel: Je spezifischer eine Aussage klingt, desto misstrauischer solltest Du sein.
Du liest ohne Account. Login speichert Deinen Fortschritt, damit Du beim naechsten Mal direkt weitermachen kannst. Einloggen →