← Level 1
Level 1· Lektion 2 von 6

Halluzinationen erkennen

Warum AI selbstbewusst luegt und wie Du es merkst.

8 min

Was ist eine Halluzination?

Das Modell erfindet Fakten, Zitate, Paper-Titel, Personen oder Links — und praesentiert sie wie gesichertes Wissen. Es "weiss" nicht dass es nicht weiss.

Klassische Halluzinations-Muster

  • Erfundene Buch- oder Paper-Titel mit "echten" Autoren
  • URLs die plausibel aussehen aber nicht existieren
  • Falsche Versionsnummern oder Daten bei Software
  • Komplett erfundene Zitate von echten Leuten
  • Falsche Code-APIs die aussehen als koennten sie existieren

Wie Du Dich schuetzt

  1. Trau keiner Zahl die Dir das Modell gibt ohne Quelle
  2. Lass Dir Quellen nennen — aber check sie selber
  3. Frag nach Unsicherheit: "Wie sicher bist Du?"
  4. Bei Code: immer testen, nie blind kopieren
  5. Bei Recht/Medizin/Finanzen: immer Zweitquelle

Die Faustregel: Je spezifischer eine Aussage klingt, desto misstrauischer solltest Du sein.

Du liest ohne Account. Login speichert Deinen Fortschritt, damit Du beim naechsten Mal direkt weitermachen kannst. Einloggen →