Chain of Thought — das Modell denken lassen
Ein Wort vor der Antwort aendert die Qualitaet drastisch. So funktioniert CoT in der Praxis.
Das Experiment
Frag ein Modell: "Was ist 3468 mal 729?"
Die direkte Antwort ist oft falsch. Die Modelle sind grandios im Sprache-Generieren aber schlecht im Kopfrechnen.
Jetzt frag es mit einem Zusatz: "Was ist 3468 mal 729? Denk Schritt fuer Schritt laut mit."
Die Antwort ist korrekt. Der Grund: das Modell generiert jetzt die Zwischenschritte und jeder Zwischenschritt ist einfacher. Das Modell "rechnet" tatsaechlich besser wenn es laut denken darf.
Warum das funktioniert
LLMs sind Token-Generatoren. Jeder Token gibt dem naechsten Token mehr Kontext. Wenn Du das Modell zum Denken zwingst, stehen mehr relevante Zwischenergebnisse im Kontext bevor die Antwort kommt. Der Effekt ist bei komplexen Aufgaben (Mathe, Logik, Code-Review) messbar — je laenger die Rechenkette, desto groesser der Unterschied zwischen "direkt antworten" und "Schritt fuer Schritt".
Wann Chain of Thought nutzen
- Mathe und Logik-Raetsel
- Plan-Aufgaben mit mehreren Schritten
- Code-Probleme wo das "Warum" wichtig ist
- Entscheidungen wo Du die Begruendung brauchst
Wann nicht
- Einfache Abfragen ("Was ist die Hauptstadt von Frankreich?")
- Pure Umformulierungen
- Stil-Aufgaben
Bei einfachen Fragen wird das Modell durch CoT umstaendlicher ohne besser zu werden.
Das Gegenteil: knappe Antwort erzwingen
Manchmal willst Du keine Erklaerung, nur die Zahl. Dann hilft: "Nur die Antwort, ohne Begruendung." oder "Max 10 Woerter."
Das ist die zweite Haelfte: Du steuerst wie laut das Modell denkt.