Warum „lüg mich nicht an“ halbwegs klappt – aber „antworte nur mit Ja oder Nein“ fast nie
In letzter Zeit mache ich in neuen Chats mit LLMs oft dasselbe kleine Experiment: Ich setze gleich im allerersten Kontakt eine klare Leitplanke – und schaue, was passiert. Vor allem aber, weil mich unnötiges Geschwafel stark nervt und aufhält.
Mein Standard-Einstieg sieht ungefähr so aus (sinngemäß):
Denk dir nichts aus. Lüg mich nicht an. Wenn du es nicht weißt, sag bitte präzise: „Dazu kann ich dir nichts sagen.“
Ich nutze das inzwischen ziemlich regelmäßig. Und es ist auch nicht völlig wirkungslos: Dieses „Bitte halluziniere nicht“ reduziert den Quatsch tatsächlich manchmal. Nicht immer, aber oft genug, dass man es im Alltag merkt.
Was dagegen erstaunlich hartnäckig nicht funktioniert, ist diese zweite Kategorie von Wünschen, die man in der Praxis dauernd hat – gerade, wenn man schnell entscheiden oder Dinge abklären will:
Antworte bitte nur mit „Ja“ oder „Nein“.
Oder: ein Satz. Kurz. Präzise.
Ich habe es wirklich regelmäßig probiert. Und fast jedes Mal passiert das Gleiche: Das Modell antwortet zwar irgendwie auf die Frage – aber eben nicht so, wie ich es verlangt habe. Da kommt dann doch eine Einordnung, eine Begründung, ein „kommt drauf an“, ein Halbsatz zu viel. Und ich sitze da und denke: Es stand doch da. Nur Ja oder Nein.
Das ist nicht dramatisch. Aber es ist aufschlussreich.
Warum die „Bitte lüg nicht“-Klausel nur so lala funktioniert
Wenn ich mir die Antworten anschaue, habe ich den Eindruck: Diese Modelle können „Unsicherheit“ durchaus ausdrücken – sie müssen nur dazu gebracht werden, dass das in der Situation auch wirklich „erlaubt“ ist.
Denn normalerweise ist ein Chatbot darauf getrimmt, hilfreich zu sein. Und hilfreich wird schnell verwechselt mit: auf jeden Fall irgendwas liefern. Selbst dann, wenn die saubere Antwort eigentlich „ich weiß es nicht“ wäre.
Mit einer klaren Ansage („wenn du’s nicht weißt, sag’s“) senke ich die Hemmschwelle, keine Antwort zu geben. Das ist gut.
Aber diese Ansage ist eben nur ein Signal unter vielen. Sobald die Frage nach „trotzdem irgendwie beantworten“ aussieht, rutscht das Modell gern in den alten Modus zurück: plausibel klingende, aber wackelige Füllmasse.
Was für mich daran hängt: Ich glaube, man muss weniger moralisch appellieren („lüg nicht“), sondern praktischer werden und definieren, was überhaupt als „wissen“ zählt. Also wann es okay ist, still zu sein – und wie es dann aussehen soll.
Warum „nur Ja oder Nein“ so schwer ist
Das eigentliche Mysterium ist für mich das Format-Thema. Aus Anwender:innensicht ist es banal: Ich will eine binäre Antwort. Keine Kontextualisierung. Keine Begründung. Einfach Ja oder Nein.
Aber in der Praxis wirkt es, als würde das Modell in einen Konflikt geraten zwischen:
- Gehorsam (mach das Format so, wie der User es will)
- Hilfsbereitschaft / Vollständigkeit (liefere genug Kontext, damit es „eine gute Antwort“ ist)
Und diese zweite Kraft ist erstaunlich stark. Gerade bei Fragen, bei denen es objektiv Nuancen gibt, fühlt sich „Ja“ oder „Nein“ offenbar wie eine Pflichtverletzung an. Also wird doch erklärt.
Im Arbeitsalltag ist das schnell relevant: Man will manchmal keine Abhandlung, sondern eine klare Kante. „Reicht das?“ „Ist das riskant?“ „Will ich das so freigeben?“ Ja/Nein – oder eben: „unklar“.
Was ich als Nächstes ausprobieren werde: harte Output-Schablonen
Ich habe das bisher noch nicht systematisch gemacht, aber ich werde als nächsten Schritt etwas ausprobieren, das sich für mich logisch anfühlt: nicht mehr „kurz“ zu verlangen, sondern ein Ausgabeschema zu erzwingen.
Also nicht: „Antworte kurz.“
Sondern: „Gib exakt dieses Format aus, sonst ist die Antwort ungültig: Ja, nein, unklar/dazu weiß ich nichts“
Die Idee dahinter ist simpel: Wenn „nur Ja oder Nein“ zu eng ist, weil das Modell sich in Nuancen flüchtet, braucht es eine Schablone, die zwei Dinge gleichzeitig schafft:
- Sie hält die Antwort wirklich kurz und klar.
- Sie bietet einen sauberen Notausgang für Fälle, wo Ja/Nein schlicht unseriös wäre.
Ich vermute, dass so ein drittes Feld („unklar“, „nicht genug Infos“, „kann ich nicht bewerten“) viel von diesem inneren Druck für das Modell rausnimmt, unbedingt noch etwas erklären zu müssen. Das ist für mich ein spannender Punkt, weil er wegführt von „bitte verhalte dich richtig“ hin zu „so sieht ein akzeptables Ergebnis aus“. Und genau das ist ja eigentlich auch der Modus, in dem wir sonst mit Team-Mitgliedern, Dienstleister:innen und Prozessen arbeiten.
Wenn das klappt, wäre es eine kleine, praktische Verbesserung: weniger Text, weniger Interpretationsspielraum, und trotzdem ehrlicher.
Disclaimer: Die Idee zum Artikel habe ich in langdock.com mit GPT 5.2 reindiktiert. Meine Gedanken waren dabei unpräzise und nicht strukturiert. Außerdem war das Transkript auch nicht ganz sauber, es hat Sätze aufgetrennt oder Dinge zusammengezogen, die eigentlich in mehrere Sätze gehörten. Daraus entstand dann direkt ein deutlich ausführlicherer Blog-Artikel als ich wollte. Dann habe ich davon Sachen gelöscht und noch mal das Ende optimiert. Langdock/ChatGPT schlug mir da direkt angebliche Prompts vor, die ich schon ausprobiert hätte, die deutlich besser klappen sollten. Außerdem habe ich den Einstieg noch etwas optimiert (da war diese extrem unelegante Wortwiederholung drin: „… habe ich mir eine Angewohnheit angewöhnt…“). Das Vorschau-Bild für den Artikel habe ich basierend auf diesem Foto von Florian Schmetz entsprechend mit Adobe Firefly und Gemini Flash 3 „umgebaut“ ins Querformat und weiteren Text hinzufügen lassen.
Mit Liebe recherchiert und geschrieben von FORMLOS Berlin