Zum Hauptinhalt springen

Wer die Architektur der Frage beherrscht, beherrscht die Qualität des Ergebnisses.

Zehn Unterscheidungen, die deine KI-Ergebnisse grundlegend verbessern.

Wer diese Unterscheidungen beherrscht, steuert KI gezielter und bekommt Ergebnisse, die wirklich auf das eigene Ziel einzahlen.

„Bevor Du startest, überlege wo Du wirklich hin willst."

Architektur | Semantische Unschärfe

Unterscheidungen, die Entscheidungen schärfen

Zehn Begriffspaare, die im KI-Alltag häufig verwechselt werden. Jede Verwechslung verschiebt den Suchraum der KI und damit das Ergebnis. Präzise Sprache ist die Voraussetzung für präzises Denken.

Beschreibung vs. Empfehlung

Beschreibung: Was ist der Fall. Was ist beobachtbar.

Empfehlung: Was solltest du tun. Mit welchen Trade-offs.

LLMs schreiben fließend in einem Ton, der nach fundierter Einschätzung klingt, auch wenn die Entscheidungslage nicht geklärt ist. Eine Beschreibung wird zur impliziten Empfehlung, ohne dass Alternativen oder Risiken benannt werden.

Prüffrage: Beschreibt die Antwort nur oder rechtfertigt sie bereits eine Handlung?

Gewinn: Wer diesen Unterschied beherrscht, erkennt implizite Handlungsaufforderungen und trifft bewusste statt suggerierte Entscheidungen.

Korrelation vs. Kausalität

Korrelation: Zwei Dinge bewegen sich gemeinsam.

Kausalität: A verursacht B.

LLMs können aus Mustern elegante Ursachenketten ableiten, ohne dass ein Beleg vorliegt. Die Erklärung klingt schlüssig, weil sie narrativ funktioniert, nicht weil sie kausal belegt ist.

Prüffrage: Welche Beobachtung würde die Kausalbehauptung falsifizieren?

Gewinn: Wer Korrelation von Kausalität trennt, vermeidet teure Fehlschlüsse und investiert in die wirklichen Ursachen.

Plausible Begründung vs. Evidenz

Begründung: Klingt logisch. Ist erzählbar.

Evidenz: Messung, Quelle, Nachweis, Reproduzierbarkeit.

LLMs sind Begründungsmaschinen, nicht Wahrheitsmaschinen. Sie erzeugen sprachlich kohärente Argumentationsketten, unabhängig davon, ob eine empirische Grundlage existiert.

Prüffrage: Welche Quelle oder Messung trägt die Aussage wirklich?

Gewinn: Wer Evidenz einfordert, bekommt Ergebnisse, die Prüfungen standhalten und Vertrauen verdienen.

Sicherheit vs. Treffgenauigkeit

Sicherheit (Confidence): Wie überzeugt etwas formuliert wird.

Treffgenauigkeit (Accuracy): Ob es stimmt.

Hohe Sicherheit in der Formulierung ist oft nur Stil, nicht Qualität. LLMs formulieren mit gleichbleibender Überzeugungskraft, unabhängig davon, ob die Aussage zutrifft.

Prüffrage: Gibt es einen unabhängigen Check, der Accuracy prüft, nicht nur Stil?

Gewinn: Wer Confidence hinterfragt, filtert selbstsichere Fehler heraus und erhöht die tatsächliche Trefferquote.

Präzision vs. Genauigkeit

Präzision: Viele Details, klare Zahlen, exakte Formulierungen.

Genauigkeit: Die Details treffen die Realität.

Scheinpräzision wirkt wie Kompetenz, kann aber komplett danebenliegen. LLMs liefern exakte Zahlen und detaillierte Aufschlüsselungen, ohne dass die Datenlage diese Granularität hergibt.

Prüffrage: Sind die Zahlen verifiziert oder nur präzise ausformuliert?

Gewinn: Wer Präzision von Genauigkeit unterscheidet, erkennt scheinbar exakte Zahlen als das, was sie wirklich sind.

Spezifische Antwort vs. richtige Antwort

Spezifisch: Klingt zugeschnitten, konkret, handlungsnah.

Richtig: Trifft das Problem und hält Gegenprüfung stand.

LLMs passen ihre Antworten an den Kontext an, auch wenn die zugrundeliegenden Annahmen falsch sind. Die Antwort wirkt maßgeschneidert, weil sie den Ton trifft, nicht weil sie das Problem löst.

Prüffrage: Welche Annahmen müssen wahr sein, damit die spezifische Antwort stimmt?

Gewinn: Wer Spezifik hinterfragt, bekommt Antworten, die nicht nur detailliert, sondern tatsächlich zutreffend sind.

Kontext vs. Ziel

Kontext: Hintergrundinformationen, Rahmen, Situation.

Ziel: Was soll erreicht werden und wie misst du es.

Viel Kontext ohne Ziel führt zu hübschen Texten ohne Outcome. LLMs verarbeiten bereitwillig jede Hintergrundinformation, ohne zu prüfen, ob ein operationalisierbares Ziel definiert ist.

Prüffrage: Ist das Ziel operationalisiert oder nur beschrieben?

Gewinn: Wer Kontext und Ziel klar trennt, steuert KI auf messbare Ergebnisse statt auf vage Richtungen.

Konsistenz vs. Korrektheit

Konsistenz: Innere Stimmigkeit, keine Widersprüche im Text.

Korrektheit: Übereinstimmung mit Fakten, Logik, Daten.

LLMs können sehr konsistent falsch sein. Ein in sich stimmiger Text erweckt den Eindruck von Verlässlichkeit, auch wenn er auf falschen Prämissen aufbaut.

Prüffrage: Was ist der externe Anker, der Korrektheit prüft?

Gewinn: Wer externe Prüfanker definiert, erkennt konsistente aber falsche Antworten, bevor sie Entscheidungen tragen.

Generalisierung vs. Übertragbarkeit

Generalisierung: Das gilt oft.

Übertragbarkeit: Gilt es in deinem Kontext, mit deinen Constraints, jetzt.

LLMs tendieren zu Standardrezepten, die lokale Constraints ignorieren. Was in einem Lehrbuchbeispiel funktioniert, scheitert an den Randbedingungen des konkreten Systems.

Prüffrage: Welche Randbedingung deines Systems bricht dieses Rezept?

Gewinn: Wer Übertragbarkeit prüft, vermeidet Lösungen, die nur im Labor funktionieren, und gewinnt echte Anwendbarkeit.

Narrativ vs. Modell

Narrativ: Gute Geschichte, sinnvolle Reihenfolge, überzeugend.

Modell: Explizite Variablen, Abhängigkeiten, Mechanismen, Testbarkeit.

Gute Geschichten fühlen sich wie Verständnis an. LLMs erzeugen narrative Kohärenz, die den Eindruck eines funktionierenden Modells erweckt, ohne dass Variablen, Abhängigkeiten oder Testbedingungen explizit benannt sind.

Prüffrage: Welche Variablen und Abhängigkeiten sind explizit und testbar benannt?

Gewinn: Wer Narrative von Modellen unterscheidet, baut auf testbare Zusammenhänge statt auf überzeugende Geschichten.

„Ein gutes System denkt nicht für Dich... Es zwingt Dich, klarer zu denken."

Zurück zur Übersicht