Geprüfte Antworten sind Antworten, denen du vertrauen kannst.
Drei Instrumente, die dein Denken schärfen und deine KI-Ergebnisse belastbar machen.
Decision Brief, KI-Request Standard und Guardrail Check – drei Werkzeuge, die sofort einsetzbar sind und jeden Engpass in einen Hebel für bessere Ergebnisse verwandeln.
„Wer echtes Verständnis sucht statt Bestätigung, stellt die Fragen, die zählen."
Prüfpfade & Frameworks
Werkzeuge für bessere Fragen und tiefere Antworten
Die folgenden Instrumente sind als minimalistische Entscheidungs und Prüfarchitektur konzipiert. Sie erhöhen die epistemische Belastbarkeit von KI gestützten Analysen, indem sie Annahmen, Bewertungslogiken und Revisionsbedingungen explizit machen. Damit verschiebst Du den Fokus von rhetorischer Plausibilität hin zu prüfbaren Begründungsstrukturen.
Decision Brief
8 Felder. Eine Seite. Jede Entscheidung.
Entscheidungsfrage
Formuliere eine präzise Entscheidungsfrage als Auswahlproblem, nicht als Themenetikett.
Beispiel: Nicht „Strategie Q3“, sondern „Sollen wir Markt X vor Q3 betreten?“
Kontext & Auslöser
Warum jetzt? Was hat sich geändert? Welcher Impuls erzwingt diese Entscheidung?
Annahmen
Explizit, nummeriert, falsifizierbar. Jede Annahme, die das Ergebnis trägt, muss sichtbar sein.
Optionen
Mindestens drei, inklusive "nichts tun". Binäre Fragestellungen sind fast immer ein Zeichen für fehlende Analyse.
Bewertungskriterien
Gewichtet und messbar. Ohne explizite Kriterien entscheidet das lauteste Argument.
Risiken & Failure Modes
Pro Option: Was kann schiefgehen? Welche Szenarien sind nicht abgedeckt?
Empfehlung
Mit Begründungskette. Nicht "ich empfehle X", sondern "gegeben A, B und C folgt X weil..."
Reversal Trigger
Unter welchen Bedingungen wird diese Entscheidung revidiert? Ohne definierten Trigger gibt es keine Lernschleife.
Zweck: Erzwingt Klarheit vor Handlung. Macht Denkqualität auditierbar.
KI-Request Standard
Briefing-Format für belastbare KI-Ergebnisse.
Rolle
Wer spricht? Analyst, Kritiker, Berater, Faktenchecker. Die Rolle bestimmt den Bewertungsrahmen.
Aufgabe
Was genau soll das Ergebnis leisten? Nicht "analysiere X", sondern "identifiziere die drei grössten Risiken in X".
Kontext
Domäne, Vorwissen, Einschränkungen. Was muss das System wissen, um sinnvoll zu arbeiten?
Qualitätskriterien
Prüfbarkeit, Quellenangabe, Unsicherheitsgrade. Wie erkennst du, ob das Ergebnis belastbar ist?
Ausgabeformat
Struktur, Länge, Zielgruppe. Ein C-Level-Summary unterscheidet sich von einer technischen Analyse.
Prüffrage
Woran erkenne ich, ob das Ergebnis taugt? Die Prüffrage zwingt zur Operationalisierung des Qualitätsanspruchs.
Zweck: Verhindert "Garbage in, plausible garbage out". Macht Anforderungen explizit.
Guardrail Check
5 Prüffragen vor jeder KI-gestützten Entscheidung.
Scheinpräzision
Klingt das Ergebnis präziser als die Datenlage hergibt? Zahlen und Prozentsätze suggerieren Gewissheit, die in der Datenbasis nicht vorhanden ist.
Kontextverfall
Sind die zugrundeliegenden Daten noch aktuell und relevant? Märkte, Regulierung und Wettbewerb ändern sich schneller als Modelle aktualisiert werden.
Goodhart-Risiko
Optimiert das System eine Metrik, die das eigentliche Ziel verfehlt? Wenn die Kennzahl zum Ziel wird, hört sie auf, eine gute Kennzahl zu sein.
Verantwortungslücke
Wer zeichnet verantwortlich, wenn das Ergebnis falsch ist? "Die KI hat empfohlen..." ist keine Verantwortungszuordnung.
Reversal Trigger
Unter welchen Bedingungen wird die Entscheidung revidiert? Ohne definierten Trigger gibt es keine Lernschleife und keine Kurskorrektur.
Zweck: Fünf Prüffragen, die aus plausiblen Antworten belastbare Ergebnisse machen.
Denkbewegung: Vier Schritte
Spiegel
Was wird hier behauptet? Was sind die tragenden Annahmen?
Test
Was müsste wahr sein, damit die Aussage hält? Was würde sie widerlegen?
Wert
Was steht auf dem Spiel? Was ist unter Risiko vertretbar?
Trigger
Unter welchen Bedingungen revidierst du die Entscheidung?
Fünf Muster, die du ab sofort erkennst und für dich nutzt
Scheinpräzision
Das System liefert Zahlen, Prozentsätze, Rankings. Sie klingen belastbar, aber die zugrundeliegende Datenlage gibt diese Granularität nicht her. Typisch bei KI-generierten Analysen, die Unsicherheit in scheinbare Gewissheit übersetzen.
Hebel: Wer Scheinpräzision erkennt, gewinnt echte Aussagekraft für seine Ergebnisse.
Kontextverfall
Das Ergebnis basiert auf Trainingsdaten oder Annahmen, die zum Zeitpunkt der Entscheidung nicht mehr gelten. Märkte, Regulierung, Wettbewerb ändern sich schneller als Modelle aktualisiert werden.
Hebel: Wer Kontextverfall prüft, trifft Entscheidungen auf aktuellem Stand statt auf veralteten Annahmen.
Goodhart-Effekte
"Wenn eine Kennzahl zum Ziel wird, hört sie auf, eine gute Kennzahl zu sein." KI-Systeme optimieren Metriken. Wenn die Metrik das eigentliche Ziel nicht abbildet, wird präzise das Falsche optimiert.
Hebel: Wer die richtigen Metriken wählt, lenkt KI-Optimierung auf das tatsächliche Ziel.
Tool Drift / Model Drift
Das System funktioniert heute. In sechs Monaten haben sich API-Versionen, Modellverhalten, Datenquellen verändert. Ohne Monitoring entsteht schleichende Qualitätserosion, die erst bei einem Fehlerereignis sichtbar wird.
Hebel: Wer Drift systematisch überwacht, sichert langfristige Ergebnisqualität.
Verantwortungsdiffusion
"Die KI hat empfohlen..." ist keine Verantwortungszuordnung. Wenn unklar ist, wer bei Fehlern zuständig ist, wird niemand prüfen, ob die Empfehlung tragfähig war.
Hebel: Wer Verantwortung klar zuordnet, schafft die Grundlage für echte Qualitätskontrolle.