Zum Hauptinhalt springen

Geprüfte Antworten sind Antworten, denen du vertrauen kannst.

Drei Instrumente, die dein Denken schärfen und deine KI-Ergebnisse belastbar machen.

Decision Brief, KI-Request Standard und Guardrail Check – drei Werkzeuge, die sofort einsetzbar sind und jeden Engpass in einen Hebel für bessere Ergebnisse verwandeln.

„Wer echtes Verständnis sucht statt Bestätigung, stellt die Fragen, die zählen."

Prüfpfade & Frameworks

Werkzeuge für bessere Fragen und tiefere Antworten

Die folgenden Instrumente sind als minimalistische Entscheidungs und Prüfarchitektur konzipiert. Sie erhöhen die epistemische Belastbarkeit von KI gestützten Analysen, indem sie Annahmen, Bewertungslogiken und Revisionsbedingungen explizit machen. Damit verschiebst Du den Fokus von rhetorischer Plausibilität hin zu prüfbaren Begründungsstrukturen.

Decision Brief

8 Felder. Eine Seite. Jede Entscheidung.

01

Entscheidungsfrage

Formuliere eine präzise Entscheidungsfrage als Auswahlproblem, nicht als Themenetikett.

Beispiel: Nicht „Strategie Q3“, sondern „Sollen wir Markt X vor Q3 betreten?“

02

Kontext & Auslöser

Warum jetzt? Was hat sich geändert? Welcher Impuls erzwingt diese Entscheidung?

03

Annahmen

Explizit, nummeriert, falsifizierbar. Jede Annahme, die das Ergebnis trägt, muss sichtbar sein.

04

Optionen

Mindestens drei, inklusive "nichts tun". Binäre Fragestellungen sind fast immer ein Zeichen für fehlende Analyse.

05

Bewertungskriterien

Gewichtet und messbar. Ohne explizite Kriterien entscheidet das lauteste Argument.

06

Risiken & Failure Modes

Pro Option: Was kann schiefgehen? Welche Szenarien sind nicht abgedeckt?

07

Empfehlung

Mit Begründungskette. Nicht "ich empfehle X", sondern "gegeben A, B und C folgt X weil..."

08

Reversal Trigger

Unter welchen Bedingungen wird diese Entscheidung revidiert? Ohne definierten Trigger gibt es keine Lernschleife.

Zweck: Erzwingt Klarheit vor Handlung. Macht Denkqualität auditierbar.

KI-Request Standard

Briefing-Format für belastbare KI-Ergebnisse.

01

Rolle

Wer spricht? Analyst, Kritiker, Berater, Faktenchecker. Die Rolle bestimmt den Bewertungsrahmen.

02

Aufgabe

Was genau soll das Ergebnis leisten? Nicht "analysiere X", sondern "identifiziere die drei grössten Risiken in X".

03

Kontext

Domäne, Vorwissen, Einschränkungen. Was muss das System wissen, um sinnvoll zu arbeiten?

04

Qualitätskriterien

Prüfbarkeit, Quellenangabe, Unsicherheitsgrade. Wie erkennst du, ob das Ergebnis belastbar ist?

05

Ausgabeformat

Struktur, Länge, Zielgruppe. Ein C-Level-Summary unterscheidet sich von einer technischen Analyse.

06

Prüffrage

Woran erkenne ich, ob das Ergebnis taugt? Die Prüffrage zwingt zur Operationalisierung des Qualitätsanspruchs.

Zweck: Verhindert "Garbage in, plausible garbage out". Macht Anforderungen explizit.

Guardrail Check

5 Prüffragen vor jeder KI-gestützten Entscheidung.

01

Scheinpräzision

Klingt das Ergebnis präziser als die Datenlage hergibt? Zahlen und Prozentsätze suggerieren Gewissheit, die in der Datenbasis nicht vorhanden ist.

02

Kontextverfall

Sind die zugrundeliegenden Daten noch aktuell und relevant? Märkte, Regulierung und Wettbewerb ändern sich schneller als Modelle aktualisiert werden.

03

Goodhart-Risiko

Optimiert das System eine Metrik, die das eigentliche Ziel verfehlt? Wenn die Kennzahl zum Ziel wird, hört sie auf, eine gute Kennzahl zu sein.

04

Verantwortungslücke

Wer zeichnet verantwortlich, wenn das Ergebnis falsch ist? "Die KI hat empfohlen..." ist keine Verantwortungszuordnung.

05

Reversal Trigger

Unter welchen Bedingungen wird die Entscheidung revidiert? Ohne definierten Trigger gibt es keine Lernschleife und keine Kurskorrektur.

Zweck: Fünf Prüffragen, die aus plausiblen Antworten belastbare Ergebnisse machen.

Denkbewegung: Vier Schritte

Spiegel

Was wird hier behauptet? Was sind die tragenden Annahmen?

Test

Was müsste wahr sein, damit die Aussage hält? Was würde sie widerlegen?

Wert

Was steht auf dem Spiel? Was ist unter Risiko vertretbar?

Trigger

Unter welchen Bedingungen revidierst du die Entscheidung?

Fünf Muster, die du ab sofort erkennst und für dich nutzt

Scheinpräzision

Das System liefert Zahlen, Prozentsätze, Rankings. Sie klingen belastbar, aber die zugrundeliegende Datenlage gibt diese Granularität nicht her. Typisch bei KI-generierten Analysen, die Unsicherheit in scheinbare Gewissheit übersetzen.

Hebel: Wer Scheinpräzision erkennt, gewinnt echte Aussagekraft für seine Ergebnisse.

Kontextverfall

Das Ergebnis basiert auf Trainingsdaten oder Annahmen, die zum Zeitpunkt der Entscheidung nicht mehr gelten. Märkte, Regulierung, Wettbewerb ändern sich schneller als Modelle aktualisiert werden.

Hebel: Wer Kontextverfall prüft, trifft Entscheidungen auf aktuellem Stand statt auf veralteten Annahmen.

Goodhart-Effekte

"Wenn eine Kennzahl zum Ziel wird, hört sie auf, eine gute Kennzahl zu sein." KI-Systeme optimieren Metriken. Wenn die Metrik das eigentliche Ziel nicht abbildet, wird präzise das Falsche optimiert.

Hebel: Wer die richtigen Metriken wählt, lenkt KI-Optimierung auf das tatsächliche Ziel.

Tool Drift / Model Drift

Das System funktioniert heute. In sechs Monaten haben sich API-Versionen, Modellverhalten, Datenquellen verändert. Ohne Monitoring entsteht schleichende Qualitätserosion, die erst bei einem Fehlerereignis sichtbar wird.

Hebel: Wer Drift systematisch überwacht, sichert langfristige Ergebnisqualität.

Verantwortungsdiffusion

"Die KI hat empfohlen..." ist keine Verantwortungszuordnung. Wenn unklar ist, wer bei Fehlern zuständig ist, wird niemand prüfen, ob die Empfehlung tragfähig war.

Hebel: Wer Verantwortung klar zuordnet, schafft die Grundlage für echte Qualitätskontrolle.

Zurück zur Übersicht