Begriffe, die Entscheidungen tragen, brauchen Definitionen, die halten.
20 Fachbegriffe der KI-Entscheidungsarchitektur — definiert, kontextualisiert und maschinenlesbar ausgezeichnet.
Dieses Glossar dokumentiert das kontrollierte Vokabular dieser Seite. Jeder Begriff ist so definiert, dass er ohne weiteren Kontext zitierbar ist. Die Einträge sind thematisch gruppiert und mit den Seiten verknüpft, auf denen sie verwendet werden.
Architektur-Begriffe
Strukturen und Systeme
Semantische Unschärfe
Die Verwechslung oder Vermischung von Begriffen, die unterschiedliche Konzepte bezeichnen. In der Arbeit mit Sprachmodellen wirkt jedes Wort als Steuerbefehl. Wer „effizient" schreibt, aber „effektiv" meint, erzeugt einen Suchraum, der das eigentliche Ziel verfehlt. Semantische Unschärfe ist der häufigste Architekturbruch in der KI-gestützten Entscheidungsfindung und gleichzeitig der am leichtesten vermeidbare.
Verwendet in: Semantik, Startseite
Kognitionsarchitektur
Die strukturelle Organisation von Denkprozessen in einem System. In KI-Anwendungen beschreibt Kognitionsarchitektur, wie Wahrnehmung, Analyse, Integration und Validierung zusammenwirken. Eine bewusst gestaltete Kognitionsarchitektur unterscheidet kontrolliertes Denken von zufälliger Textgenerierung. Sie definiert die Reihenfolge, Tiefe und Prüflogik jedes Verarbeitungsschritts.
Verwendet in: HiCC Terminal
Entscheidungsarchitektur
Die Gesamtheit der Strukturen, Prozesse und Prüfmechanismen, die bestimmen, wie Entscheidungen zustande kommen. Entscheidungsarchitektur definiert nicht, was entschieden wird, sondern wie: Welche Informationen fließen ein, welche Prüfungen werden durchlaufen, wer trägt die Verantwortung. Qualität entsteht nicht durch bessere Antworten, sondern durch bessere Entscheidungsprozesse.
Verwendet in: Über mich, Startseite
Hierarchical Reasoning Model (HRM)
Eine mehrstufige Architektur, die Sprachmodelle von probabilistischer Vorhersage zu deterministischer Reflexion zwingt. Vier Verarbeitungsebenen — Wahrnehmung, Analyse, Integration und Validierung — bilden eine kontrollierte Denkkette. Jede Ebene hat einen definierten Auftrag und prüfbare Zwischenergebnisse. HRM ist das Architekturprinzip hinter dem HiCC Terminal und der Grund, warum dessen Ergebnisse auditierbar sind.
Verwendet in: HiCC Terminal, HiCC Architektur
Managed Deep Reasoning (mDR)
Ein Architekturkonzept, das kontrollierte Tiefenanalyse in KI-Systeme einbaut. Im Unterschied zu unkontrolliertem Chain-of-Thought-Reasoning definiert mDR explizite Zwischenschichten mit definierten Prüfpunkten. Jeder Denkschritt wird gespeichert, auditierbar gemacht und kann bei Qualitätsmängeln wiederholt werden. mDR macht den Unterschied zwischen „das Modell hat nachgedacht" und „das Modell hat kontrolliert analysiert".
Verwendet in: HiCC Terminal
Risiko-Muster
Vorhersagbare Schwachstellen
Reversal Trigger
Eine vorab definierte Bedingung, unter der eine bereits getroffene Entscheidung revidiert wird. Ohne Reversal Trigger fehlt die Lernschleife: Fehler werden nicht erkannt, Korrekturen nicht ausgelöst. Der Trigger macht explizit, was passieren muss, damit ein Beschluss hinterfragt wird — und verhindert so, dass Entscheidungen aus Trägheit bestehen bleiben.
Verwendet in: Prüfpfade, Startseite
Goodhart-Effekt
Wenn eine Kennzahl zum Ziel wird, hört sie auf, eine gute Kennzahl zu sein. In KI-Systemen bedeutet das: Wird ein Modell auf eine bestimmte Metrik optimiert, maximiert es diese Metrik — unabhängig davon, ob das eigentliche Ziel damit erreicht wird. Der Goodhart-Effekt erklärt, warum perfekte Scores und schlechte Ergebnisse gleichzeitig auftreten können. Das Risiko steigt, je mehr Entscheidungen automatisiert auf KPI-Basis getroffen werden.
Verwendet in: Prüfpfade, Startseite
Scheinpräzision
Ergebnisse, die durch exakte Zahlen, Prozentsätze oder Rankings Genauigkeit vortäuschen, obwohl die zugrundeliegende Datenlage diese Granularität nicht hergibt. Sprachmodelle liefern detaillierte Aufschlüsselungen mit hoher Überzeugungskraft. Die Präzision liegt in der Darstellung, nicht in den Daten. Scheinpräzision ist besonders gefährlich, weil sie das Vertrauen in ein Ergebnis erhöht, ohne dessen Qualität zu verbessern.
Verwendet in: Prüfpfade, Semantik, Startseite
Kontextverfall
Der schleichende Verlust an Aktualität und Relevanz der Daten, auf denen eine KI-Analyse basiert. Trainingsdaten, Marktbedingungen und regulatorische Rahmenbedingungen veralten. Kontextverfall bedeutet, dass ein Ergebnis zum Zeitpunkt seiner Erstellung korrekt gewesen sein mag, zum Zeitpunkt der Entscheidung aber nicht mehr gilt. Die Gefahr: Das Ergebnis liest sich weiterhin überzeugend, obwohl seine Grundlage längst überholt ist.
Verwendet in: Prüfpfade, Startseite
Tool Drift / Model Drift
Die schleichende Veränderung des Verhaltens eines KI-Systems über die Zeit. API-Versionen ändern sich, Modelle werden aktualisiert, Datenquellen verschieben sich. Ohne aktives Monitoring bleibt die Qualitätserosion unsichtbar, bis ein Fehler auftritt. Tool Drift ist das Systemrisiko, das entsteht, wenn ein einmal validiertes Werkzeug ohne Rückprüfung weiterbetrieben wird.
Verwendet in: Prüfpfade, Startseite
Verantwortungsdiffusion
Der Zustand, in dem keine klare Person für die Konsequenzen einer KI-gestützten Entscheidung zuständig ist. „Die KI hat empfohlen" ist keine Verantwortungszuordnung. Verantwortungsdiffusion führt dazu, dass niemand die Tragfähigkeit einer Empfehlung prüft, weil sich niemand für deren Scheitern verantwortlich fühlt. In Organisationen mit KI-Integration ist sie der häufigste Grund für ungeprüft übernommene Fehlentscheidungen.
Verwendet in: Prüfpfade, Startseite
Failure Mode
Ein dokumentiertes Muster, in dem ein System vorhersagbar versagt. In der KI-Entscheidungsarchitektur beschreibt ein Failure Mode nicht den Einzelfehler, sondern die strukturelle Schwachstelle, die zu wiederkehrenden Fehlern führt. Failure Modes zu kennen bedeutet, sie vor ihrem Eintreten erkennen und gegensteuern zu können. Die fünf häufigsten sind Scheinpräzision, Kontextverfall, Goodhart-Effekte, Tool Drift und Verantwortungsdiffusion.
Verwendet in: Prüfpfade, HiCC Terminal, Über mich
Werkzeuge & Frameworks
Instrumente für die Praxis
Decision Brief
Ein strukturiertes Entscheidungsdokument mit acht Feldern: Entscheidungsfrage, Kontext & Auslöser, Annahmen, Optionen, Bewertungskriterien, Risiken & Failure Modes, Empfehlung und Reversal Trigger. Das Decision Brief erzwingt Klarheit vor Handlung und macht die Denkqualität hinter einer Entscheidung auditierbar. Eine Seite. Jede Entscheidung. Kein Freitext, sondern Struktur.
Verwendet in: Prüfpfade, Startseite
KI-Request Standard
Ein sechsteiliges Briefing-Format, das die Qualität von KI-Anfragen systematisch absichert. Rolle, Aufgabe, Kontext, Qualitätskriterien, Ausgabeformat und Prüffrage werden explizit definiert, bevor eine Anfrage gestellt wird. Der Standard verhindert „Garbage in, plausible garbage out" und macht Anforderungen messbar. Er ist kein Prompt-Template, sondern eine Denkstruktur.
Verwendet in: Prüfpfade, Startseite
Guardrail Check
Fünf systematische Prüffragen, die vor jeder KI-gestützten Entscheidung beantwortet werden: Scheinpräzision, Kontextverfall, Goodhart-Risiko, Verantwortungslücke und Reversal Trigger. Der Guardrail Check deckt die fünf häufigsten Failure Modes ab und erzwingt eine bewusste Auseinandersetzung mit den Schwachstellen jeder KI-Analyse. Einsetzbar ohne Vorkenntnisse, Wirkung ab der ersten Anwendung.
Verwendet in: Prüfpfade, Startseite
Prüfpfad
Eine nachvollziehbare Kette von Prüfschritten, die dokumentiert, wie ein Ergebnis zustande kam. Prüfpfade machen Entscheidungslogik auditierbar und reversibel. Sie beantworten nicht nur „Was wurde entschieden?", sondern „Warum wurde es entschieden und auf welcher Basis?". In KI-gestützten Prozessen sind Prüfpfade die einzige Möglichkeit, zwischen fundiertem Ergebnis und plausiblem Zufall zu unterscheiden.
Verwendet in: Prüfpfade, Startseite
Steelman-Verfahren
Das Gegenteil des Strohmann-Arguments. Statt eine Position zu schwächen, um sie leichter widerlegen zu können, wird sie in ihrer stärksten möglichen Form konstruiert. Im HiCC-System simuliert die Analyse-Ebene Gegenpositionen im Steelman-Verfahren, um Scheinwiderlegungen zu vermeiden und die tatsächliche Tragfähigkeit einer These zu testen. Das Verfahren erzwingt intellektuelle Redlichkeit im Analyseprozess.
Verwendet in: HiCC Terminal
Denk- & Analysemethoden
Grundlagen des strukturierten Denkens
Evidenzgewichtung
Die systematische Bewertung von Belegen nach ihrer Qualität, Herkunft und Belastbarkeit. Nicht alle Evidenz ist gleichwertig: Eine kontrollierte Studie wiegt anders als eine Expertenmeinung, ein Datenpunkt anders als ein Erfahrungsbericht. Evidenzgewichtung verhindert, dass plausible Argumente gleichrangig neben empirisch gestützten Befunden stehen — und macht die Begründungsqualität einer Empfehlung transparent.
Verwendet in: Publikationen, Startseite
Epistemische Belastbarkeit
Das Maß dafür, wie gut eine Aussage oder Analyse einer kritischen Prüfung standhält. Eine epistemisch belastbare Empfehlung hat explizite Annahmen, nachvollziehbare Begründungen und definierte Bedingungen, unter denen sie revidiert werden muss. Das Gegenteil ist rhetorische Plausibilität ohne prüfbare Substanz. Epistemische Belastbarkeit ist das Qualitätskriterium, das KI-gestützte Analyse von KI-generierter Meinung trennt.
Verwendet in: Prüfpfade
System-1-Denken / System-2-Denken
Zwei Denkmodi nach Daniel Kahneman. System 1 arbeitet schnell, intuitiv und automatisch — es liefert die erste plausible Antwort. System 2 ist langsam, analytisch und kontrolliert — es prüft Annahmen und Argumentationsketten. Standard-Sprachmodelle operieren im System-1-Modus: Sie liefern die wahrscheinlichste, nicht die geprüfteste Antwort. Strukturierte KI-Architekturen wie HRM erzwingen System-2-Verarbeitung.
Verwendet in: HiCC Terminal