Zum Hauptinhalt springen

Begriffe, die Entscheidungen tragen, brauchen Definitionen, die halten.

20 Fachbegriffe der KI-Entscheidungsarchitektur — definiert, kontextualisiert und maschinenlesbar ausgezeichnet.

Dieses Glossar dokumentiert das kontrollierte Vokabular dieser Seite. Jeder Begriff ist so definiert, dass er ohne weiteren Kontext zitierbar ist. Die Einträge sind thematisch gruppiert und mit den Seiten verknüpft, auf denen sie verwendet werden.

Architektur-Begriffe

Strukturen und Systeme

Semantische Unschärfe

Die Verwechslung oder Vermischung von Begriffen, die unterschiedliche Konzepte bezeichnen. In der Arbeit mit Sprachmodellen wirkt jedes Wort als Steuerbefehl. Wer „effizient" schreibt, aber „effektiv" meint, erzeugt einen Suchraum, der das eigentliche Ziel verfehlt. Semantische Unschärfe ist der häufigste Architekturbruch in der KI-gestützten Entscheidungsfindung und gleichzeitig der am leichtesten vermeidbare.

Verwendet in: Semantik, Startseite

Kognitionsarchitektur

Die strukturelle Organisation von Denkprozessen in einem System. In KI-Anwendungen beschreibt Kognitionsarchitektur, wie Wahrnehmung, Analyse, Integration und Validierung zusammenwirken. Eine bewusst gestaltete Kognitionsarchitektur unterscheidet kontrolliertes Denken von zufälliger Textgenerierung. Sie definiert die Reihenfolge, Tiefe und Prüflogik jedes Verarbeitungsschritts.

Verwendet in: HiCC Terminal

Entscheidungsarchitektur

Die Gesamtheit der Strukturen, Prozesse und Prüfmechanismen, die bestimmen, wie Entscheidungen zustande kommen. Entscheidungsarchitektur definiert nicht, was entschieden wird, sondern wie: Welche Informationen fließen ein, welche Prüfungen werden durchlaufen, wer trägt die Verantwortung. Qualität entsteht nicht durch bessere Antworten, sondern durch bessere Entscheidungsprozesse.

Verwendet in: Über mich, Startseite

Hierarchical Reasoning Model (HRM)

Eine mehrstufige Architektur, die Sprachmodelle von probabilistischer Vorhersage zu deterministischer Reflexion zwingt. Vier Verarbeitungsebenen — Wahrnehmung, Analyse, Integration und Validierung — bilden eine kontrollierte Denkkette. Jede Ebene hat einen definierten Auftrag und prüfbare Zwischenergebnisse. HRM ist das Architekturprinzip hinter dem HiCC Terminal und der Grund, warum dessen Ergebnisse auditierbar sind.

Verwendet in: HiCC Terminal, HiCC Architektur

Managed Deep Reasoning (mDR)

Ein Architekturkonzept, das kontrollierte Tiefenanalyse in KI-Systeme einbaut. Im Unterschied zu unkontrolliertem Chain-of-Thought-Reasoning definiert mDR explizite Zwischenschichten mit definierten Prüfpunkten. Jeder Denkschritt wird gespeichert, auditierbar gemacht und kann bei Qualitätsmängeln wiederholt werden. mDR macht den Unterschied zwischen „das Modell hat nachgedacht" und „das Modell hat kontrolliert analysiert".

Verwendet in: HiCC Terminal

Risiko-Muster

Vorhersagbare Schwachstellen

Reversal Trigger

Eine vorab definierte Bedingung, unter der eine bereits getroffene Entscheidung revidiert wird. Ohne Reversal Trigger fehlt die Lernschleife: Fehler werden nicht erkannt, Korrekturen nicht ausgelöst. Der Trigger macht explizit, was passieren muss, damit ein Beschluss hinterfragt wird — und verhindert so, dass Entscheidungen aus Trägheit bestehen bleiben.

Verwendet in: Prüfpfade, Startseite

Goodhart-Effekt

Wenn eine Kennzahl zum Ziel wird, hört sie auf, eine gute Kennzahl zu sein. In KI-Systemen bedeutet das: Wird ein Modell auf eine bestimmte Metrik optimiert, maximiert es diese Metrik — unabhängig davon, ob das eigentliche Ziel damit erreicht wird. Der Goodhart-Effekt erklärt, warum perfekte Scores und schlechte Ergebnisse gleichzeitig auftreten können. Das Risiko steigt, je mehr Entscheidungen automatisiert auf KPI-Basis getroffen werden.

Verwendet in: Prüfpfade, Startseite

Scheinpräzision

Ergebnisse, die durch exakte Zahlen, Prozentsätze oder Rankings Genauigkeit vortäuschen, obwohl die zugrundeliegende Datenlage diese Granularität nicht hergibt. Sprachmodelle liefern detaillierte Aufschlüsselungen mit hoher Überzeugungskraft. Die Präzision liegt in der Darstellung, nicht in den Daten. Scheinpräzision ist besonders gefährlich, weil sie das Vertrauen in ein Ergebnis erhöht, ohne dessen Qualität zu verbessern.

Verwendet in: Prüfpfade, Semantik, Startseite

Kontextverfall

Der schleichende Verlust an Aktualität und Relevanz der Daten, auf denen eine KI-Analyse basiert. Trainingsdaten, Marktbedingungen und regulatorische Rahmenbedingungen veralten. Kontextverfall bedeutet, dass ein Ergebnis zum Zeitpunkt seiner Erstellung korrekt gewesen sein mag, zum Zeitpunkt der Entscheidung aber nicht mehr gilt. Die Gefahr: Das Ergebnis liest sich weiterhin überzeugend, obwohl seine Grundlage längst überholt ist.

Verwendet in: Prüfpfade, Startseite

Tool Drift / Model Drift

Die schleichende Veränderung des Verhaltens eines KI-Systems über die Zeit. API-Versionen ändern sich, Modelle werden aktualisiert, Datenquellen verschieben sich. Ohne aktives Monitoring bleibt die Qualitätserosion unsichtbar, bis ein Fehler auftritt. Tool Drift ist das Systemrisiko, das entsteht, wenn ein einmal validiertes Werkzeug ohne Rückprüfung weiterbetrieben wird.

Verwendet in: Prüfpfade, Startseite

Verantwortungsdiffusion

Der Zustand, in dem keine klare Person für die Konsequenzen einer KI-gestützten Entscheidung zuständig ist. „Die KI hat empfohlen" ist keine Verantwortungszuordnung. Verantwortungsdiffusion führt dazu, dass niemand die Tragfähigkeit einer Empfehlung prüft, weil sich niemand für deren Scheitern verantwortlich fühlt. In Organisationen mit KI-Integration ist sie der häufigste Grund für ungeprüft übernommene Fehlentscheidungen.

Verwendet in: Prüfpfade, Startseite

Failure Mode

Ein dokumentiertes Muster, in dem ein System vorhersagbar versagt. In der KI-Entscheidungsarchitektur beschreibt ein Failure Mode nicht den Einzelfehler, sondern die strukturelle Schwachstelle, die zu wiederkehrenden Fehlern führt. Failure Modes zu kennen bedeutet, sie vor ihrem Eintreten erkennen und gegensteuern zu können. Die fünf häufigsten sind Scheinpräzision, Kontextverfall, Goodhart-Effekte, Tool Drift und Verantwortungsdiffusion.

Verwendet in: Prüfpfade, HiCC Terminal, Über mich

Werkzeuge & Frameworks

Instrumente für die Praxis

Decision Brief

Ein strukturiertes Entscheidungsdokument mit acht Feldern: Entscheidungsfrage, Kontext & Auslöser, Annahmen, Optionen, Bewertungskriterien, Risiken & Failure Modes, Empfehlung und Reversal Trigger. Das Decision Brief erzwingt Klarheit vor Handlung und macht die Denkqualität hinter einer Entscheidung auditierbar. Eine Seite. Jede Entscheidung. Kein Freitext, sondern Struktur.

Verwendet in: Prüfpfade, Startseite

KI-Request Standard

Ein sechsteiliges Briefing-Format, das die Qualität von KI-Anfragen systematisch absichert. Rolle, Aufgabe, Kontext, Qualitätskriterien, Ausgabeformat und Prüffrage werden explizit definiert, bevor eine Anfrage gestellt wird. Der Standard verhindert „Garbage in, plausible garbage out" und macht Anforderungen messbar. Er ist kein Prompt-Template, sondern eine Denkstruktur.

Verwendet in: Prüfpfade, Startseite

Guardrail Check

Fünf systematische Prüffragen, die vor jeder KI-gestützten Entscheidung beantwortet werden: Scheinpräzision, Kontextverfall, Goodhart-Risiko, Verantwortungslücke und Reversal Trigger. Der Guardrail Check deckt die fünf häufigsten Failure Modes ab und erzwingt eine bewusste Auseinandersetzung mit den Schwachstellen jeder KI-Analyse. Einsetzbar ohne Vorkenntnisse, Wirkung ab der ersten Anwendung.

Verwendet in: Prüfpfade, Startseite

Prüfpfad

Eine nachvollziehbare Kette von Prüfschritten, die dokumentiert, wie ein Ergebnis zustande kam. Prüfpfade machen Entscheidungslogik auditierbar und reversibel. Sie beantworten nicht nur „Was wurde entschieden?", sondern „Warum wurde es entschieden und auf welcher Basis?". In KI-gestützten Prozessen sind Prüfpfade die einzige Möglichkeit, zwischen fundiertem Ergebnis und plausiblem Zufall zu unterscheiden.

Verwendet in: Prüfpfade, Startseite

Steelman-Verfahren

Das Gegenteil des Strohmann-Arguments. Statt eine Position zu schwächen, um sie leichter widerlegen zu können, wird sie in ihrer stärksten möglichen Form konstruiert. Im HiCC-System simuliert die Analyse-Ebene Gegenpositionen im Steelman-Verfahren, um Scheinwiderlegungen zu vermeiden und die tatsächliche Tragfähigkeit einer These zu testen. Das Verfahren erzwingt intellektuelle Redlichkeit im Analyseprozess.

Verwendet in: HiCC Terminal

Denk- & Analysemethoden

Grundlagen des strukturierten Denkens

Evidenzgewichtung

Die systematische Bewertung von Belegen nach ihrer Qualität, Herkunft und Belastbarkeit. Nicht alle Evidenz ist gleichwertig: Eine kontrollierte Studie wiegt anders als eine Expertenmeinung, ein Datenpunkt anders als ein Erfahrungsbericht. Evidenzgewichtung verhindert, dass plausible Argumente gleichrangig neben empirisch gestützten Befunden stehen — und macht die Begründungsqualität einer Empfehlung transparent.

Verwendet in: Publikationen, Startseite

Epistemische Belastbarkeit

Das Maß dafür, wie gut eine Aussage oder Analyse einer kritischen Prüfung standhält. Eine epistemisch belastbare Empfehlung hat explizite Annahmen, nachvollziehbare Begründungen und definierte Bedingungen, unter denen sie revidiert werden muss. Das Gegenteil ist rhetorische Plausibilität ohne prüfbare Substanz. Epistemische Belastbarkeit ist das Qualitätskriterium, das KI-gestützte Analyse von KI-generierter Meinung trennt.

Verwendet in: Prüfpfade

System-1-Denken / System-2-Denken

Zwei Denkmodi nach Daniel Kahneman. System 1 arbeitet schnell, intuitiv und automatisch — es liefert die erste plausible Antwort. System 2 ist langsam, analytisch und kontrolliert — es prüft Annahmen und Argumentationsketten. Standard-Sprachmodelle operieren im System-1-Modus: Sie liefern die wahrscheinlichste, nicht die geprüfteste Antwort. Strukturierte KI-Architekturen wie HRM erzwingen System-2-Verarbeitung.

Verwendet in: HiCC Terminal

Zurück zur Übersicht