Was ich denke, hat einen Boden.
Bibliographie der Quellen, auf denen die Konzepte dieser Seite stehen.
Jede Aussage auf dieser Seite, die nicht aus eigenem Denken stammt, lässt sich hier nachschlagen. Vier Cluster: Recht und Regulierung, KI-Architektur und Modellverhalten, Methodik und Entscheiden, Eigenarbeit und Begriffsbildung. Marker im Body sind klickbar und führen direkt zum Eintrag.
„Quellen sind keine Dekoration. Sie sind die Spur, der eine Behauptung folgen lassen kann, was vor ihr gedacht wurde."
[R] Cluster R
Recht & Regulierung
Verordnungen, Gesetze und Standardwerke des IT-Sicherheits- und Datenschutzrechts. Bilden den Rahmen, in dem KI-Entscheidungen geprüft und verantwortet werden.
Bundesgesetzgeber (2025). Gesetz zur Umsetzung der NIS-2-Richtlinie und zur Regelung wesentlicher Grundzüge des Informationssicherheitsmanagements in der Bundesverwaltung (NIS2UmsuCG). BGBl. 2025 I Nr. 301, in Kraft seit 6. Dezember 2025. Insbesondere § 28, § 30, § 33, § 38 BSIG n.F.
Begründet die persönliche, nicht delegierbare Verantwortung der Geschäftsleitung für KI-gestützte Risikomanagementprozesse. Rahmen für jede Aussage zu Haftung und Audit-Trail.
Europäisches Parlament und Rat (2022). Richtlinie (EU) 2022/2555 (NIS-2-Richtlinie). ABl. L 333 vom 27.12.2022, S. 80–152.
Europäische Grundlage des deutschen NIS2UmsuCG. Definiert die Mindeststandards des Risikomanagements für regulierte Sektoren.
Europäisches Parlament und Rat (2024). Verordnung (EU) 2024/1689 (KI-Verordnung / AI Act). ABl. L, 2024/1689, 12.7.2024. Insbesondere Art. 4, 12–14, 26.
Verbindlicher europäischer Rechtsrahmen für den Einsatz von KI. Hier zentral für die Anforderung menschlicher Aufsicht und für die KI-Kompetenzpflicht.
Europäisches Parlament und Rat (2016). Verordnung (EU) 2016/679 (DSGVO). ABl. L 119 vom 4.5.2016. Insbesondere Art. 5, 22, 25, 35.
Schutzrahmen für personenbezogene Daten in KI-Anfragen. Verbietet automatisierte Entscheidungen über Personen ohne menschliche Prüfung.
Datenschutzkonferenz (DSK) (2018). Liste der Verarbeitungstätigkeiten, für die eine Datenschutz-Folgenabschätzung durchzuführen ist (Art. 35 Abs. 4 DSGVO). Version 1.1 vom 17. Oktober 2018.
Operationalisierung der DSGVO-Pflicht zur Datenschutz-Folgenabschätzung für KI-gestützte Personalentscheidungen.
Hornung G, Schallbruch M (Hrsg.) (2024). IT-Sicherheitsrecht. Praxishandbuch. 2. Aufl., Nomos, Baden-Baden, ISBN 978-3-7560-0496-6.
Wissenschaftliche Einordnung der NIS2-Pflichten und der Geschäftsführerhaftung. Standardwerk für die rechtliche Grundlagenarbeit.
[A] Cluster A
KI-Architektur & Modellverhalten
Forschung zu Designprinzipien, Verzerrungsmustern und strukturellen Grenzen von Sprachmodellen. Kern der Frage, warum Plausibilität und Belastbarkeit auseinanderfallen.
Bender EM, Gebru T, McMillan-Major A, Shmitchell S (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? FAccT ’21, S. 610–623. DOI
Stützt die Aussage, dass Sprachmodelle sprachliche Muster fortschreiben statt Sachverhalte zu verstehen. Auf semantik.html der Beleg dafür, warum „Narrativ" und „Modell" auseinanderfallen.
Cheung V, Maier M, Lieder F (2025). Large language models show amplified cognitive biases in moral decision-making. PNAS 122(25):e2412015122. DOI
Belegt, dass Sprachmodelle kognitive Verzerrungen nicht nur reproduzieren, sondern verstärken. Trägt die Webseiten-These, dass plausibel formulierter Output die kritische Prüfung beim Nutzer deaktiviert.
Echterhoff JM et al. (2024). Cognitive Bias in Decision-Making with LLMs. EMNLP 2024, S. 12640–12653. ACL Anthology
Stützt die Logik der Frageformulierung als Suchraum-Determinierung. Auf der Webseite Beleg dafür, dass die Wahl der Worte den Antwortraum vorbestimmt, lange bevor das Modell antwortet.
Laban P, Harkous H, Xiong C, Xiong C (2025). Challenging the Evaluator: LLM Sycophancy Under User Rebuttal. arXiv:2509.16533 (Preprint). arXiv
Zeigt, dass Sprachmodelle ihre Antworten an den Kontext anpassen, auch wenn die zugrundeliegenden Annahmen falsch sind. Belegt die Wortpaarungen „Sicherheit vs. Treffgenauigkeit" und „Spezifisch vs. richtig" auf semantik.html.
Lu Y, Bartolo M, Moore A et al. (2022). Fantastically Ordered Prompts and Where to Find Them. ACL 2022, S. 8086–8098. ACL Anthology
Demonstriert, dass die Reihenfolge und Formulierung von Prompts den Output systematisch determiniert. Stützt die Kernaussage, dass Worte auf Sprachmodelle als Steuerbefehle wirken.
Parasuraman R, Riley V (1997). Humans and Automation: Use, Misuse, Disuse, Abuse. Human Factors 39(2):230–253.
Klassische Quelle für Automation Bias, Misuse und Verantwortungslücke beim Einsatz automatisierter Systeme. Belegt Tool Drift, Verantwortungsdiffusion und die Schadenswirkung unsauberer Architektur.
Vaswani A, Shazeer N, Parmar N et al. (2017). Attention Is All You Need. NeurIPS 2017, S. 5998–6008. arXiv
Architekturpapier hinter den modernen Sprachmodellen. Verzeichnis-Eintrag als Referenz für das Designprinzip, das die strukturellen Grenzen heutiger LLMs erklärt.
Wang ZZ et al. (2026). How Well Does Agent Development Reflect Real-World Work? arXiv:2603.01203 (Preprint). arXiv
Zeigt, dass publizierte Leistungsvergleiche systematisch die maschinellen Teilleistungen messen und damit ein verzerrtes Bild der tatsächlichen Fähigkeiten von Sprachmodellen erzeugen.
[M] Cluster M
Methodik & Entscheiden
Kognitionspsychologie, Entscheidungstheorie und Architekturprinzipien strukturierter KI-Workflows. Begründet, warum Architektur Modellleistung schlägt.
Belcak P, Heinrich G, Diao S, Fu Y, Dong X, Muralidharan S, Lin YC, Molchanov P (2025). Small Language Models are the Future of Agentic AI. arXiv:2506.02153 (Preprint). arXiv
Begründet die Zielarchitektur für mittelständische Unternehmen mit lokal gehosteten Sprachmodellen in strukturierten Workflows.
Du Y, Li S, Torralba A, Tenenbaum JB, Mordatch I (2023). Improving Factuality and Reasoning in Language Models through Multiagent Debate. arXiv:2305.14325 (Preprint). arXiv
Belegt, dass Multi-Agent-Architekturen durch gegenseitige Kritik die Faktentreue und das Reasoning verbessern. Wissenschaftliche Grundlage für die Mehrebenen-Logik des HiCC-Systems.
Kahneman D (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux, New York.
Begründet die Dichotomie System 1 / System 2, die das HiCC-Modell systemisch operationalisiert. Bezugsrahmen für den Übergang von intuitiver zu analytischer Verarbeitung.
LeCun Y (2025). Adapting for the Unknown. Keynote, VivaTech 2025, Paris, 11.–14. Juni 2025.
Argumentiert, dass architektonische Innovation die nächste Leistungsstufe von KI-Systemen bestimmt. Stützt die Verlagerung des Fokus von Modellgröße auf Systemarchitektur.
Ng A (2024). AI Agentic Workflows. Vortrag, Snowflake Dev Day 2024, San Francisco, 19. März 2024.
Zeigt empirisch, dass ein älteres Modell mit strukturiertem Arbeitsablauf ein leistungsfähigeres Modell ohne Prozessstruktur übertrifft. Kernbeleg für die Webseiten-These „Architektur schlägt Modellleistung".
Sutskever I (2025). We’re moving from the age of scaling to the age of research. Dwarkesh Podcast, 25. November 2025. Link
Markiert den Übergang vom Skalierungs-Paradigma zur Forschung an neuen Architekturen. Stützt die Webseiten-Position, dass die nächste Stufe nicht aus mehr Rechenleistung kommt.
Wang Y, Zhao Y (2024). Metacognitive Prompting Improves Understanding in Large Language Models. NAACL 2024, S. 1755–1770. ACL Anthology
Belegt, dass metakognitive Prüfprotokolle die Entscheidungsqualität von Sprachmodellen signifikant verbessern. Wissenschaftliche Grundlage für den Guardrail Check und das Mehrebenen-Reasoning.
[B] Cluster B
Eigenarbeit & Begriffsbildung
Eigene Konzepte und Werkzeuge. Vertiefte Darstellung in der Vorpublikation: Brodersen, N. (2026). Tragfähige Architektur als Basis für eine rechtssichere Nutzung von KI. In: Wirtschaftskommission für Transformation Deutschland (Hrsg.), Zukunft der IT — Wie KI die Rolle der IT neu definiert (Standardisierungswerk B251211, Springer Gabler Verlag, in Vorbereitung).
Brodersen N (2026). Architektur der Frage. Eigenarbeit, dokumentiert auf semantik.html.
Eigenbegriff. Beschreibt die Logik, dass die Qualität jeder KI-Antwort durch die Architektur der zugrundeliegenden Frage determiniert wird.
Vorpublikation: Brodersen N (2026). Tragfähige Architektur als Basis für eine rechtssichere Nutzung von KI. In: Wirtschaftskommission für Transformation Deutschland (Hrsg.), Zukunft der IT — Wie KI die Rolle der IT neu definiert. Standardisierungswerk B251211, Springer Gabler Verlag, in Vorbereitung.
Brodersen N (2026). Decision Brief / Entscheidungsnachweis (9 Felder). Eigenarbeit, dokumentiert auf pruefpfade.html.
Eigenbegriff. Strukturierter neunfeldriger Nachweis, der den Entscheidungspfad während des Denkprozesses dokumentiert. Operationalisiert die menschliche Aufsicht nach Art. 14 AI Act.
Vorpublikation: Brodersen N (2026). Tragfähige Architektur als Basis für eine rechtssichere Nutzung von KI. In: Wirtschaftskommission für Transformation Deutschland (Hrsg.), Zukunft der IT — Wie KI die Rolle der IT neu definiert. Standardisierungswerk B251211, Springer Gabler Verlag, in Vorbereitung.
Brodersen N (2026). Epistemische Belastbarkeit. Eigenarbeit, dokumentiert auf ai-systems.cloud.
Eigenbegriff. Bezeichnet die Fähigkeit einer Aussage, Prüfprozessen standzuhalten. Abgegrenzt von rein sprachlicher Plausibilität.
Vorpublikation: Brodersen N (2026). Tragfähige Architektur als Basis für eine rechtssichere Nutzung von KI. In: Wirtschaftskommission für Transformation Deutschland (Hrsg.), Zukunft der IT — Wie KI die Rolle der IT neu definiert. Standardisierungswerk B251211, Springer Gabler Verlag, in Vorbereitung.
Brodersen N (2026). Guardrail Check (6 Prüffragen). Eigenarbeit, dokumentiert auf pruefpfade.html.
Eigenbegriff. Sechs Prüffragen zwischen KI-Output und Entscheidung, die Plausibilitätsfalle, Tool Drift, Goodhart-Effekt und Verantwortungsdiffusion strukturell adressieren.
Vorpublikation: Brodersen N (2026). Tragfähige Architektur als Basis für eine rechtssichere Nutzung von KI. In: Wirtschaftskommission für Transformation Deutschland (Hrsg.), Zukunft der IT — Wie KI die Rolle der IT neu definiert. Standardisierungswerk B251211, Springer Gabler Verlag, in Vorbereitung.
Brodersen N (2026). Hierarchical Reasoning Model / HiCC. Eigenarbeit, dokumentiert auf hicc-terminal.html.
Eigenarbeit. Mehrebenen-Architektur, die Sprachmodelle von probabilistischer Vorhersage zu deterministischer Reflexion zwingt. Technische Architektur und Designprinzipien sind in der Detail-Dokumentation hinterlegt.
Vorpublikation: Brodersen N (2026). Tragfähige Architektur als Basis für eine rechtssichere Nutzung von KI. In: Wirtschaftskommission für Transformation Deutschland (Hrsg.), Zukunft der IT — Wie KI die Rolle der IT neu definiert. Standardisierungswerk B251211, Springer Gabler Verlag, in Vorbereitung.
Brodersen N (2026). KI-Request Standard (3 Destruktionsfragen + 7 Felder). Eigenarbeit, dokumentiert auf pruefpfade.html.
Eigenbegriff. Pflichtformat aus drei Destruktionsfragen und sieben Feldern, das vor jeder entscheidungsrelevanten KI-Anfrage durchlaufen wird. Erzwingt Frage-Destruktion und semantische Präzision.
Vorpublikation: Brodersen N (2026). Tragfähige Architektur als Basis für eine rechtssichere Nutzung von KI. In: Wirtschaftskommission für Transformation Deutschland (Hrsg.), Zukunft der IT — Wie KI die Rolle der IT neu definiert. Standardisierungswerk B251211, Springer Gabler Verlag, in Vorbereitung.
Brodersen N (2026). Managed Deep Reasoning (mDR). Eigenarbeit, dokumentiert auf hicc-terminal.html.
Eigenbegriff. Kontrollierte Tiefenanalyse mit expliziten Zwischenschichten und auditierbaren Prüfpunkten. Architekturkonzept des HiCC-Systems.
Vorpublikation: Brodersen N (2026). Tragfähige Architektur als Basis für eine rechtssichere Nutzung von KI. In: Wirtschaftskommission für Transformation Deutschland (Hrsg.), Zukunft der IT — Wie KI die Rolle der IT neu definiert. Standardisierungswerk B251211, Springer Gabler Verlag, in Vorbereitung.
Brodersen N (2026). Reversal Trigger. Eigenarbeit, dokumentiert auf pruefpfade.html.
Eigenbegriff. Vorab definierte Bedingung, die eine systematische Korrektur einer Entscheidung auslöst. Macht Lernen und Kurskorrektur strukturell verankerbar.
Vorpublikation: Brodersen N (2026). Tragfähige Architektur als Basis für eine rechtssichere Nutzung von KI. In: Wirtschaftskommission für Transformation Deutschland (Hrsg.), Zukunft der IT — Wie KI die Rolle der IT neu definiert. Standardisierungswerk B251211, Springer Gabler Verlag, in Vorbereitung.