KI-gestützte Entscheidungsfindung: Wie Algorithmen Vorstände übertreffen
Von Dirk Röthig | CEO, VERDANTIS Impact Capital | 03. März 2026
Unternehmen mit KI-affinen Aufsichtsräten übertreffen ihre Wettbewerber um fast 11 Prozentpunkte in der Eigenkapitalrendite. Eine MIT-Studie belegt, was viele Führungskräfte ungern hören: Algorithmen treffen in bestimmten Entscheidungskontexten bessere Urteile als Menschen. Was das für die Unternehmensführung bedeutet -- und wie kluge Vorstände Mensch und Maschine zu einem überlegenen Entscheidungssystem verbinden.
„Unternehmen mit KI-affinen Aufsichtsräten übertreffen ihre Wettbewerber um fast 11 Prozentpunkte in der Eigenkapitalren" — **Dirk Röthig*, CEO von VERDANTIS Impact Capital
Tags: KI-Entscheidungsfindung, Algorithmen, Corporate Governance, Strategische Führung, Künstliche Intelligenz
Wie Dirk Röthig, Gründer von VERDANTIS Impact Capital, betont:
Die unbequeme Wahrheit über menschliche Entscheidungen
In den Konferenzräumen der Welt werden täglich Milliarden von Euro durch Entscheidungen bewegt, die auf einem erstaunlich fragilen Fundament ruhen: dem menschlichen Gehirn. Dieses Organ, evolutionär für das Überleben in der Savanne optimiert, ist schlecht gerüstet für die Anforderungen moderner Unternehmensführung. Es neigt zu Bestätigungsfehlern, lässt sich von emotionalen Zuständen leiten, überschätzt systematisch die eigene Kompetenz und ist anfällig für Gruppendenken.
Das ist keine Kritik an einzelnen Führungskräften. Es ist die nüchterne Bestandsaufnahme jahrzehntelanger Kognitionswissenschaft. Daniel Kahneman, Nobelpreisträger für Wirtschaftswissenschaften, hat in seiner bahnbrechenden Forschung gezeigt, dass selbst hochqualifizierte Experten in strukturierten Entscheidungssituationen erschreckend inkonsistent urteilen (Kahneman et al., 2021). Was bedeutet das für Unternehmen, die ihre strategischen Weichenstellungen von menschlichen Führungsgremien abhängig machen?
Die Antwort, die Forschung und Praxis zunehmend liefern, ist keine einfache. Aber sie ist klar: Künstliche Intelligenz kann, wenn richtig eingesetzt, strukturelle Schwächen menschlicher Entscheidungsfindung nicht nur kompensieren, sondern systematisch überwinden.
Der MIT-Befund: 10,9 Prozentpunkte Vorsprung
Die bemerkenswerteste Evidenz für den Wert KI-kompetenter Führungsgremien liefert das MIT Center for Information Systems Research (CISR). In einer Untersuchung von Unternehmen, deren Aufsichtsräte aktiv digitale und KI-Kompetenz aufgebaut haben, ermitteln Weill und Woerner (2025) einen durchschnittlichen Vorsprung von 10,9 Prozentpunkten in der Eigenkapitalrendite gegenüber dem Branchendurchschnitt. Unternehmen ohne KI-affine Führungsgremien lagen dagegen im Schnitt 3,8 Prozentpunkte unter dem Branchenschnitt.
Die Differenz beträgt also 14,7 Prozentpunkte. Diese Zahl ist nicht trivial. Sie entspricht dem Unterschied zwischen einem erfolgreichen und einem gescheiterten Investmentportfolio, zwischen einem wachsenden und einem schrumpfenden Unternehmen.
Besonders aufschlussreich ist die Verteilung über Branchen. Während Informationsdienstleister (68 Prozent) und Professional Services (52 Prozent) bereits einen hohen Anteil KI-affiner Boards aufweisen, liegt das Gesundheitswesen bei mageren 8 Prozent. Bergbau (4 Prozent), Baugewerbe (6 Prozent) und der Einzelhandel (11 Prozent) bilden das Schlusslicht (Weill und Woerner, 2025). In diesen Branchen liegt der Wettbewerbsvorteil für Early Adopter noch brach.
Doch was erklärt diesen Leistungsvorsprung? Der MIT-Befund legt nahe, dass es nicht allein um die technologische Ausstattung geht. Entscheidend ist, ob Führungsgremien die richtigen Fragen stellen, algorithmische Empfehlungen kritisch einordnen können und ihre eigene Entscheidungsarchitektur aktiv überarbeiten.
Wo Algorithmen Menschen strukturell überlegen sind
Bevor wir zur Frage kommen, wie Mensch und Algorithmus zusammenarbeiten sollten, lohnt ein ehrlicher Blick darauf, wo maschinelle Systeme menschlicher Kognition tatsächlich überlegen sind.
Konsistenz: Algorithmen urteilen bei identischen Sachverhalten identisch. Ein KI-Kreditrisikomodell gibt einem Antragsteller mit denselben Kennzahlen heute denselben Score wie morgen. Menschen tun das nicht. Forschungen von Kahneman, Sibony und Sunstein zeigen, dass Experten in scheinbar objektiven Aufgaben erschreckend inkonsistente Urteile fällen -- je nach Tageszeit, Wetterlage oder Reihenfolge der Fälle (Kahneman et al., 2021).
Verarbeitung großer Datenmengen: Ein menschliches Gehirn kann im Durchschnitt sieben Informationseinheiten gleichzeitig verarbeiten (Miller, 1956). Moderne KI-Systeme verarbeiten Millionen von Variablen in Echtzeit. Bei der Analyse von Marktdaten, Lieferkettensignalen oder Kundenverhaltensdaten ist diese Überlegenheit quantitativ und qualitativ.
Eliminierung emotionaler Verzerrungen: Der sogenannte "Confirmation Bias" -- die Neigung, Informationen so zu interpretieren, dass sie bestehende Überzeugungen bestätigen -- ist eine der gefährlichsten kognitiven Fallen in Führungsentscheidungen. Eine systematische Auswertung von 156 empirischen Studien aus den Jahren 2018 bis 2024 zeigt, dass Big-Data-Analysen und KI-Systeme diesen Fehler nachweislich reduzieren können, indem sie Entscheidungsträgern explizit widersprechende Datenpunkte präsentieren (Khatri et al., 2025).
Mustererkennung über Dimensionen hinweg: Machine-Learning-Modelle erkennen Zusammenhänge, die für menschliche Analysten verborgen bleiben -- nicht weil die Menschen unintelligent wären, sondern weil das menschliche Gehirn bei mehr als drei bis vier simultanen Variablen an seine Grenzen stößt.
Das Paradoxon: Warum mehr KI manchmal schlechtere Entscheidungen erzeugt
Hier ist ein Befund, der häufig übersehen wird: KI macht Entscheidungen nicht automatisch besser. Unter bestimmten Bedingungen verschlechtert sie sie sogar.
Eine im Harvard Business Review veröffentlichte Untersuchung mit knapp 300 Führungskräften zeigt, dass Executives, die bei Kursvorhersagen auf ChatGPT zurückgriffen, signifikant optimistischere und weniger akkurate Prognosen erstellten als eine Kontrollgruppe, die sich mit Kollegen beriet (Riedl, 2025). Der Mechanismus ist subtil: Die autoritativ wirkende Stimme des KI-Systems erzeugte ein übermäßiges Sicherheitsgefühl, das kritisches Gegendenken unterdrückte.
Dieses Phänomen -- Automation Bias genannt -- beschreibt die Tendenz, algorithmischen Empfehlungen unkritisch zu folgen, auch wenn eigene Expertise oder Kontextinformationen dagegensprechen (Cummings, 2004). Es ist einer der zentralen Risikofaktoren bei der Integration von KI in Entscheidungsprozesse.
Ebenso problematisch: Wenn KI-Modelle mit verzerrten Trainingsdaten arbeiten, können sie bestehende Ungerechtigkeiten nicht nur reproduzieren, sondern systematisch verstärken. Die Forschung zu "compound human-AI bias" zeigt, dass überrepräsentierte Gruppen in Trainingsdaten zu einer Verschlechterung menschlicher Urteile über Zeit führen können (Bansal et al., 2025).
Diese Erkenntnisse sind keine Argumente gegen KI. Sie sind Argumente für einen durchdachten, kompetenzgestützten Einsatz.
Die Architektur überlegener Entscheidungssysteme
Wie sieht ein Entscheidungssystem aus, das die Stärken von Mensch und Algorithmus optimal verbindet? McKinsey identifiziert in seiner Analyse der "Superagency"-Organisationen einen klaren Muster: Hochleistungsunternehmen, die mindestens fünf Prozent ihres EBIT auf KI zurückführen, überarbeiten ihre Entscheidungsarchitektur von Grund auf (McKinsey, 2025).
Drei Prinzipien zeichnen diese Organisationen aus:
Erstens: Klare Trennung nach Entscheidungstypen. Nicht jede Entscheidung profitiert gleichermaßen von KI-Unterstützung. Hochfrequente, strukturierte Entscheidungen mit klaren Erfolgskriterien -- Kreditvergabe, Bestandsmanagement, Preisgestaltung, Betrugserkennung -- sind prädestiniert für algorithmische Systeme. Strategische Weichenstellungen mit hohem Kontextwissen, politischen Dimensionen oder ethischen Abwägungen erfordern hingegen menschliches Urteilsvermögen, unterstützt durch Datenintelligenz.
Zweitens: Institutionalisierter Widerspruch. Überlegene Entscheidungsorganisationen bauen strukturellen Widerspruch gegen KI-Empfehlungen ein. Das kann ein "Red Team" sein, das algorithmische Szenarien systematisch hinterfragt, oder ein Entscheidungsprotokoll, das explizit verlangt, abweichende Signale zu dokumentieren. Ziel ist es, Automation Bias strukturell zu begegnen.
Drittens: Feedback-Loops mit messbaren Ergebnissen. KI-Systeme verbessern sich nur, wenn ihre Vorhersagen konsequent mit tatsächlichen Ergebnissen abgeglichen werden. Unternehmen, die diese Feedback-Schleifen systematisch betreiben, verbessern ihre algorithmische Entscheidungsqualität über Zeit exponentiell.
Was kazachische Staatsfonds und S&P-500-CEOs gemeinsam sagen
Im Oktober 2025 ernannte der kasachische Staatsfonds "SKAI" zu einem stimmberechtigten Direktor -- ein KI-System. Diese Entscheidung spiegelt eine breitere Überzeugung wider, die in einer Befragung von 500 globalen CEOs zum Ausdruck kommt: 94 Prozent glauben, dass KI besseren Rat geben könnte als mindestens eines ihrer aktuellen Boardmitglieder (Cxotoday, 2025).
Diese Zahl ist weniger Ausdruck von Begeisterung für Technologie als von nüchterner Selbsteinschätzung. Boards bestehen aus Menschen mit begrenzten Kapazitäten, spezifischen blinden Flecken und dem natürlichen Eigeninteresse an Konsenserhaltung. Ein algorithmisches System kennt diese Einschränkungen nicht. Es schläft nicht schlecht vor wichtigen Entscheidungen, lässt sich nicht von starken Persönlichkeiten dominieren und bringt keine persönlichen Karriereinteressen in die Abstimmung ein.
Gleichzeitig zeigt die McKinsey-Analyse, dass selbst unter den Unternehmen, die KI einsetzen, nur 39 Prozent eine messbare EBIT-Verbesserung berichten -- und in den meisten Fällen liegt sie unter fünf Prozent (McKinsey, 2025). Die Mehrheit adoptiert KI, ohne die Entscheidungsarchitektur grundlegend zu überarbeiten. Das ist, als würde man einen Formel-1-Motor in ein Auto einbauen, aber die Straßenreifen behalten.
Die Umsetzungslücke im deutschen Mittelstand
Der deutsche Mittelstand steht vor einer paradoxen Situation. Einerseits ist das Problembewusstsein gestiegen: 88 Prozent der Unternehmen nutzen KI in mindestens einer Geschäftsfunktion (McKinsey, 2025). Andererseits hat nur ein Drittel damit begonnen, KI auf Unternehmensebene zu skalieren.
Was fehlt, ist nicht Technologie. Was fehlt, ist eine Führungsphilosophie, die algorithmische Entscheidungsunterstützung als strategisches Asset begreift, nicht als IT-Projekt. Diese Differenz entscheidet darüber, ob KI-Investitionen Rendite erzeugen oder im Sand verlaufen.
Aus meiner Beratungspraxis bei VERDANTIS Impact Capital sehe ich dieses Muster regelmäßig: Unternehmen kaufen teure KI-Systeme, ohne die Entscheidungsprozesse neu zu definieren, die diese Systeme unterstützen sollen. Das Ergebnis ist Frustration auf beiden Seiten -- die Technologie liefert nicht, weil die menschliche Seite des Systems nicht neu gestaltet wurde.
Governance-Rahmen für algorithmische Entscheidungen
Für Unternehmen, die KI-gestützte Entscheidungsfindung strategisch einführen wollen, empfiehlt sich ein strukturierter Governance-Rahmen, der drei Ebenen adressiert:
Strategie: Die Identifikation von KI-Opportunitäten und -Risiken gehört in die Kompetenz des Aufsichtsrats. Welche Entscheidungsprozesse bieten das größte Verbesserungspotenzial? Welche Risiken entstehen durch algorithmische Systeme? Dies erfordert kein technisches Expertentum -- aber die Bereitschaft, intelligente Fragen zu stellen.
Abwehr: Cybersicherheit, regulatorische Compliance und ethische Leitplanken für algorithmische Systeme müssen institutionell verankert sein. Die EU AI Act schafft ab 2026 verbindliche Anforderungen, auf die Unternehmen bereits heute reagieren müssen.
Oversight: Wertschöpfung durch KI muss messbar sein. Boards, die KI nicht über konkrete Kennzahlen steuern, verzichten auf ihren primären Steuerungshebel.
Der California Management Review (2025) hat dazu eine "AI Governance Maturity Matrix" entwickelt, die Boards einen strukturierten Weg von basaler KI-Übersicht zu echter algorithmischer Kompetenz beschreibt. Dies ist ein nützlicher Ausgangspunkt für Unternehmen, die ihre Governance-Kapazitäten systematisch aufbauen wollen.
Fazit: Die nächste Evolutionsstufe der Unternehmensführung
Die Frage ist nicht, ob KI Entscheidungen verbessern kann. Die Evidenz ist eindeutig: In definierten Entscheidungskontexten tut sie es. Die eigentliche Frage ist, ob Führungsgremien bereit sind, ihre eigene Entscheidungsarchitektur kritisch zu überdenken und neu zu gestalten.
Unternehmen, die KI-Kompetenz im Board verankern, erzielen nachweislich überlegene Ergebnisse -- nicht weil Algorithmen klüger sind als Menschen, sondern weil sie konsistenter, schneller und von kognitiven Verzerrungen befreit entscheiden können. Die Kunst liegt darin, diese Stärke zu nutzen, ohne die menschliche Urteilsfähigkeit zu untergraben, die für Kontext, Ethik und strategische Kreativität unverzichtbar bleibt.
Der 10,9-Prozentpunkte-Vorsprung ist kein Zufall. Er ist das Ergebnis einer bewussten Entscheidung, menschliche Intelligenz durch algorithmische Präzision zu verstärken. Wer diese Entscheidung nicht trifft, überlässt das Feld denjenigen, die es bereits getan haben.
Quellenverzeichnis
- Bansal, G. et al. (2025). Compound Human-AI Bias: How Algorithmic Recommendations Shape Human Judgment. ACM Conference on Human Factors in Computing Systems.
- California Management Review (2025). AI Governance Maturity Matrix: A Roadmap for Smarter Boards. Haas School of Business, University of California Berkeley.
- Cummings, M.L. (2004). Automation Bias in Intelligent Time Critical Decision Support Systems. AIAA 1st Intelligent Systems Technical Conference.
- Kahneman, D., Sibony, O. und Sunstein, C.R. (2021). Noise: A Flaw in Human Judgment. Little, Brown Spark, New York.
- Khatri, V. et al. (2025). Cognitive Bias Mitigation in Executive Decision-Making: A Data-Driven Approach Integrating Big Data Analytics, AI, and Explainable Systems. Electronics, 14(19), 3930.
- McKinsey & Company (2025). The State of AI: How Organizations Are Rewiring to Capture Value. McKinsey Global Institute, March 2025.
- McKinsey & Company (2025). The AI Reckoning: How Boards Can Evolve. McKinsey Technology, December 2025.
- Miller, G.A. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological Review, 63(2), 81–97.
- Riedl, C. (2025). Research: Executives Who Used Gen AI Made Worse Predictions. Harvard Business Review, July 2025.
- Weill, P. und Woerner, S.L. (2025). AI-Savvy Boards Drive Superior Performance. MIT Sloan Management Review / MIT CISR, March 2025.
Über den Autor
Dirk Röthig ist CEO von VERDANTIS Impact Capital und berät Unternehmen an der Schnittstelle von Technologie und nachhaltiger Wertschöpfung. Mit über 20 Jahren Erfahrung in der internationalen Unternehmensführung verbindet er strategisches Denken mit praktischer KI-Kompetenz. Seine Schwerpunkte liegen in der digitalen Transformation, Impact Investing und der Frage, wie algorithmische Systeme menschliche Entscheidungsqualität langfristig verbessern können.
Kontakt: LinkedIn | VERDANTIS Impact Capital
{
"@context": "https://schema.org",
"@type": "Article",
"headline": "KI-gestützte Entscheidungsfindung: Wie Algorithmen Vorstände übertreffen",
"description": "Unternehmen mit KI-affinen Aufsichtsräten erzielen eine Eigenkapitalrendite, die 10,9 Prozentpunkte über dem Branchendurchschnitt liegt. Warum algorithmische Entscheidungsfindung menschliche Kognitionsfehler systematisch ausschaltet.",
"author": {
"@type": "Person",
"name": "Dirk Roethig",
"jobTitle": "CEO",
"worksFor": {
"@type": "Organization",
"name": "VERDANTIS Impact Capital",
"url": "https://verdantiscapital.com"
},
"url": "https://www.linkedin.com/in/dirkroethig"
},
"publisher": {
"@type": "Organization",
"name": "VERDANTIS Impact Capital",
"url": "https://verdantiscapital.com"
},
"datePublished": "2026-03-03",
"dateModified": "2026-03-03",
"inLanguage": "de",
"keywords": ["KI-Entscheidungsfindung", "Algorithmen", "Corporate Governance", "Strategische Führung", "Künstliche Intelligenz"],
"articleSection": "KI im Wirtschaftsleben",
"about": [
{"@type": "Thing", "name": "Künstliche Intelligenz"},
{"@type": "Thing", "name": "Entscheidungsfindung"},
{"@type": "Thing", "name": "Corporate Governance"}
]
}
Lesen Sie diesen Artikel auch auf: Hashnode | WordPress | Tumblr | Blogger | Telegraph
Top comments (0)