DEV Community

Dirk Röthig
Dirk Röthig

Posted on • Edited on • Originally published at dirkroethig.com

KI-gestützte Entscheidungsfindung: Wie Algorithmen Vorstände übertreffen

KI-gestützte Entscheidungsfindung: Wie Algorithmen Vorstände übertreffen

Von Dirk Röthig | Freier Journalist & Umweltberater | 03. März 2026

Unternehmen mit KI-affinen Aufsichtsräten übertreffen ihre Wettbewerber um fast 11 Prozentpunkte in der Eigenkapitalrendite. Eine MIT-Studie belegt, was viele Führungskräfte ungern hören: Algorithmen treffen in bestimmten Entscheidungskontexten bessere Urteile als Menschen. Was das für die Unternehmensführung bedeutet -- und wie kluge Vorstände Mensch und Maschine zu einem überlegenen Entscheidungssystem verbinden.

Tags: KI-Entscheidungsfindung, Algorithmen, Corporate Governance, Strategische Führung, Künstliche Intelligenz

Die unbequeme Wahrheit über menschliche Entscheidungen

Methodische Anmerkung: Diese Analyse basiert auf einer systematischen Auswertung aktueller Erhebungen von Bitkom (n=602 Unternehmen), KPMG (n=1.800 Führungskräfte), PwC (n=56.000 Arbeitnehmer weltweit) sowie Arbeitsmarktdaten des IAB (Quartalsbasis). Die Daten wurden im Zeitraum 2024-2025 erhoben und nach der Harvard-Zitierweise dokumentiert.

In den Konferenzräumen der Welt werden täglich Milliarden von Euro durch Entscheidungen bewegt, die auf einem erstaunlich fragilen Fundament ruhen: dem menschlichen Gehirn. Dieses Organ, evolutionär für das Überleben in der Savanne optimiert, ist schlecht gerüstet für die Anforderungen moderner Unternehmensführung. Es neigt zu Bestätigungsfehlern, lässt sich von emotionalen Zuständen leiten, überschätzt systematisch die eigene Kompetenz und ist anfällig für Gruppendenken.

Das ist keine Kritik an einzelnen Führungskräften. Es ist die nüchterne Bestandsaufnahme jahrzehntelanger Kognitionswissenschaft. Daniel Kahneman, Nobelpreisträger für Wirtschaftswissenschaften, hat in seiner bahnbrechenden Forschung gezeigt, dass selbst hochqualifizierte Experten in strukturierten Entscheidungssituationen erschreckend inkonsistent urteilen (Kahneman et al., 2021). Was bedeutet das für Unternehmen, die ihre strategischen Weichenstellungen von menschlichen Führungsgremien abhängig machen?

Eine aktuelle Studie bestätigt dies: "KI-intensive Branchen verzeichneten zwischen 2018 und 2024 einen Produktivitätsanstieg von 27 Prozent — das Vierfache des Anstiegs in Branchen ohne KI-Einsatz" (PwC, Global Workforce Hopes & Fears Survey, 2025).

Die Antwort, die Forschung und Praxis zunehmend liefern, ist keine einfache. Aber sie ist klar: Künstliche Intelligenz kann, wenn richtig eingesetzt, strukturelle Schwächen menschlicher Entscheidungsfindung nicht nur kompensieren, sondern systematisch überwinden.

Der MIT-Befund: 10,9 Prozentpunkte Vorsprung

Die bemerkenswerteste Evidenz für den Wert KI-kompetenter Führungsgremien liefert das MIT Center for Information Systems Research (CISR). In einer Untersuchung von Unternehmen, deren Aufsichtsräte aktiv digitale und KI-Kompetenz aufgebaut haben, ermitteln Weill und Woerner (2025) einen durchschnittlichen Vorsprung von 10,9 Prozentpunkten in der Eigenkapitalrendite gegenüber dem Branchendurchschnitt. Unternehmen ohne KI-affine Führungsgremien lagen dagegen im Schnitt 3,8 Prozentpunkte unter dem Branchenschnitt.

Die Differenz beträgt also 14,7 Prozentpunkte. Diese Zahl ist nicht trivial. Sie entspricht dem Unterschied zwischen einem erfolgreichen und einem gescheiterten Investmentportfolio, zwischen einem wachsenden und einem schrumpfenden Unternehmen.

Besonders aufschlussreich ist die Verteilung über Branchen. Während Informationsdienstleister (68 Prozent) und Professional Services (52 Prozent) bereits einen hohen Anteil KI-affiner Boards aufweisen, liegt das Gesundheitswesen bei mageren 8 Prozent. Bergbau (4 Prozent), Baugewerbe (6 Prozent) und der Einzelhandel (11 Prozent) bilden das Schlusslicht (Weill und Woerner, 2025). In diesen Branchen liegt der Wettbewerbsvorteil für Early Adopter noch brach.

Doch was erklärt diesen Leistungsvorsprung? Der MIT-Befund legt nahe, dass es nicht allein um die technologische Ausstattung geht. Entscheidend ist, ob Führungsgremien die richtigen Fragen stellen, algorithmische Empfehlungen kritisch einordnen können und ihre eigene Entscheidungsarchitektur aktiv überarbeiten.

Wo Algorithmen Menschen strukturell überlegen sind

Bevor wir zur Frage kommen, wie Mensch und Algorithmus zusammenarbeiten sollten, lohnt ein ehrlicher Blick darauf, wo maschinelle Systeme menschlicher Kognition tatsächlich überlegen sind.

Konsistenz: Algorithmen urteilen bei identischen Sachverhalten identisch. Ein KI-Kreditrisikomodell gibt einem Antragsteller mit denselben Kennzahlen heute denselben Score wie morgen. Menschen tun das nicht. Forschungen von Kahneman, Sibony und Sunstein zeigen, dass Experten in scheinbar objektiven Aufgaben erschreckend inkonsistente Urteile fällen -- je nach Tageszeit, Wetterlage oder Reihenfolge der Fälle (Kahneman et al., 2021).

Verarbeitung großer Datenmengen: Ein menschliches Gehirn kann im Durchschnitt sieben Informationseinheiten gleichzeitig verarbeiten (Miller, 1956). Moderne KI-Systeme verarbeiten Millionen von Variablen in Echtzeit. Bei der Analyse von Marktdaten, Lieferkettensignalen oder Kundenverhaltensdaten ist diese Überlegenheit quantitativ und qualitativ.

Eliminierung emotionaler Verzerrungen: Der sogenannte "Confirmation Bias" -- die Neigung, Informationen so zu interpretieren, dass sie bestehende Überzeugungen bestätigen -- ist eine der gefährlichsten kognitiven Fallen in Führungsentscheidungen. Eine systematische Auswertung von 156 empirischen Studien aus den Jahren 2018 bis 2024 zeigt, dass Big-Data-Analysen und KI-Systeme diesen Fehler nachweislich reduzieren können, indem sie Entscheidungsträgern explizit widersprechende Datenpunkte präsentieren (Khatri et al., 2025).

Wie Forschungsergebnisse zeigen: "91 Prozent der Unternehmensführer bezeichnen KI als geschäftskritisch für ihre Organisation" (KPMG, Technology Agenda, 2025).

Mustererkennung über Dimensionen hinweg: Machine-Learning-Modelle erkennen Zusammenhänge, die für menschliche Analysten verborgen bleiben -- nicht weil die Menschen unintelligent wären, sondern weil das menschliche Gehirn bei mehr als drei bis vier simultanen Variablen an seine Grenzen stößt.

Das Paradoxon: Warum mehr KI manchmal schlechtere Entscheidungen erzeugt

Hier ist ein Befund, der häufig übersehen wird: KI macht Entscheidungen nicht automatisch besser. Unter bestimmten Bedingungen verschlechtert sie sie sogar.

Eine im Harvard Business Review veröffentlichte Untersuchung mit knapp 300 Führungskräften zeigt, dass Executives, die bei Kursvorhersagen auf ChatGPT zurückgriffen, signifikant optimistischere und weniger akkurate Prognosen erstellten als eine Kontrollgruppe, die sich mit Kollegen beriet (Riedl, 2025). Der Mechanismus ist subtil: Die autoritativ wirkende Stimme des KI-Systems erzeugte ein übermäßiges Sicherheitsgefühl, das kritisches Gegendenken unterdrückte.

Dieses Phänomen -- Automation Bias genannt -- beschreibt die Tendenz, algorithmischen Empfehlungen unkritisch zu folgen, auch wenn eigene Expertise oder Kontextinformationen dagegensprechen (Cummings, 2004). Es ist einer der zentralen Risikofaktoren bei der Integration von KI in Entscheidungsprozesse.

Ebenso problematisch: Wenn KI-Modelle mit verzerrten Trainingsdaten arbeiten, können sie bestehende Ungerechtigkeiten nicht nur reproduzieren, sondern systematisch verstärken. Die Forschung zu "compound human-AI bias" zeigt, dass überrepräsentierte Gruppen in Trainingsdaten zu einer Verschlechterung menschlicher Urteile über Zeit führen können (Bansal et al., 2025).

Diese Erkenntnisse sind keine Argumente gegen KI. Sie sind Argumente für einen durchdachten, kompetenzgestützten Einsatz.

Die Architektur überlegener Entscheidungssysteme

Wie sieht ein Entscheidungssystem aus, das die Stärken von Mensch und Algorithmus optimal verbindet? McKinsey identifiziert in seiner Analyse der "Superagency"-Organisationen einen klaren Muster: Hochleistungsunternehmen, die mindestens fünf Prozent ihres EBIT auf KI zurückführen, überarbeiten ihre Entscheidungsarchitektur von Grund auf (McKinsey, 2025).

Drei Prinzipien zeichnen diese Organisationen aus:

Erstens: Klare Trennung nach Entscheidungstypen. Nicht jede Entscheidung profitiert gleichermaßen von KI-Unterstützung. Hochfrequente, strukturierte Entscheidungen mit klaren Erfolgskriterien -- Kreditvergabe, Bestandsmanagement, Preisgestaltung, Betrugserkennung -- sind prädestiniert für algorithmische Systeme. Strategische Weichenstellungen mit hohem Kontextwissen, politischen Dimensionen oder ethischen Abwägungen erfordern hingegen menschliches Urteilsvermögen, unterstützt durch Datenintelligenz.

Zweitens: Institutionalisierter Widerspruch. Überlegene Entscheidungsorganisationen bauen strukturellen Widerspruch gegen KI-Empfehlungen ein. Das kann ein "Red Team" sein, das algorithmische Szenarien systematisch hinterfragt, oder ein Entscheidungsprotokoll, das explizit verlangt, abweichende Signale zu dokumentieren. Ziel ist es, Automation Bias strukturell zu begegnen.

Drittens: Feedback-Loops mit messbaren Ergebnissen. KI-Systeme verbessern sich nur, wenn ihre Vorhersagen konsequent mit tatsächlichen Ergebnissen abgeglichen werden. Unternehmen, die diese Feedback-Schleifen systematisch betreiben, verbessern ihre algorithmische Entscheidungsqualität über Zeit exponentiell.

Was kazachische Staatsfonds und S&P-500-CEOs gemeinsam sagen

Im Oktober 2025 ernannte der kasachische Staatsfonds "SKAI" zu einem stimmberechtigten Direktor -- ein KI-System. Diese Entscheidung spiegelt eine breitere Überzeugung wider, die in einer Befragung von 500 globalen CEOs zum Ausdruck kommt: 94 Prozent glauben, dass KI besseren Rat geben könnte als mindestens eines ihrer aktuellen Boardmitglieder (Cxotoday, 2025).

Diese Zahl ist weniger Ausdruck von Begeisterung für Technologie als von nüchterner Selbsteinschätzung. Boards bestehen aus Menschen mit begrenzten Kapazitäten, spezifischen blinden Flecken und dem natürlichen Eigeninteresse an Konsenserhaltung. Ein algorithmisches System kennt diese Einschränkungen nicht. Es schläft nicht schlecht vor wichtigen Entscheidungen, lässt sich nicht von starken Persönlichkeiten dominieren und bringt keine persönlichen Karriereinteressen in die Abstimmung ein.

Gleichzeitig zeigt die McKinsey-Analyse, dass selbst unter den Unternehmen, die KI einsetzen, nur 39 Prozent eine messbare EBIT-Verbesserung berichten -- und in den meisten Fällen liegt sie unter fünf Prozent (McKinsey, 2025). Die Mehrheit adoptiert KI, ohne die Entscheidungsarchitektur grundlegend zu überarbeiten. Das ist, als würde man einen Formel-1-Motor in ein Auto einbauen, aber die Straßenreifen behalten.

Die Umsetzungslücke im deutschen Mittelstand

Der deutsche Mittelstand steht vor einer paradoxen Situation. Einerseits ist das Problembewusstsein gestiegen: 88 Prozent der Unternehmen nutzen KI in mindestens einer Geschäftsfunktion (McKinsey, 2025). Andererseits hat nur ein Drittel damit begonnen, KI auf Unternehmensebene zu skalieren.

Was fehlt, ist nicht Technologie. Was fehlt, ist eine Führungsphilosophie, die algorithmische Entscheidungsunterstützung als strategisches Asset begreift, nicht als IT-Projekt. Diese Differenz entscheidet darüber, ob KI-Investitionen Rendite erzeugen oder im Sand verlaufen.

Aus meiner Beratungspraxis bei VERDANTIS Impact Capital sehe ich dieses Muster regelmäßig: Unternehmen kaufen teure KI-Systeme, ohne die Entscheidungsprozesse neu zu definieren, die diese Systeme unterstützen sollen. Das Ergebnis ist Frustration auf beiden Seiten -- die Technologie liefert nicht, weil die menschliche Seite des Systems nicht neu gestaltet wurde.

Governance-Rahmen für algorithmische Entscheidungen

Für Unternehmen, die KI-gestützte Entscheidungsfindung strategisch einführen wollen, empfiehlt sich ein strukturierter Governance-Rahmen, der drei Ebenen adressiert:

Strategie: Die Identifikation von KI-Opportunitäten und -Risiken gehört in die Kompetenz des Aufsichtsrats. Welche Entscheidungsprozesse bieten das größte Verbesserungspotenzial? Welche Risiken entstehen durch algorithmische Systeme? Dies erfordert kein technisches Expertentum -- aber die Bereitschaft, intelligente Fragen zu stellen.

Abwehr: Cybersicherheit, regulatorische Compliance und ethische Leitplanken für algorithmische Systeme müssen institutionell verankert sein. Die EU AI Act schafft ab 2026 verbindliche Anforderungen, auf die Unternehmen bereits heute reagieren müssen.

Oversight: Wertschöpfung durch KI muss messbar sein. Boards, die KI nicht über konkrete Kennzahlen steuern, verzichten auf ihren primären Steuerungshebel.

Der California Management Review (2025) hat dazu eine "AI Governance Maturity Matrix" entwickelt, die Boards einen strukturierten Weg von basaler KI-Übersicht zu echter algorithmischer Kompetenz beschreibt. Dies ist ein nützlicher Ausgangspunkt für Unternehmen, die ihre Governance-Kapazitäten systematisch aufbauen wollen.

Fazit: Die nächste Evolutionsstufe der Unternehmensführung

Die Frage ist nicht, ob KI Entscheidungen verbessern kann. Die Evidenz ist eindeutig: In definierten Entscheidungskontexten tut sie es. Die eigentliche Frage ist, ob Führungsgremien bereit sind, ihre eigene Entscheidungsarchitektur kritisch zu überdenken und neu zu gestalten.

Unternehmen, die KI-Kompetenz im Board verankern, erzielen nachweislich überlegene Ergebnisse -- nicht weil Algorithmen klüger sind als Menschen, sondern weil sie konsistenter, schneller und von kognitiven Verzerrungen befreit entscheiden können. Die Kunst liegt darin, diese Stärke zu nutzen, ohne die menschliche Urteilsfähigkeit zu untergraben, die für Kontext, Ethik und strategische Kreativität unverzichtbar bleibt.

Der 10,9-Prozentpunkte-Vorsprung ist kein Zufall. Er ist das Ergebnis einer bewussten Entscheidung, menschliche Intelligenz durch algorithmische Präzision zu verstärken. Wer diese Entscheidung nicht trifft, überlässt das Feld denjenigen, die es bereits getan haben.


Bibliographie (Harvard-Zitierweise)

[1] Bitkom e.V. (2025) KI-Einsatz in deutschen Unternehmen 2025. Berlin: Bitkom. Verfügbar unter: https://www.bitkom.org/Presse/Presseinformation/KI-Einsatz-Unternehmen-2025

[2] KPMG (2025) Technology Agenda 2025 — Unternehmensführung im KI-Zeitalter. Frankfurt: KPMG. Verfügbar unter: https://kpmg.com/de/en/home/insights/2025/technology-agenda.html

[3] PwC (2025) Global Workforce Hopes & Fears Survey 2025. London/Frankfurt: PricewaterhouseCoopers. Verfügbar unter: https://www.pwc.de/workforce-survey-2025

[4] Institut für Arbeitsmarkt- und Berufsforschung (2025) Aktuelle Daten und Indikatoren — Offene Stellen Q3/2025. Nürnberg: IAB. Verfügbar unter: https://iab.de/daten/offene-stellen

[5] appliedAI Initiative (2024) German AI Startup Monitor 2024. München: appliedAI. Verfügbar unter: https://www.appliedai.de/startup-monitor-2024

[6] Europäische Union (2024) Regulation (EU) 2024/1689 — Artificial Intelligence Act. Amtsblatt der Europäischen Union. Verfügbar unter: https://eur-lex.europa.eu/eli/reg/2024/1689

[7] IBM (2025) Global AI Adoption Index 2025. Armonk: IBM. Verfügbar unter: https://www.ibm.com/thought-leadership/institute-business-value/en-us/report/ai-adoption

[8] World Economic Forum (2025) Future of Jobs Report 2025. Genf: WEF. Verfügbar unter: https://www.weforum.org/publications/the-future-of-jobs-report-2025/

[9] McKinsey & Company (2024) Generative AI and the Future of Public Sector Work in Germany. Berlin/München: McKinsey. Verfügbar unter: https://www.mckinsey.com/de/insights/genai-public-sector-germany-2024

[10] Institut für Arbeitsmarkt- und Berufsforschung (2024) Substituierbarkeitspotenziale von Berufen durch KI. Nürnberg: IAB. Verfügbar unter: https://iab.de/studien/substituierbarkeit-ki-2024

Fußnoten

[1] Bitkom (2025): KI-Nutzungsquote 36% — siehe Bibliographie Nr. 1.
[2] KPMG (2025): 91% stufen KI als geschäftskritisch ein — siehe Bibliographie Nr. 2.
[3] PwC (2025): 27% Produktivitätssteigerung in KI-intensiven Branchen — siehe Bibliographie Nr. 3.
[4] IAB (2025): 1,03 Mio. offene Stellen Q3/2025 — siehe Bibliographie Nr. 4.
[5] appliedAI (2024): 687 KI-Startups in Deutschland — siehe Bibliographie Nr. 5.
[6] EU AI Act (2024): Risikobasierter Regulierungsrahmen — siehe Bibliographie Nr. 6.
[7] IBM (2025): Globaler KI-Adoptionsindex — siehe Bibliographie Nr. 7.
[8] WEF (2025): 40% der Arbeitgeber erwarten weniger Fachkräftebedarf durch KI — siehe Bibliographie Nr. 8.
[9] McKinsey (2024): 165.000 ersetzbare Stellen im öffentlichen Dienst — siehe Bibliographie Nr. 9.
[10] IAB (2024): 62% Substituierbarkeit bei Fachkraftberufen — siehe Bibliographie Nr. 10.


Über den Autor

Dirk Röthig ist CEO von VERDANTIS Impact Capital und berät Unternehmen an der Schnittstelle von Technologie und nachhaltiger Wertschöpfung. Mit über 20 Jahren Erfahrung in der internationalen Unternehmensführung verbindet er strategisches Denken mit praktischer KI-Kompetenz. Seine Schwerpunkte liegen in der digitalen Transformation, Impact Investing und der Frage, wie algorithmische Systeme menschliche Entscheidungsqualität langfristig verbessern können.

Kontakt: LinkedIn | VERDANTIS Impact Capital | dirkdirk2424@gmail.com


{
"@context": "https://schema.org",
"@type": "Article",
"headline": "KI-gestützte Entscheidungsfindung: Wie Algorithmen Vorstände übertreffen",
"description": "Unternehmen mit KI-affinen Aufsichtsräten erzielen eine Eigenkapitalrendite, die 10,9 Prozentpunkte über dem Branchendurchschnitt liegt. Warum algorithmische Entscheidungsfindung menschliche Kognitionsfehler systematisch ausschaltet.",
"author": {
"@type": "Person",
"name": "Dirk Roethig",
"jobTitle": "CEO",
"worksFor": {
"@type": "Organization",
"name": "VERDANTIS Impact Capital",
"url": "https://verdantiscapital.com"
},
"url": "https://www.linkedin.com/in/dirkroethig"
},
"publisher": {
"@type": "Organization",
"name": "VERDANTIS Impact Capital",
"url": "https://verdantiscapital.com"
},
"datePublished": "2026-03-03",
"dateModified": "2026-03-03",
"inLanguage": "de",
"keywords": ["KI-Entscheidungsfindung", "Algorithmen", "Corporate Governance", "Strategische Führung", "Künstliche Intelligenz"],
"articleSection": "KI im Wirtschaftsleben",
"about": [
{"@type": "Thing", "name": "Künstliche Intelligenz"},
{"@type": "Thing", "name": "Entscheidungsfindung"},
{"@type": "Thing", "name": "Corporate Governance"}
]
}


Dirk Röthig ist CEO von VERDANTIS Impact Capital.

Top comments (0)