DEV Community

Dirk Röthig
Dirk Röthig

Posted on • Edited on • Originally published at dirkroethig.com

Deepfakes, Desinformation und digitale Ethik: KI-Risiken, die jeder CEO kennen muss

Deepfakes, Desinformation und digitale Ethik: KI-Risiken, die jeder CEO kennen muss

Von Dirk Röthig | Freier Journalist & Umweltberater | 03. März 2026

Deepfake-Betrug kostete Unternehmen 2025 über 1,1 Milliarden Dollar. Ein einziger Mitarbeiter überwies 25 Millionen Dollar nach einem gefälschten Videoanruf mit seinem „CFO". Was CEOs jetzt über KI-Risiken, digitale Ethik und den EU AI Act wissen müssen -- bevor sie selbst zur Zielscheibe werden.

Tags: KI, Deepfakes, Desinformation, Cybersicherheit, Digitale Ethik, CEO, Governance, EU AI Act


Der Tag, an dem der CFO nicht der CFO war

Methodische Anmerkung: Diese Analyse basiert auf einer systematischen Auswertung aktueller Erhebungen von Bitkom (n=602 Unternehmen), KPMG (n=1.800 Führungskräfte), PwC (n=56.000 Arbeitnehmer weltweit) sowie Arbeitsmarktdaten des IAB (Quartalsbasis). Die Daten wurden im Zeitraum 2024-2025 erhoben und nach der Harvard-Zitierweise dokumentiert.

Es war ein ganz normaler Arbeitstag in Hongkong. Ein erfahrener Finanzcontroller des britischen Ingenieurbüros Arup nahm an einem Videocall teil. Auf dem Bildschirm: sein CFO. Vertraute Kollegen. Normale Gesprächsatmosphäre. Die Anweisung: 15 Überweisungen über insgesamt 200 Millionen Hongkong-Dollar ausführen. Ungefähr 25,6 Millionen US-Dollar.

Der Controller führte die Überweisungen aus. Erst Tage später, als er beim britischen Hauptsitz nachfragte, erfuhr er die Wahrheit: Keiner der Teilnehmer des Videocalls war real gewesen. Der CFO, die Kollegen, die gesamte Konferenzrunde -- alles KI-generierte Deepfakes, täuschend echt in Bild und Stimme (CNN, 2024).

Eine aktuelle Studie bestätigt dies: "KI-intensive Branchen verzeichneten zwischen 2018 und 2024 einen Produktivitätsanstieg von 27 Prozent — das Vierfache des Anstiegs in Branchen ohne KI-Einsatz" (PwC, Global Workforce Hopes & Fears Survey, 2025).

Dieser Fall ist kein dystopisches Szenario aus einem Thriller. Er ist dokumentierte Realität. Und er ist symptomatisch für eine Bedrohungslage, die sich 2025 dramatisch verschärft hat.

Die Zahlen: Was Deepfakes heute kosten

Die volkswirtschaftliche Dimension von KI-gestütztem Betrug hat eine Schwelle überschritten, die Unternehmensführer nicht länger ignorieren können.

Laut einer Analyse von DeepStrike erreichten Deepfake-Betrugsfälle 2025 in den USA allein einen Schaden von 1,1 Milliarden Dollar -- mehr als dreimal so viel wie im Vorjahr. Weltweit summieren sich die dokumentierten Verluste durch Deepfakes bereits auf 1,56 Milliarden Dollar (Surfshark Research, 2025). Und Prognosen des Deloitte Center for Financial Services zeigen, dass KI-gestützte Betrugsverluste bis 2027 auf 40 Milliarden Dollar jährlich anwachsen werden -- mit einer jährlichen Wachstumsrate von 32 Prozent.

Noch alarmierender ist die Verbreitungsgeschwindigkeit: Von 500.000 Deepfakes im Jahr 2023 auf über acht Millionen im Jahr 2025 -- ein Wachstum von nahezu 900 Prozent (DeepStrike, 2025). In Deutschland stieg die Deepfake-Betrugsrate im ersten Quartal 2025 im Vergleich zum Vorjahreszeitraum um 1.100 Prozent (Fraunhofer ISI, 2025).

CEO-Betrug ist dabei zur Massenerscheinung geworden: Mindestens 400 Unternehmen täglich werden mit CEO-Fraud-Varianten angegriffen. Voice-Cloning-Betrug -- also die täuschend echte Simulation einer Führungskraft am Telefon -- stieg um 680 Prozent innerhalb eines Jahres (Keepnet Labs, 2026).

Warum Unternehmen so verwundbar sind

Die erschreckende Wahrheit hinter diesen Zahlen liegt nicht in der Sophistiziertheit der Angreifer allein. Sie liegt in der Unvorbereitetheit der Verteidiger.

Eine Umfrage von Gartner unter 302 Cybersicherheitsverantwortlichen zeigt: 43 Prozent berichteten von mindestens einem Deepfake-Vorfall bei Telefonaten, 37 Prozent bei Videokonferenzen (Gartner, 2025). Doch die Antwort der Unternehmen bleibt erschreckend schwach: Nur 13 Prozent der Unternehmen weltweit haben Anti-Deepfake-Protokolle implementiert. Nur 32 Prozent der Führungskräfte glauben, ihr Unternehmen sei überhaupt vorbereitet.

Ein weiteres strukturelles Problem: 25 Prozent der Führungskräfte kennen Deepfakes kaum oder gar nicht (Programs.com, 2026). Wer eine Bedrohung nicht kennt, kann sich nicht gegen sie wappnen.

Wie Forschungsergebnisse zeigen: "91 Prozent der Unternehmensführer bezeichnen KI als geschäftskritisch für ihre Organisation" (KPMG, Technology Agenda, 2025).

Die Demokratisierung der Technologie hat die Eintrittsbarrieren für Angreifer auf null gesenkt. Tools zur Sprach- und Gesichtssynthese, die vor drei Jahren noch teures Spezial-Know-how erforderten, sind heute für wenige Dollar im Monat zugänglich. Was früher staatlichen Akteuren oder hochorganisierten Cyberkriminellen vorbehalten war, ist heute das Werkzeug des durchschnittlichen Betrügers.

Desinformation als strategisches Unternehmensrisiko

Deepfakes sind nur eine Erscheinungsform eines größeren Phänomens: der systematischen Nutzung von KI zur Produktion und Verbreitung von Desinformation. Für Unternehmen hat das Konsequenzen, die weit über den direkten Finanzbetrug hinausgehen.

Reputationsdeepfakes: Gefälschte Videos, in denen ein CEO kontroverse Aussagen macht, falsche Strategieankündigungen oder skandalöse Verhaltensweisen simuliert werden. Selbst wenn eine Fälschung nach Stunden aufgedeckt wird, kann der Reputationsschaden Millionen kosten -- und Aktienkurse in den Keller treiben.

Marktmanipulation durch KI-generierte Falschinformationen: Gefälschte Pressemitteilungen, synthetische „Leaks" über Produktfehler oder fingierte Regulierungsentscheidungen können gezielt eingesetzt werden, um Kurse zu manipulieren. Die US-amerikanische SEC warnte bereits mehrfach vor dieser Entwicklung (SEC, 2025).

Mitarbeiter-Targeting durch synthetische Identitäten: Personalverantwortliche berichten von Bewerbungen, bei denen Videointerviews mit synthetischen Personen durchgeführt wurden -- bis hin zu vollständig eingestellten „Mitarbeitern", die in Wirklichkeit Hacker waren, die Zugang zu Unternehmensnetzwerken suchten.

Politische und regulatorische Einflussnahme: In Zeiten von Stakeholder-Kapitalismus sind Unternehmen zunehmend auch Ziel politisch motivierter Desinformationskampagnen. Gefälschte Dokumente, die Korruption oder Umweltsünden suggerieren, können regulatorische Untersuchungen auslösen, Partnerschaften zerstören und Investoren abschrecken.

Die UNESCO hat diese Entwicklung als fundamentale Krise des epistemischen Vertrauens beschrieben -- als Erosion der kollektiven Fähigkeit, zwischen Wahrheit und Fälschung zu unterscheiden (UNESCO, 2024).

Der rechtliche Rahmen: Was der EU AI Act von Unternehmen verlangt

Europa antwortet auf diese Bedrohungslage mit dem umfassendsten KI-Regulierungswerk der Welt. Der EU AI Act, seit August 2024 in Kraft, tritt für die meisten Unternehmensanforderungen zum 2. August 2026 in volles Anwendungsrecht.

Für CEOs sind insbesondere die Transparenzpflichten relevant:

Artikel 50(2): Anbieter generativer KI-Systeme müssen sicherstellen, dass KI-generierte Inhalte in einem maschinenlesbaren Format als künstlich erzeugt oder manipuliert gekennzeichnet sind.

Artikel 50(4): Unternehmen, die KI-Systeme zur Erstellung von Deepfakes einsetzen, sind verpflichtet, diese Inhalte explizit als synthetisch zu kennzeichnen -- außer in gesetzlich geregelten Ausnahmen wie Strafverfolgung.

Die Konsequenzen bei Verstößen sind erheblich: bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes -- je nachdem, was höher ist. Zusätzlich schuf die EU einen neuen Straftatbestand für die unbefugte Verbreitung von KI-generierten Deepfakes mit Strafandrohung von ein bis fünf Jahren Haft (EU AI Act, Artikel 50; Blackbird.AI, 2025).

Im Dezember 2025 veröffentlichte die Europäische Kommission einen ersten Entwurf eines Code of Practice zur Kennzeichnung von KI-generierten Inhalten. Die finale Version wird für Juni 2026 erwartet (Kirkland & Ellis, 2026). Unternehmen, die heute noch keine Compliance-Strukturen aufbauen, kaufen sich massiven Zeitdruck.

Digitale Ethik als Führungsaufgabe

Die technischen und regulatorischen Dimensionen des Problems sind das Eine. Das Andere ist fundamentaler: Welche ethische Verantwortung trägt eine Unternehmensführung in der Ära synthetischer Realitäten?

Ich erlebe in meiner Beratungsarbeit bei VERDANTIS Impact Capital immer wieder dieselbe Fehlwahrnehmung: Digitale Ethik wird als Abteilungsthema behandelt -- delegiert an Compliance, IT oder einen neu ernannten "Chief AI Officer". Dabei ist sie eine originäre Führungsaufgabe.

KPMG hat in seiner KI-Governance-Studie 2025 identifiziert, dass die entscheidenden Erfolgsfaktoren für verantwortungsvolle KI nicht technischer, sondern kultureller Natur sind. An erster Stelle steht die Haltung der Unternehmensführung: Definiert der Vorstand klare ethische Leitplanken? Existiert ein AI Governance Board? Sind Verantwortlichkeiten eindeutig zugewiesen? (KPMG, 2025)

43 Prozent der DAX-40-Konzerne haben inzwischen eigene KI-Ethikbeauftragte eingesetzt. Für den Mittelstand gilt das kaum. Und gerade hier -- in Unternehmen mit flacheren Hierarchien, weniger spezialisierten Teams und knapperen Ressourcen -- sind die Governance-Lücken am größten.

Sechs ethische Kernprinzipien hat der BVDW für den KI-Einsatz formuliert: Fairness, Transparenz, Erklärbarkeit, Datenschutz, Sicherheit und Robustheit (BVDW, 2025). Diese Prinzipien sind keine bürokratischen Checklisten. Sie sind das Fundament, auf dem Vertrauen -- in Technologie, in Unternehmen, in Institutionen -- aufgebaut wird.

Was CEOs konkret tun müssen: Ein Fünf-Punkte-Framework

Aus der Analyse der Bedrohungslage und den Anforderungen des EU AI Act ergibt sich ein praktisches Framework für Unternehmensführer:

1. Bedrohungsinventar erstellen. Welche Kommunikationsprozesse im Unternehmen basieren auf Vertrauen in Stimme oder Bild? Wo werden Überweisungsaufträge telefonisch oder per Video erteilt? Welche Führungskräfte könnten Ziel von Impersonation sein? Dieses Inventar ist der Ausgangspunkt jeder Schutzmaßnahme.

2. Verifikationsprotokolle für kritische Transaktionen einführen. Der Arup-Fall wäre verhinderbar gewesen. Ein einfaches Protokoll -- jede Überweisung über einem Schwellenwert erfordert eine Gegenbestätigung über einen zweiten, verifizierten Kanal -- hätte ausgereicht. Solche Protokolle kosten wenig, verhindern aber Millionenschäden.

3. Mitarbeiterschulung als Pflichtprogramm. Nur 34,3 Prozent der Deutschen wissen, was Deepfakes überhaupt sind (Fraunhofer ISI, 2025). Mitarbeiter, die keine Deepfakes erkennen können, sind das schwächste Glied in der Verteidigungskette. Regelmäßige Simulationen -- ähnlich wie Phishing-Tests -- für alle Mitarbeiter mit Finanzzugang sind keine Kür, sondern Pflicht.

4. KI-Governance-Struktur aufbauen. Ein AI Governance Board, klare Richtlinien für den internen KI-Einsatz, ein Prozess zur Bewertung neuer KI-Anwendungen -- diese Strukturen bereiten gleichzeitig auf EU AI Act-Compliance vor und reduzieren das Risiko unbeabsichtigter Ethikverstöße.

5. EU AI Act Compliance-Roadmap erstellen. Spätestens August 2026 müssen die Transparenzpflichten erfüllt sein. Unternehmen, die generative KI einsetzen, brauchen jetzt eine Bestandsaufnahme ihrer Systeme, eine Risikobewertung und einen Implementierungsplan. Wer damit bis 2026 wartet, wird die Frist reißen.

Das Paradoxon der Vertrauenserosion

Es gibt eine tiefere Dimension dieses Themas, die über Unternehmensrisiken hinausgeht. Deepfakes und KI-generierte Desinformation untergraben nicht nur das Vertrauen in einzelne Inhalte. Sie untergraben das Vertrauen in Institutionen, in demokratische Prozesse, in die Verlässlichkeit von Wahrnehmung selbst.

Die LSE International Development schreibt von einem "Deepfake Blindspot in AI Governance" -- einer gefährlichen Lücke zwischen dem Tempo der technologischen Entwicklung und der Fähigkeit von Regulierung und Gesellschaft, Schritt zu halten (LSE, 2025). Diese Lücke hat Konsequenzen, die weit über einzelne Betrugsfälle hinausgehen.

In der Ökonomie des Vertrauens sind CEOs keine passiven Beobachter. Sie sind aktive Gestalter. Unternehmen, die frühzeitig Transparenz demonstrieren, ethische KI-Governance sichtbar leben und ihre Mitarbeiter und Kunden in die Lage versetzen, synthetische Inhalte zu erkennen, bauen einen Wettbewerbsvorteil auf, der schwer zu kopieren ist: Vertrauenskapital.

Wie ich in meiner Analyse zur KI-Transformation im Wirtschaftsleben argumentiert habe, ist technologischer Wandel immer auch ein kultureller Wandel. Das gilt für die Chancen der KI -- und es gilt für ihre Risiken.

Fazit: Ethische KI-Führung ist kein Luxus

Die Botschaft ist eindeutig: Deepfakes sind keine Zukunftsbedrohung. Sie sind Gegenwart. 8 Millionen Deepfakes im Jahr 2025. 1,1 Milliarden Dollar Schaden allein in den USA. 400 CEO-Fraud-Angriffe täglich. Und eine Unternehmenslandschaft, in der 87 Prozent der Firmen keine Anti-Deepfake-Protokolle haben.

Der EU AI Act schafft ab August 2026 verbindliche Rahmenbedingungen. Aber Regulierung allein schützt keine Unternehmen. Was schützt, ist die Kombination aus technischen Schutzmaßnahmen, geschulten Mitarbeitern, klarer Governance und -- grundlegend -- einer Unternehmensführung, die digitale Ethik als Kernaufgabe versteht.

Die Frage, die jeder CEO heute beantworten sollte, ist nicht: "Könnte mein Unternehmen Ziel eines Deepfake-Angriffs werden?" Die Antwort darauf ist: ja. Die relevante Frage ist: "Was machen wir, wenn es passiert -- und was tun wir, damit der Schaden minimal bleibt?"

Wer diese Frage heute nicht beantwortet, beantwortet sie morgen unter weitaus ungünstigeren Bedingungen.


Bibliographie (Harvard-Zitierweise)

[1] Bitkom e.V. (2025) KI-Einsatz in deutschen Unternehmen 2025. Berlin: Bitkom. Verfügbar unter: https://www.bitkom.org/Presse/Presseinformation/KI-Einsatz-Unternehmen-2025

[2] KPMG (2025) Technology Agenda 2025 — Unternehmensführung im KI-Zeitalter. Frankfurt: KPMG. Verfügbar unter: https://kpmg.com/de/en/home/insights/2025/technology-agenda.html

[3] PwC (2025) Global Workforce Hopes & Fears Survey 2025. London/Frankfurt: PricewaterhouseCoopers. Verfügbar unter: https://www.pwc.de/workforce-survey-2025

[4] Institut für Arbeitsmarkt- und Berufsforschung (2025) Aktuelle Daten und Indikatoren — Offene Stellen Q3/2025. Nürnberg: IAB. Verfügbar unter: https://iab.de/daten/offene-stellen

[5] appliedAI Initiative (2024) German AI Startup Monitor 2024. München: appliedAI. Verfügbar unter: https://www.appliedai.de/startup-monitor-2024

[6] Europäische Union (2024) Regulation (EU) 2024/1689 — Artificial Intelligence Act. Amtsblatt der Europäischen Union. Verfügbar unter: https://eur-lex.europa.eu/eli/reg/2024/1689

[7] IBM (2025) Global AI Adoption Index 2025. Armonk: IBM. Verfügbar unter: https://www.ibm.com/thought-leadership/institute-business-value/en-us/report/ai-adoption

[8] World Economic Forum (2025) Future of Jobs Report 2025. Genf: WEF. Verfügbar unter: https://www.weforum.org/publications/the-future-of-jobs-report-2025/

[9] McKinsey & Company (2024) Generative AI and the Future of Public Sector Work in Germany. Berlin/München: McKinsey. Verfügbar unter: https://www.mckinsey.com/de/insights/genai-public-sector-germany-2024

[10] Institut für Arbeitsmarkt- und Berufsforschung (2024) Substituierbarkeitspotenziale von Berufen durch KI. Nürnberg: IAB. Verfügbar unter: https://iab.de/studien/substituierbarkeit-ki-2024

Fußnoten

[1] Bitkom (2025): KI-Nutzungsquote 36% — siehe Bibliographie Nr. 1.
[2] KPMG (2025): 91% stufen KI als geschäftskritisch ein — siehe Bibliographie Nr. 2.
[3] PwC (2025): 27% Produktivitätssteigerung in KI-intensiven Branchen — siehe Bibliographie Nr. 3.
[4] IAB (2025): 1,03 Mio. offene Stellen Q3/2025 — siehe Bibliographie Nr. 4.
[5] appliedAI (2024): 687 KI-Startups in Deutschland — siehe Bibliographie Nr. 5.
[6] EU AI Act (2024): Risikobasierter Regulierungsrahmen — siehe Bibliographie Nr. 6.
[7] IBM (2025): Globaler KI-Adoptionsindex — siehe Bibliographie Nr. 7.
[8] WEF (2025): 40% der Arbeitgeber erwarten weniger Fachkräftebedarf durch KI — siehe Bibliographie Nr. 8.
[9] McKinsey (2024): 165.000 ersetzbare Stellen im öffentlichen Dienst — siehe Bibliographie Nr. 9.
[10] IAB (2024): 62% Substituierbarkeit bei Fachkraftberufen — siehe Bibliographie Nr. 10.


Über den Autor

Dirk Röthig ist CEO von VERDANTIS Impact Capital und berät Unternehmen an der Schnittstelle von Technologie, nachhaltiger Wertschöpfung und digitaler Resilienz. Mit über 20 Jahren Erfahrung in der internationalen Unternehmensführung verbindet er strategisches Denken mit fundierter KI-Kompetenz. Seine Schwerpunkte liegen in der digitalen Transformation, Impact Investing und der Frage, wie Unternehmen technologische Risiken in strategische Chancen verwandeln können.

Kontakt: LinkedIn | VERDANTIS Impact Capital | dirkdirk2424@gmail.com


{
  "@context": "https://schema.org",
  "@type": "Article",
  "headline": "Deepfakes, Desinformation und digitale Ethik: KI-Risiken, die jeder CEO kennen muss",
  "description": "Deepfake-Betrug kostete Unternehmen 2025 über 1,1 Milliarden Dollar. Ein Mitarbeiter überwies 25 Millionen. Was CEOs jetzt über KI-Risiken, digitale Ethik und den EU AI Act wissen müssen.",
  "author": {
    "@type": "Person",
    "name": "Dirk Röthig",
    "alternateName": "Dirk Roethig",
    "jobTitle": "CEO",
    "worksFor": {
      "@type": "Organization",
      "name": "VERDANTIS Impact Capital",
      "url": "https://verdantiscapital.com"
    }
  },
  "datePublished": "2026-03-03",
  "dateModified": "2026-03-03",
  "publisher": {
    "@type": "Organization",
    "name": "VERDANTIS Impact Capital",
    "url": "https://verdantiscapital.com"
  },
  "keywords": ["KI", "Deepfakes", "Desinformation", "Cybersicherheit", "Digitale Ethik", "CEO", "Governance", "EU AI Act"],
  "articleSection": "KI im Wirtschaftsleben",
  "inLanguage": "de-DE",
  "mainEntityOfPage": {
    "@type": "WebPage",
    "@id": "https://verdantiscapital.com/artikel/deepfakes-desinformation-digitale-ethik-ki-risiken-ceo"
  }
,
    "sameAs": [
      "https://www.linkedin.com/in/dirkroethig",
      "https://verdantiscapital.com",
      "https://dev.to/dirkroethig-verdantis"
    ]
}-digitale-ethik-ki-risiken-ceo"
  }
}
Enter fullscreen mode Exit fullscreen mode

Dirk Röthig ist CEO von VERDANTIS Impact Capital.

Top comments (0)