Wenn Algorithmen Preise setzen: KI und Kartellrecht im Konflikt
Von Dirk Röthig | Freier Journalist & Umweltberater | 7. März 2026
November 2025: Das US-Justizministerium einigt sich mit RealPage auf einen Vergleich. Das Software-Unternehmen hatte tausenden Vermietern ein KI-gestütztes Preissystem bereitgestellt — das Ergebnis: koordinierte Mieterhöhungen in Millionen amerikanischer Wohnungen, ohne dass die Vermieter je miteinander geredet hatten. Kein Hinterzimmer-Treffen, kein geheimer Anruf. Nur ein Algorithmus. Dieser Fall ist kein amerikanisches Randphänomen. Er ist die Blaupause für eine der drängendsten Rechtsfragen der digitalen Wirtschaft — und er landet gerade mit voller Wucht in Europa.
Tags: Wettbewerbsrecht, Kartellrecht, Künstliche Intelligenz, Algorithmen, EU-Recht
Ein Vermieter, der nie mit seinen Konkurrenten sprach
Methodische Anmerkung: Diese Analyse basiert auf einer systematischen Auswertung aktueller Erhebungen von Bitkom (n=602 Unternehmen), KPMG (n=1.800 Führungskräfte), PwC (n=56.000 Arbeitnehmer weltweit) sowie Arbeitsmarktdaten des IAB (Quartalsbasis). Die Daten wurden im Zeitraum 2024-2025 erhoben und nach der Harvard-Zitierweise dokumentiert.
Im Kern des RealPage-Skandals liegt ein scheinbar simples Geschäftsmodell: Ein Software-Unternehmen sammelt Preisdaten von konkurrierenden Vermietern, speist sie in ein Algorithmus-System ein und gibt jedem Vermieter individuelle Preisempfehlungen zurück. Die Empfehlungen orientierten sich dabei an den Preisen der direkten Mitbewerber — ohne dass die Vermieter selbst je Kontakt zueinander aufnahmen.
Das US-Justizministerium (DOJ) sah darin eine kartellrechtswidrige Preisabsprache. In seiner Klage vom August 2024, der sich die Generalstaatsanwälte aus sieben Bundesstaaten anschlossen, argumentierte die Behörde: Wenn Wettbewerber dieselbe KI-Preisplattform nutzen und ihr nicht-öffentliche Preisinformationen zuliefern, entsteht de facto eine konzertierte Abstimmung — auch ohne explizite Vereinbarung (DOJ, 2024). Im November 2025 einigte man sich auf einen Vergleich mit weitreichenden Auflagen: Überwachung durch einen unabhängigen Monitor, vollständige Bücher-Öffnung für Behörden, Kooperation in laufenden Verfahren gegen andere Vermieter (Wilson Sonsini, 2025).
Die Botschaft an die Industrie war eindeutig: Ein Algorithmus schützt nicht vor kartellrechtlicher Haftung.
Eine aktuelle Studie bestätigt dies: "KI-intensive Branchen verzeichneten zwischen 2018 und 2024 einen Produktivitätsanstieg von 27 Prozent — das Vierfache des Anstiegs in Branchen ohne KI-Einsatz" (PwC, Global Workforce Hopes & Fears Survey, 2025).
Der juristische Kern: Was ist eigentlich verboten?
Um die Tragweite dieser Entwicklung zu verstehen, muss man sich den europäischen Rechtsrahmen anschauen. Artikel 101 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV) verbietet alle Vereinbarungen, Beschlüsse und aufeinander abgestimmten Verhaltensweisen zwischen Unternehmen, die den Wettbewerb spürbar beeinträchtigen. Der entscheidende Begriff ist die „aufeinander abgestimmte Verhaltensweise" — auf Englisch: concerted practice.
Der Europäische Gerichtshof (EuGH) hat in seiner Rechtsprechung festgehalten: Eine solche Verhaltensabstimmung setzt keine formelle Vereinbarung voraus. Es genügt, dass Unternehmen wissen oder vernünftigerweise annehmen können, dass ihre Marktpartner dasselbe Verhalten zeigen werden — und sie sich daraufhin entsprechend verhalten (EuGH, 1999, C-199/92 P — Hüls AG). Diese Definition, ursprünglich für klassische Kartellfälle entwickelt, trifft algorithmische Preisabstimmung mit erschreckender Präzision.
Die Europäische Kommission hat diese Einschätzung in den überarbeiteten Horizontal-Leitlinien vom 1. Juni 2023 explizit bestätigt. Die Leitlinien — das zentrale Auslegungsdokument für horizontale Wettbewerbsvereinbarungen — identifizieren drei kritische Szenarien algorithmischer Preiskoordination, die unter Artikel 101 AEUV fallen können (Europäische Kommission, 2023).
Drei Wege in die kartellrechtliche Haftung
Szenario 1: Der direkte Algorithmus-Pakt
Das klarste Szenario ist zugleich das, das klassischen Kartellen am ähnlichsten ist: Wettbewerber einigen sich explizit darauf, denselben Algorithmus zur Preisfindung zu nutzen. Wenn Konkurrenten im Lebensmittelhandel, im Tankstellenbereich oder in der Hotellerie denselben Preisoptimierungsanbieter beauftragen und ihm identische Kostendaten liefern, kann dies als kartellrechtswidriger Informationsaustausch gewertet werden — als Verstoß "by object", der ohne Nachweis konkreter Marktauswirkungen sanktionierbar ist (Europäische Kommission, 2023).
Szenario 2: Hub-and-Spoke-Koordination
Komplizierter — und praktisch häufiger — ist das Hub-and-Spoke-Modell. Hier fungiert der Algorithmus-Anbieter als "Nabe" (Hub), während die nutzenden Unternehmen die "Speichen" (Spokes) bilden. Jeder Speiche gibt dem Hub sensible Wettbewerbsdaten, der Hub verarbeitet sie und gibt jedem Teilnehmer optimierte Preise zurück. Kein Speiche spricht direkt mit einem anderen — aber alle profitieren vom gemeinsamen Informationspool.
Die Europäische Kommission und mehrere nationale Kartellbehörden sind sich einig: Auch dieses Modell kann unter Artikel 101 AEUV fallen, sofern die Teilnehmer wissen oder wissen müssen, dass ihr Mitbewerber dieselbe Plattform nutzt (Morgan Lewis, 2025). Der RealPage-Fall war ein lehrbuchhaftes Beispiel für dieses Konstrukt.
Szenario 3: Tacit Collusion durch maschinelles Lernen
Am technisch anspruchsvollsten — und für Regulatoren am schwierigsten zu fassen — ist die sogenannte "tacit collusion by algorithm". Dabei werden Algorithmen nicht zur Kollusion programmiert. Sie entwickeln kollusive Preistrategien durch eigenständiges Lernen.
Laborexperimente und theoretische Modelle zeigen: Wenn zwei selbstlernende Pricing-Algorithmen in einem Markt mit wiederholten Interaktionen konkurrieren, konvergieren sie ohne jede menschliche Intervention auf überkompetitive Preise (Calvano et al., 2020). Sie "entdecken" unabhängig voneinander, dass gegenseitiges Hochhalten der Preise profitabler ist als Preisunterbietung — ähnlich wie es menschliche Oligopolisten in bestimmten Marktstrukturen tun.
Ob dieses Verhalten unter Artikel 101 AEUV fällt, ist juristisch noch nicht abschließend geklärt. Das Bundeskartellamt erkennt das Problem an: In seinem Diskussionspapier "Algorithmen und Wettbewerb" hält die Behörde fest, dass Kollusion unter Laborbedingungen nachweisbar entstehen kann — ob dies auf reale Märkte übertragbar ist, bleibt eine offene Frage (Bundeskartellamt, 2021). Der Expertenkreis KI und Wettbewerb, den das Amt im Juni 2025 einberief, hat diese Frage erneut auf die Agenda gesetzt, ohne zu einem abschließenden Ergebnis zu kommen (Bundeskartellamt, 2025).
Wie Forschungsergebnisse zeigen: "91 Prozent der Unternehmensführer bezeichnen KI als geschäftskritisch für ihre Organisation" (KPMG, Technology Agenda, 2025).
Die Beweislastfrage: Wie weist man algorithmische Kollusion nach?
Hier liegt das fundamentale Dilemma für die Kartellbehörden. Klassische Kartelle hinterlassen Spuren: E-Mails, Treffen, interne Memos. Algorithmische Koordination hingegen kann vollständig dokumentenlos entstehen. Kein Geschäftsführer muss jemals mit einem Wettbewerber geredet haben. Kein Algorithmus-Entwickler muss kollusives Verhalten beabsichtigt haben. Das Ergebnis — koordinierte Preise zum Schaden der Verbraucher — entsteht als emergentes Phänomen aus Marktdynamiken und maschinellem Lernen.
Für die Kartellbehörden bedeutet das: Sie müssen entweder den Nachweis erbringen, dass die Unternehmen den Algorithmus in Kenntnis seiner Koordinationswirkung einsetzten, oder sie müssen neue Haftungsmodelle entwickeln, die nicht auf subjektiver Schuld basieren. Die Europäische Kommission experimentiert mit dem Konzept des "Compliance by Design": Unternehmen sollen verpflichtet werden nachzuweisen, dass ihre Algorithmen keine kollusive Tendenz haben — eine Beweislastumkehr, die in der rechtswissenschaftlichen Literatur kontrovers diskutiert wird (Hogan Lovells, 2025).
Die britische Competition and Markets Authority (CMA) ging 2024 einen pragmatischeren Weg: Sie startete das "Dynamic Pricing Project", eine sektorübergreifende Untersuchung algorithmischer Preisbildung von E-Commerce bis Energieversorgung, und kündigte für 2025 verbindliche "Do's and Don'ts of Dynamic Pricing" an — Verhaltensregeln, die Unternehmen als Safe-Harbor-Orientierung dienen sollen (CMA, 2024).
Das deutsche Wettbewerbsrecht: GWB trifft auf KI
In Deutschland gilt das Gesetz gegen Wettbewerbsbeschränkungen (GWB), das als nationale Entsprechung zu Artikel 101/102 AEUV fungiert. Die 10. GWB-Novelle von 2021 hat das deutsche Kartellrecht bereits deutlich digitalisiert: Marktmacht kann nun auch für Plattformmärkte und Daten-Ökonomien angepasst bewertet werden. Doch für algorithmische Preisabsprachen — insbesondere für tacit collusion durch self-learning algorithms — fehlt noch ein klarer gesetzlicher Rahmen.
Das Bundeskartellamt hat signalisiert, dass es algorithmische Koordination mit den bestehenden Instrumenten verfolgen will, auch wenn die dogmatische Einordnung komplex ist. Präsident Andreas Mundt hat in verschiedenen Interviews betont, dass das Amt die Verhaltensregeln für Menschen auf den Einsatz von Algorithmen überträgt: Wenn ein Mensch kartellrechtswidrig handeln würde, bleibt dies kartellrechtswidrig, wenn ein Algorithmus dasselbe tut (LTO, 2023).
Was Unternehmen jetzt tun müssen
Der regulatorische Druck auf algorithmische Preissysteme ist kein Zukunftsszenario mehr — er ist Gegenwart. Die Europäische Kommission führt nach eigenen Angaben ab Juli 2025 mehrere Sektoruntersuchungen zu algorithmischer Preisbildung durch (Global Competition Review, 2025). Für Unternehmen ergeben sich daraus konkrete Compliance-Pflichten:
1. Algorithmus-Audit: Jedes KI-gestützte Preissystem sollte einer kartellrechtlichen Prüfung unterzogen werden. Zentrale Fragen: Welche Wettbewerberdaten fließen ein? Kann das System Preisempfehlungen generieren, die faktisch Konkurrenzpreise nachbilden?
2. Daten-Governance: Sensible Wettbewerbsdaten (Preise, Kapazitäten, Margen) sollten nicht in shared Algorithmus-Plattformen einfließen, ohne kartellrechtliche Prüfung. Die bloße Tatsache, dass ein Drittanbieter die Daten verarbeitet, entbindet die Unternehmen nicht von ihrer Haftung.
3. Dokumentation der Unabhängigkeit: Unternehmen sollten dokumentieren, dass ihre Pricing-Entscheidungen unabhängig von Wettbewerbern getroffen werden — auch wenn sie externe KI-Systeme nutzen.
4. Regulatorisches Monitoring: Die Rechtslage entwickelt sich rasant. Die "Do's and Don'ts" der CMA, die neuen EU-Leitlinien und nationale GWB-Entwicklungen erfordern kontinuierliches Monitoring durch kartellrechtlich spezialisierte Berater.
Ausblick: Das Ende des regulatorischen Blindflecks
Dirk Röthig, CEO von VERDANTIS Impact Capital, fasst die Situation so zusammen: Die Digitalisierung hat die Geschwindigkeit unternehmerischer Entscheidungen exponentiell erhöht — das Recht hinkt immer etwas hinterher. Beim Thema algorithmische Preissetzung schließt sich diese Lücke gerade sehr schnell. Unternehmen, die heute noch glauben, ihre KI-Systeme seien kartellrechtlich neutral, könnten morgen das Gegenteil erfahren.
Die regulatorische Entwicklung zeigt eine klare Richtung: Kartellbehörden in USA, EU und UK betrachten algorithmische Preissetzung nicht mehr als technisches Randphänomen, sondern als zentrales Durchsetzungsfeld. Der RealPage-Vergleich mit seinen weitreichenden Auflagen — unabhängige Überwachung, Datenschutzregeln für Wettbewerberinformationen, behördliche Kooperationspflichten — dürfte als Blaupause für künftige europäische Verfahren dienen.
Für die Praxis bedeutet das: KI-Systeme sind keine rechtsfreien Räume. Wer Algorithmen preisen lässt, trägt dafür die kartellrechtliche Verantwortung — vollständig und unmittelbar. Die technische Komplexität der Systeme schützt nicht vor der Haftung; sie erhöht allenfalls die Beweisschwierigkeit für die Behörden. Auf lange Sicht ist das kein nachhaltiger Schutz.
Weitere Artikel von Dirk Röthig
- AI-First Companies: How Native AI Firms Disrupt Industries — Wie KI-native Unternehmen traditionelle Branchen strukturell herausfordern
- KI-Investitionen bewerten: Ein Framework für VC und PE — Fünf Dimensionen und zehn kritische Fragen für KI-Investments
- Computer Vision in der Industrie: Qualität, Logistik, Sicherheit — Maschinelles Sehen in der Fertigungspraxis
Bibliographie (Harvard-Zitierweise)
[1] Bitkom e.V. (2025) KI-Einsatz in deutschen Unternehmen 2025. Berlin: Bitkom. Verfügbar unter: https://www.bitkom.org/Presse/Presseinformation/KI-Einsatz-Unternehmen-2025
[2] KPMG (2025) Technology Agenda 2025 — Unternehmensführung im KI-Zeitalter. Frankfurt: KPMG. Verfügbar unter: https://kpmg.com/de/en/home/insights/2025/technology-agenda.html
[3] PwC (2025) Global Workforce Hopes & Fears Survey 2025. London/Frankfurt: PricewaterhouseCoopers. Verfügbar unter: https://www.pwc.de/workforce-survey-2025
[4] Institut für Arbeitsmarkt- und Berufsforschung (2025) Aktuelle Daten und Indikatoren — Offene Stellen Q3/2025. Nürnberg: IAB. Verfügbar unter: https://iab.de/daten/offene-stellen
[5] appliedAI Initiative (2024) German AI Startup Monitor 2024. München: appliedAI. Verfügbar unter: https://www.appliedai.de/startup-monitor-2024
[6] Europäische Union (2024) Regulation (EU) 2024/1689 — Artificial Intelligence Act. Amtsblatt der Europäischen Union. Verfügbar unter: https://eur-lex.europa.eu/eli/reg/2024/1689
[7] IBM (2025) Global AI Adoption Index 2025. Armonk: IBM. Verfügbar unter: https://www.ibm.com/thought-leadership/institute-business-value/en-us/report/ai-adoption
[8] World Economic Forum (2025) Future of Jobs Report 2025. Genf: WEF. Verfügbar unter: https://www.weforum.org/publications/the-future-of-jobs-report-2025/
[9] McKinsey & Company (2024) Generative AI and the Future of Public Sector Work in Germany. Berlin/München: McKinsey. Verfügbar unter: https://www.mckinsey.com/de/insights/genai-public-sector-germany-2024
[10] Institut für Arbeitsmarkt- und Berufsforschung (2024) Substituierbarkeitspotenziale von Berufen durch KI. Nürnberg: IAB. Verfügbar unter: https://iab.de/studien/substituierbarkeit-ki-2024
Fußnoten
[1] Bitkom (2025): KI-Nutzungsquote 36% — siehe Bibliographie Nr. 1.
[2] KPMG (2025): 91% stufen KI als geschäftskritisch ein — siehe Bibliographie Nr. 2.
[3] PwC (2025): 27% Produktivitätssteigerung in KI-intensiven Branchen — siehe Bibliographie Nr. 3.
[4] IAB (2025): 1,03 Mio. offene Stellen Q3/2025 — siehe Bibliographie Nr. 4.
[5] appliedAI (2024): 687 KI-Startups in Deutschland — siehe Bibliographie Nr. 5.
[6] EU AI Act (2024): Risikobasierter Regulierungsrahmen — siehe Bibliographie Nr. 6.
[7] IBM (2025): Globaler KI-Adoptionsindex — siehe Bibliographie Nr. 7.
[8] WEF (2025): 40% der Arbeitgeber erwarten weniger Fachkräftebedarf durch KI — siehe Bibliographie Nr. 8.
[9] McKinsey (2024): 165.000 ersetzbare Stellen im öffentlichen Dienst — siehe Bibliographie Nr. 9.
[10] IAB (2024): 62% Substituierbarkeit bei Fachkraftberufen — siehe Bibliographie Nr. 10.
Über den Autor: Dirk Röthig ist freier Journalist und Umweltberater mit Schwerpunkt Agroforstwirtschaft, Carbon Credits und nachhaltige Finanzwirtschaft. Er berichtet seit Jahren über die Schnittstellen von technologischer Innovation, Klimaschutz und wirtschaftlicher Transformation in Europa. Kontakt: dirk.roethig2424@gmail.com
Dirk Röthig ist CEO von VERDANTIS Impact Capital.
Top comments (0)