Direkt zum Seiteninhalt springen

EU-Binnenmarkt und Online‑Plattformen

Zwischen Markt, Macht und technologischer Souveränität

SWP-Studie 2026/S 04, 28.01.2026, 28 Seiten

doi:10.18449/2026S04

Forschungsgebiete

Dr. Sebastian Heidebrecht ist Universitätsassistent am Centre for European Integration Research (EIF), das am Institut für Politikwissenschaft der Universität Wien angesiedelt ist.

Dr. Paweł Tokarski ist Wissenschaftler in der Forschungsgruppe EU / Europa.

  • Große Internetplattformen prägen Wirtschaft, Politik und Gesellschaft in der EU, stellen den Binnenmarkt vor neue Herausforderungen und sind wegen ihrer überwiegenden US-amerikanischen Herkunft auch zu­nehmend ein geopolitisches Konfliktthema.

  • Online-Plattformen haben ambivalente Effekte: Sie fördern Integration, Innovation und Digitalisierung des Binnenmarkts, bergen aber zugleich Risiken wie Marktmachtmissbrauch, Desinformation und intransparente algorithmische Steuerung.

  • Die EU hat ihren Regulierungsansatz deutlich verschärft, insbesondere mit den beiden Verordnungen DSA und DMA. Sie steht bei der Durch­setzung jedoch vor einer Reihe von Hürden: der nicht eindeutigen Rechtsklarheit, der asymmetrischen Ressourcenverteilung zwischen Regulierungsbehörden und großen digitalen Plattformen und der un­zureichenden Verpflichtung zu algorithmischer Transparenz.

  • Zur Stärkung der digitalen Souveränität wird die Einrichtung einer unabhängigen europäischen Digitalaufsicht empfohlen. Sie könnte darauf hinwirken, dass nationale Vollzugsdefizite und regulatorische Fragmentierung überwunden und Vorschriften einheitlich durchgesetzt werden.

  • Digitale Regulierung allein reicht nicht aus: Sie muss durch eine um­fassende industrie- und wettbewerbspolitische Strategie ergänzt werden, die das Wachstum europäischer Technologieunternehmen im globalen Wettbewerb fördert.

Problemstellung und Empfehlungen

Die dynamische Entwicklung von Internetplattformen ist einer der bedeutendsten Aspekte der digitalen Ökonomie. Insbesondere die Plattformen mit der größten Reichweite und die sie betreibenden Unter­nehmen sind nicht nur für das Funktionieren des Binnenmarkts der Europäischen Union, sondern auch für die politischen und sozialen Systeme zu einer Herausforderung geworden. Da sie fast ausnahmslos aus den Vereinigten Staaten stammen und die norma­tiven Unterschiede auf beiden Seiten des Atlantiks wachsen, ist die Kontrolle ihrer Aktivitäten nicht nur zu einem wirtschaftlichen und regulatorischen, sondern auch zu einem politischen Streitthema geworden. Trotz ambitionierter Pläne zur Stärkung ihrer digitalen Souveränität sind kurzfristig keine wesentlichen technologischen Fortschritte in der EU absehbar. Umso wichtiger ist es, dass die Union einen wirkungsvollen digitalen Regulierungsrahmen schafft, der ihre Handlungsfähigkeit im digitalen Raum sichert. Die vorliegende Studie geht deshalb der Frage nach, wie die EU ihre Regulierung angesichts der dynamischen Plattformentwicklung so ausgestalten kann, dass negative Effekte begrenzt und positive Beiträge zum Binnenmarkt erhalten bleiben bzw. generiert werden.

Ausgangspunkt ist die bestehende definitorische Unschärfe des Begriffs Online-Plattformen und die ambivalenten Auswirkungen der Tätigkeit dieser digitalen Portale auf den Binnenmarkt. Diese hat zweifellos positive Effekte, beispielsweise im Hinblick auf die Vertiefung oder die Digitalisierung des Binnen­markts. In den letzten Jahren sind jedoch die mit Online-Plattformen verbundenen Risiken, wie der Missbrauch einer marktbeherrschenden Stellung oder die Verbreitung von Desinformation durch undurchsichtige Algorithmen, immer deutlicher hervor­getreten und haben sich von einer regulatorischen Herausforderung zu einem wachsenden wirtschaft­lichen, sozialen und politischen Problem entwickelt. Die Ambivalenz der Wirkungen der Plattformaktivi­täten führt zu schwer lösbaren Konflikten zwischen den Zielen, die mit einer Regulierung digitaler Dienstleister verbunden werden: auf der einen Seite Innovation, auf der anderen Datenschutz, auf der einen Seite Meinungsfreiheit, auf der anderen die Moderation von Inhalten. Die Frage, wie Chancen und Risiken von Online-Plattformen ausbalanciert werden können, wird maßgeblich darüber ent­scheiden, ob der digitale Binnenmarkt langfristig zu einer Erfolgsgeschichte wird.

Die Haltung der EU zur Regulierung von Internetplattformen hat sich stark gewandelt. Von einem liberalen, auf den Grundsätzen der Marktwirtschaft basierenden Ansatz ausgehend ist die EU mittlerweile von der Notwendigkeit einer sehr umfassenden Re­gulierung überzeugt. Deren Ziel soll es sein, wichtige Aspekte des Funktionierens des Binnenmarkts und die Rechte der Bürger zu schützen. Davon sind die Union und die Mitgliedstaaten aber noch weit ent­fernt. Die EU verfügt über eine Reihe von Rechts­instrumenten zur Regulierung von Plattformen, insbesondere die seit Mai 2023 und Februar 2024 uneingeschränkt in der EU geltenden Gesetze über digitale Dienste (DSA) und über digitale Märkte (DMA). Eine Herausforderung stellen jedoch die Viel­schichtigkeit der Funktionsweise von Plattformen, die technische Komplexität, die zu klärenden Rechts­streitigkeiten und die erheblichen Ressourcen dar, die die betroffenen Unternehmen für Lobbyarbeit und Rechtsberatung aufwenden können. So werden Regulierungsverfahren erschwert und die Rechtsdurchsetzung verzögert. Deshalb geht die Einführung von Regeln und Sanktionen für Online-Plattformen nur langsam voran. Die Vorgaben sind moderat, un­einheitlich und immer noch unzureichend, was die Offenlegungspflichten in Bezug auf die verwendeten Algorithmen betrifft, die ein zentrales Element der Funktionsweise der Plattformen sind.

Vor diesem Hintergrund sollte sich die Bundes­regierung im Rahmen der EU für die Einrichtung einer gemeinsamen unabhängigen digitalen Aufsichtsbehörde einsetzen. Damit könnte eine harmo­nisierte Durchsetzung der Allgemeinen Datenschutzverordnung, des DSA, des DMA und der KI-Ver­ordnung im gesamten Binnenmarkt gewährleistet werden. Die Etablierung einer solchen Behörde wäre ein großer Schritt, um Durchsetzungsengpässe auf der Ebene der Mitgliedstaaten, wie sie in Irland zu beobachten sind, und eine Fragmentierung zu überwinden, die die Wirksamkeit der Regulierung reduziert. Dies wäre auch ein entscheidender Faktor zur Stärkung der europäischen technologischen Souveränität. Die Behörde kann die Unabhängigkeit der EU von potentieller politischer Einflussnahme auf die Kommission durch mitgliedstaatliche und private Partikularinteressen erhöhen und die digitale Souve­ränität durch eine einheitliche marktweite Aufsicht stärken. Ungeachtet dessen sollte die Bundesregierung die Bemühungen der Europäischen Kommission um eine einheitliche und effektive Anwendung der bestehenden Vorschriften für Plattformen in der EU und den Mitgliedstaaten unterstützen.

Die digitalen Regulierungsinstrumente müssen in einen breiteren wirtschaftspolitischen Kontext ein­geordnet werden. Sie allein können die strukturellen Herausforderungen der europäischen Wettbewerbsfähigkeit nicht lösen; vielmehr müssen sie durch Maßnahmen ergänzt werden, die günstige Rahmenbedingungen für das Wachstum leistungsfähiger Technologieunternehmen schaffen – sowohl inner­halb des Binnenmarkts als auch im globalen Wett­bewerb mit Akteuren aus den USA und China.

Online-Plattformen: terminologische Unschärfen und konzeptionelle Grenzen

Online-Plattformen,1 die von großen Technologie­unternehmen (Big-Tech) betrieben werden,2 spielen eine wachsende Rolle in der modernen Wirtschaft, da sie einen neuen digitalen Raum für soziale und wirtschaftliche Interaktionen schaffen. Die verschiedenen Plattformen, seien es soziale Medien wie Meta, Videoplattformen wie YouTube oder andere Dienste oder Marktplätze und Suchmaschinen, sind für praktisch jeden Aspekt des modernen Lebens von enormer Bedeutung, von der zwischenmenschlichen Interaktion über den Verkauf und die kulturelle Pro­duktion bis hin zur politischen Praxis. Plattformen transformieren die Wirtschaft, weil sie digitale Technologien und Daten nutzen, um integrierte Ökosysteme zu schaffen, die mehrere Märkte mit­einander verbinden. Dadurch stellen sie klassische Industrie- und Finanzstrukturen in Frage: Sie ver­ändern die Art und Weise, wie Finanzdienstleistungen erbracht werden, und begünstigen – gestützt durch ihre algorithmischen Infrastrukturen und datengetriebene Geschäftsmodelle – eine enorme Konzentration von Marktmacht.3

Die Hälfte der zehn weltweit größten Unternehmen nach Marktkapitalisierung im Jahr 2025 sind Firmen, die digitale Dienstleistungen über Plattformen an­bieten.4 Diese globalen Konzerne, auch als »Big Five« bezeichnet, Amazon, Apple, Google, Meta und Micro­soft, sind führend in den Bereichen E-Commerce, Software, Datenerfassung, Suche und Verarbeitung, auch verbunden mit KI, und die Säulen der heutigen digitalen Wirtschaft. Sie verwalten Dutzende von Online-Plattformen und Milliarden von Nutzerkonten. Zum Beispiel verfügt Alphabet/Google über eine Viel­zahl von eigenständigen Online-Anwendungen, zu denen nicht nur die bekannte Suchmaschine, son­dern unter anderem noch Gmail, Drive, Maps, Android, Chrome, YouTube und die Google Cloud Platform zählen. Allein der Chrome-Webbrowser verzeichnet über 3,5 Milliarden aktive Nutzer weltweit.5

Plattformen generieren wirtschaft­lichen Wert durch Daten, Algorithmen und Netzwerkeffekte.

Eine klare begriffliche Bestimmung von Online-Plattformen ist eine unerlässliche Voraussetzung, um die Chancen und Risiken, die sich rechtlich, öko­nomisch und auch politisch aus ihren Aktivitäten er­geben, adäquat zu beurteilen. Die Vielfalt ebendieser Aktivitäten in den Bereichen des wirtschaftlichen und sozialen Lebens führt jedoch zu Problemen bei der Definition der Plattformen.6 Sie können als unternehmensgeführte digi­tale Infrastrukturen bezeichnet werden, die als Intermediäre zwischen unterschied­lichen Nutzergruppen fungieren und Interaktionen und Transaktionen koordinieren. Sie generieren wirtschaftlichen Wert, indem sie Datenverarbeitung, algorithmische Vermittlung und positive Netzwerk­effekte nutzen, die mit steigenden User-Zahlen wachsende Skalierungsgewinne ermöglichen. Die Organisation for Economic Co-operation and Devel­opment (OECD) definiert diese Art von Wirtschafts­akteur als »digitalen Dienst«, der Interaktionen zwischen zwei oder mehr Marktteilnehmern ermög­licht, die diese Interaktionen über das Internet ab­wickeln.7 Dabei heben die Autorinnen und Autoren der Studie als typisierendes Element neben dem Interaktionseffekt unter anderem die Bedeutung des Netzwerkeffekts und der Skaleneffekte hervor. Andere Experten betonen darüber hinaus die Fähig­keit von Plattformen, durch eine kontinuierliche Steigerung der Anziehungskraft der angebotenen Dienste für unterschiedliche Nutzergruppen und durch die aktive, datenbasierte Verwaltung des Netzwerks einen sich selbst verstärkenden Wert­schöpfungsprozess in Gang zu setzen.8 Auch die Rolle der Algorithmen bei der fortlaufenden Verbesserung der Attraktivität dieser Netzwerke durch die kom­plexe Verarbeitung riesiger Datenmengen wird unterstrichen.9 Die Aktivitäten der von den führenden Technologiekonzernen verwalteten Plattformen gehen weit über die Schaffung von wirtschaftlichem Wert hinaus. Die Big Five dominieren zunehmend den europäischen digitalen Raum, fungieren als Gatekeeper für soziale und wirtschaftliche Akti­vitäten im Internet, beeinflussen die Struktur der Gesellschaft und den demokratischen Prozess und stellen damit eine Herausforderung für die Regulierungsbehörden dar.10

Die EU hat im November 2022 das Gesetz über digitale Dienste (Digital Services Act, DSA) und das Gesetz über digitale Märkte (Digital Markets Act, DMA) in Kraft gesetzt. Im Rahmen dessen hat sie die detail­liertesten und umfassendsten Begriffsbestimmungen für digitale Plattformen formuliert, die zugleich sek­tor­übergreifend anwendbar sind. Die Definition des DSA bezieht sich auf »Hosting-Dienste«, die darin beste­hen, Informationen im Auftrag eines Nutzers »zu speichern und öffentlich zugänglich zu machen«.11 Im Gesetz über digitale Märkte werden solche Dienstleistungs­unternehmen als Plattformen bezeichnet, die einen der dort aufgeführten »Kerndienste« (core platform services) anbieten: Internetvermittlungsdienste, Such­maschinen, soziale Online-Netzwerkdienste, Video­plattformdienste, Dienste der zwischenmenschlichen Kommunikation (und zwar solche, die die Nutzer nicht über Rufnummern miteinander verbinden), Betriebssysteme, Webbrowser, virtuelle Assistenten, Cloud-Computing-Dienste und Online-Werbedienste.12

Im Rahmen des DSA klassifiziert die Europäische Kommission die größten Plattformen entweder als Very Large Online Platforms (VLOPs) oder als Very Large Online Search Engines (VLOSEs). Das Haupt­kriterium ist dabei, dass sie mehr als 45 Millionen aktive Nutzer monatlich in der EU haben.13 Die Liste der Unternehmen, die von der Kommission seit Februar 2024 als VLOPs und VLOSEs eingestuft werden, ist in Tabelle 1 (S. 9) aufgeführt.

Das auf Basis des DSA festgelegte Kriterium der Nutzerzahl ist jedoch möglicherweise nicht zuverlässig genug, wie das Beispiel TikTok zeigt. Obwohl diese Plattform innerhalb der EU eine geringere Nutzer­basis aufweist als Facebook oder YouTube, sind die mit ihrer Tätigkeit einhergehenden Risiken, wie die massive Verbreitung schädlicher Inhalte, als un­verhältnismäßig hoch einzustufen.14

Tabelle 1 Sehr große Online-Plattformen (VLOPs) und sehr große Online-Suchmaschinen (VLOSEs) nach den Kriterien der EU-Kommission (Stand: Dezember 2025)

Plattform / Dienst

Durchschnittliche Anzahl aktiver Nutzer pro Monat (in Mio.)
in der EU

Kategorie

Land (globaler Unternehmenssitz)

YouTube

416,6

VLOP

USA

Google Search

364

VLOSE

USA

Google Play

284,6

VLOP

USA

Google Maps

275,6

VLOP

USA

Instagram

259

VLOP

USA

Meta (Facebook)

259

VLOP

USA

Amazon Store

181,3

VLOP

USA

XVideos

160

VLOP

Tschechien

Wikipedia

151,1

VLOP

USA

TikTok

135,9

VLOP

China

Pinterest

124

VLOP

USA

App Store (Apple)

123

VLOP

USA

Bing (Microsoft)

119

VLOSE

Irland / USA

X (Twitter)

115,1

VLOP

USA

Shein

108

VLOP

China

AliExpress

104,3

VLOP

China

Snapchat

102

VLOP

USA

Zalando

101,3

VLOP

Deutschland

Temu

75

VLOP

China

Google Shopping

70,8

VLOP

USA

LinkedIn

45,2

VLOP

USA

Booking.com

über 45

VLOP

Niederlande

Pornhub

über 45

VLOP

Kanada

XNXX

45

VLOP

Tschechien

Quelle: European Commission, Supervision of the Designated Very Large Online Platforms and Search Engines under DSA, <https://digital-strategy.ec.europa.eu/en/policies/list-designated-vlops-and-vloses> (Zugriff am 19.6.2025).

Einen alternativen Ansatz bietet der DMA. Die Kommission definiert hier »Gatekeeper« als Firmen, die eine marktbeherrschende Stellung einnehmen und über ihre Online-Plattformen den Zugang der Nutzer zu diesem Markt kontrollieren können. Die Klassifizierung erfolgt demnach auf der Grundlage von Kriterien der wirtschaftlichen Dominanz und nicht ausschließlich der Größe der Zielgruppe. Im zweiten Halbjahr 2025 wurden Alphabet, Amazon, Apple, Booking, ByteDance, Meta und Microsoft von der EU-Kommission als Gatekeeper eingestuft.15

Die verschiedenen Kategorisierungen von Platt­formen im DSA und im DMA haben ihre Ursache in unterschiedlichen Regulierungszielen. Der DSA konzentriert sich auf die Gefahren für Nutzer durch schädliche Inhalte. Der DMA will dagegen Marktmissbrauch bekämpfen. In der Praxis werden viele Plattformen, wie Google, Meta, Apple oder Amazon, sowohl als VLOPS und als auch als Gatekeeper ein­gestuft. In diesem Kontext stellt sich die Frage, warum andere global agierende Netzwerk-Unternehmen nicht unter die beiden EU-Regulierungen fallen. Beispielsweise werden Visa und Mastercard häufig nicht als Anbieter von Dienstleistungen auf Platt­formen klassifiziert.16 Sie haben einen Netzwerk­effekt, verbinden Händler, Banken und Verbraucher, ähnlich wie Online-Plattformen Nutzer verbinden, Online-Transaktionen anbieten und Nutzerdaten verwalten. Auch wenn ihre Dominanz auf dem Markt für Kartenzahlungen Bedenken hinsichtlich der technologischen Souveränität der EU aufkommen lässt, vermitteln diese Unternehmen aber keine Inhalte, betreiben keinen Marktplatz und verwalten auch nicht die Sichtbarkeit ihrer Produkte.

Die außenpolitische Instrumentalisie­rung der Plattformen tritt zunehmend hervor.

Eine überwältigende Anzahl der VLOPs in der Tabelle 1, nämlich 13 von 22 stammen aus den USA. Was die Gatekeeper angeht, so haben alle Unter­nehmen außer Bytedance ebenfalls ihren Sitz in den USA. Die globale Dominanz großer Plattform­unternehmen geht einher mit einer hohen politisch-ökonomischen Relevanz, die insbesondere angesichts divergierender Regulierungsauffassungen in der EU und in den USA zum Tragen kommt. Unterschied­liche normative Leitbilder führen dazu, dass Fragen von Marktstruktur, Datenschutz, Inhaltsmoderation und Plattformmacht zunehmend politisiert werden. Aktuelle Ereignisse zeigen, wie stark der politische Impact von Plattformakteuren bereits ist. So stellte beispielsweise US-Vizepräsident J. D. Vance am 14. Februar 2025 in München die europäische Aus­legung von Meinungsfreiheit und damit die EU-Platt­formregulierung insgesamt in Frage. Dabei wird das Thema der Plattformregulierung mit sicherheits­politischen Elementen, wie etwa der Unterstützung im Rahmen der Nato, verknüpft. In Taiwan gerät TikTok unter Beobachtung, da die dortige Regierung befürchtet, dass die chinesische Mutterfirma auf Informationsflüsse einwirkt. Die außenpolitische Instrumentalisierung der Plattformen tritt zunehmend hervor: Sie werden gezielt genutzt, um wirtschaft­lichen und politischen Einfluss international aus­zubauen.

Die definitorische Unschärfe des Plattformbegriffs ist mit Blick auf die regulatorische Debatte in der EU weiterhin von Belang. Je nachdem, ob Plattformen als Intermediäre, Infrastrukturbetreiber, Datenunternehmen, Marktorganisatoren oder als umfassende digitale Ökosysteme verstanden werden, ergeben sich unterschiedliche Anknüpfungspunkte, wer wofür ver­antwortlich ist und welche Risiken reguliert werden müssen. Die oben genannten Beispiele illustrieren, wie Plattformen über ihre wirtschaftliche Funktion hinaus politische Wirkungen entfalten. Dieses Poten­tial verstärkt die Divergenz ohnehin schon ungleicher Regulierungsansätze und erhöht die Schwierigkeit konsistenter Antworten zusätzlich. Darüber hinaus erzeugen Plattformfirmen im EU-Binnenmarkt sehr unterschiedliche, teils widersprüchliche Effekte. Diese Ambivalenzen sind eine Herausforderung für die Bestrebungen, eine einheitliche Regulierung durch­zusetzen. Welche Probleme sich dabei stellen, ist Ausgangspunkt des folgenden Abschnitts.

Die Plattformwirtschaft und der Binnenmarkt: Chancen, Risiken und regulatorische Zielkonflikte

Das Verhältnis zwischen dem europäischen Binnenmarkt und den großen Online-Platt­formen ist kom­plex. Dabei lassen sich zwei grundlegende Perspek­tiven unterscheiden: Einerseits tragen die digitalen Plattformen zur Stärkung des Binnenmarkts im digitalen Bereich bei, zum Beispiel durch einen besseren grenzüberschreitenden Zugang zu Gütern und Dienstleistungen oder durch Preistransparenz. Andererseits werden die Risiken, die sich aus den Geschäftsmodellen der Plattformen ergeben, immer deutlicher. Diese zeigen sich nicht nur in wirtschaftlicher, sondern auch in sozialer, politischer und sicherheitspolitischer Hinsicht. Diese positiven wie negativen Effekte überschneiden sich zudem häufig in denselben Funktionsbereichen, was die Identi­fizierung eindeutiger Regulierungsziele erschwert und die Entwicklung kohärenter Steuerungsansätze zu einer besonderen Herausforderung macht.

Funktionale Vorteile und Wertschöpfungsbeiträge von Plattformen

Digitale Plattformen haben in vielerlei Hinsicht einen positiven Einfluss auf das Wachstum und die Ent­wicklung der EU-Wirtschaft.17 Der wichtigste Vorteil ihres Geschäftsmodells für den Binnenmarkt besteht darin, dass sie bestehende Hindernisse, insbesondere im Bereich der digitalen Dienste, abbauen. Dies ist von großer Bedeutung für den EU-Binnenmarkt, der nach wie vor durch erhebliche interne Barrieren gekennzeichnet ist. Digitale Plattformen fungieren hier als Katalysatoren, indem sie Handels- und Inter­aktionsbarrieren weiter abbauen und die Trans­aktionskosten erheblich senken. Sie tragen zur Ent­wicklung des grenzüberschreitenden elektronischen Handels und zur Verbreitung des Dienstleistungs­angebots bei, indem sie den Verbraucherinnen und Verbrauchern einen leichteren Zugang zu diesen Märkten ermöglichen.18 Aus Sicht der Käufer erwei­tert sich dank der Plattformen die Produktauswahl. Durch die starke Ausweitung des E-Commerce tragen digi­tale Plattformen zu höherer Preistransparenz bei und intensivieren damit den Wettbewerb, was den Verbrauchern zugutekommt.19 Plattformen wirken sich zudem positiv auf qualitative Wettbewerbs­parameter aus, indem sie die Transparenz über die Qualität von Produkten erhöhen, die Vielfalt des verfügbaren Angebots erweitern und wegen der vereinfachten Vergleichbarkeit einen Trend zur Verbesserung der Liefer- und Servicebedingungen auslösen. Durch die Plattformen können auch kleine und mittlere Unternehmen Märkte in anderen Ländern besser erreichen, ohne in neue Verkaufs­stellen oder Logistik investieren zu müssen. Über 50 Prozent der Unternehmen aus dieser Gruppe, die über Online-Plattformen verkaufen, machen auch grenzüberschreitende Geschäfte.20

Die Plattformwirtschaft fördert die digitale Transformation der EU.

Die Plattformwirtschaft spielt also eine positive Rolle bei einem der wichtigsten politischen Ziele der EU, nämlich dem, die digitale Transformation voran­zutreiben, indem sie für die Marktteilnehmer digitale Tools für Marketing, Verkauf und Zahlungsabwick­lung bereitstellt. Große Technologieunternehmen bieten auch Sicherheitslösun­gen an, zum Beispiel Software zum Schutz vor Cyberbedrohungen. Auch dies erleichtert Unternehmen und Privatpersonen die sichere Nutzung digitaler Dienste. Ein weiteres be­deutendes Merkmal von plattformbasierten Geschäfts­modellen ist ihre datengestützte Innovationsfähigkeit, die für ihre Wettbewerbs‑ und Anpassungsfähig­keit von entscheidender Bedeutung ist. Plattformen nutzen nicht nur selbst fortschrittliche digitale Technologien, sondern fördern auch die Ent­stehung neuer Geschäftsmodelle. Ein gutes Beispiel dafür sind Streaming-Dienste oder App-basierte Vertriebsformen.

Der Einfluss der Plattformwirtschaft ist auch beim Blick auf den Arbeitsmarkt und die sozialen Verhältnisse deutlich spürbar. Digitale Plattformen unterstützen flexible Formen der Fernarbeit und die Aus­übung von Online-Tätigkeiten – ein Effekt, der während der Covid-19-Pandemie besonders sicht­bar wurde, als Millionen Beschäftigte gezwungen waren, remote zu arbeiten. Diese verstärkte Nutzung digi­taler Plattformen führte nicht nur zu einer höhe­ren Abhängigkeit von technischen Infrastrukturen, sondern auch zu einer beschleunigten Akzeptanz neuer Arbeits- und Kommunikationsformen. Gleich­zeitig bieten Plattformen Tools für kollektive Kom­munikation und Meinungsaustausch, wodurch sich lokale oder thematische Communities leichter zu­sammenfinden können, was den Wegfall analoger sozialer Interaktionsräume, zum Beispiel während der pandemiebedingten Lockdowns, teilweise kom­pensierte.

Es ist auch anzumerken, dass die positiven Effekte von Platt­formen auf die Wirtschaft einem Wandel unterliegen, der maßgeblich durch den technolo­gischen Fortschritt und das Entstehen neuer Dienste (z. B. Cloud-Computing oder digitale Werbemärkte) geprägt ist. Dies ist einer der dynamischsten Bereiche des Binnenmarkts, der gleichzeitig dessen Reichweite erweitert. Der Wert des europäischen Markts für Cloud-Dienste wird voraussichtlich von rund 87 Mil­liarden Euro (2022) auf 200 Milliarden Euro im Jahr 2028 steigen.21

Risiken digitaler Plattformen für Wirtschaft und Gesellschaft

Die negativen Auswirkungen der Plattformen auf den Binnenmarkt haben sich im Laufe der Zeit deutlich intensiviert und ausdifferenziert. In der frühen Ent­wicklungsphase der Online-Plattformen, also in den ersten anderthalb Jahrzehnten des 21. Jahrhunderts, wurden diese vor allem als Träger technischer In­novationen angesehen, die neue Märkte, Zugang zu Informationen und niedrige Transaktionskosten ermöglichten. Die größten Kritikpunkte waren zu dieser Zeit Fragen des Datenschutzes (Verwendung von sogenannten Cookies), die Anfälligkeit für Internetbetrug und der Verbraucherschutz.22

Die Situation hat sich seit etwa 2010 allmählich geändert, als Plattformen (z. B. Amazon Marketplace, Google Search, Apple App Store) ihre Marktposition ausbauten und zunehmend Praktiken einsetzten, die als wettbewerbswidrig gelten. Dazu zählen vor allem die systematische bevorzugte Behandlung eigener Produkte und Dienste, Restriktions- und Knebel­klauseln gegenüber Geschäftspartnern, die missbräuchliche Ausnutzung von Abhängigkeiten kleine­rer Unter­nehmen sowie ein Preis- und Konditionen­druck entlang der Wertschöpfungs­kette.23 Darüber hinaus geht die Ausbreitung von Plattformen mit der Verdrängung traditioneller Handelsformen einher, indem die Unternehmen der digitalen Öko­nomie insbesondere kleine und traditionelle Einzelhandels- und Dienstleistungsbetriebe in einen starken Preis­wettbewerb verwickeln.24

Nach 2010 wurde zunehmend auf die Heraus­forderungen aufmerksam gemacht, die das Geschäfts­modell der Online-Plattformen für den Arbeitsmarkt und die Sozialpolitik mit sich brachte, unter anderem durch die Schaffung von schlecht bezahlten und unsicheren Beschäftigungsverhältnissen.25 Dabei war eine Neigung der Plattformen sichtbar geworden, die Unterschiede zwischen den Rechtssystemen der Mitgliedstaaten, etwa im Arbeits- und Steuerrecht, zu nutzen, um den Gewinn zu maximieren. Mit der zunehmenden Verbreitung der Speicherung von Daten in einer Cloud kamen nicht nur Fragen zum Datenschutz auf,26 sondern auch zur wachsenden Abhängigkeit von der IT-Infrastruktur von US-Firmen, die etwa 65 Prozent dieses Marktes kontrollieren.27

Und noch eine andere Abhängigkeit von US-Unter­nehmen wird mehr und mehr als problematisch an­gesehen: die des europäischen Finanzsektors, speziell bei der Zahlungsinfrastruktur.28 Die Unselbständigkeit in diesem Sektor macht das europäische Finanz­system anfälliger für Störungen von außen. Auf ausländische Zahlungsdienstleister entfielen in der ersten Hälfte des Jahres 2023 fast zwei Drittel (64%) aller elektronisch initiierten Transaktionen mit im Euroraum ausgegebenen Karten. 13 von 20 Ländern des Euroraums sind aufgrund des Fehlens eines nationalen Kartensystems vollständig auf internationale Anbieter angewiesen.29 Internetplattformen bergen auch das Risiko, die Rolle traditioneller, auf staatlicher oder suprastaatlicher Souveränität basie­render Währungen zu untergraben. Neue private Geldemittenten können eine Gefahr für die Währungshoheit der Staaten und die Wirksamkeit der Geldpolitik darstellen. Als besonders besorgnis­erregend wird vor allem die potentielle Beteiligung großer Technologieunternehmen an entsprechenden Projekten angesehen. Die Ankündigung von Facebook/Meta im Juni 2019, ein eigenes Zahlungsmittel schaffen zu wollen, war ein wichtiger Weckruf in Bezug auf die Währungssouveränität, der die Arbeit am digitalen Euro beschleunigt hat.30 Die Vorhaben der Tech-Firmen scheiterten, hauptsächlich aufgrund des Widerstands von Regierungen und Regulierungsbehörden weltweit.31 In Zukunft kann aber nicht ausgeschlossen werden, dass sich Internetplattformen an Stablecoins stärker beteiligen, sei es als Infra­strukturanbieter, zu Investitionszwecken oder zur Schaffung eines eigenen Zahlungsmittels. Daraus könnten potentiell neue Herausforderungen für die technologische Dimension der europäischen Wäh­rungssouveränität entstehen.32

Intransparente Algorithmen, Desinformation und KI-gestützte Moderation der Online-Plattformen stehen zunehmend in der Kritik.

Eine weitere Herausforderung, die im Kontext digitaler Plattformen in den Fokus gerückt ist, betrifft den Informationsfluss und die damit verbundenen Steuerungsmechanismen. Zunehmend kritisiert werden intransparent gestaltete Algorithmen, mit denen Inhalte priorisiert und verbreitet werden, die systemische Anfälligkeit für Desinformation sowie der wachsende Einsatz künstlicher Intelligenz bei der Moderation von Inhalten. Internetplattformen bieten ein günstiges Umfeld für die Verbreitung von falschen, ungenauen oder irreführenden Nachrichten, für das Schüren von Misstrauen gegenüber der Regierungspolitik.33 Die Verbreitung falscher Infor­mationen und die Erzeugung von Ängsten betreffen auch die Wirtschaftspolitik, was sich vor allem in der Förderung protektionistischer Maßnahmen gegenüber bestimmten Berufsgruppen äußert. Plattformen wie X/Twitter, Facebook/Meta oder TikTok geben extre­men politischen Kräften die Möglichkeit, einen großen Teil der Gesellschaft zu erreichen.34 Das Problem wurde durch die Übernahme von Twitter durch Elon Musk und durch die Wahl von Donald Trump zum US-Präsidenten noch verschärft.35 Online-Plattformen eröffnen zudem neue Wege der politischen Einflussnahme im internationalen Kontext. In den vergangenen Jahren wurden zahlreiche Fälle externer Einmischung dokumentiert, bei denen aus­ländische staatliche oder staatsnahe Akteure digitale Plattformen gezielt nutzten, um auf politische Pro­zesse in demokratischen Staaten einzuwirken. Die Beispiele reichen von koordinierter Desinformation durch russische Akteure im Umfeld der US-Wahlen 2016 und in verschiedenen europäischen Wahl­kämpfen über chinesische Informationskampagnen zur Unterstützung strategischer Narrative bis hin zu einer auf Plattformdaten basierenden manipulativen Zielgruppenansprache durch private Akteure wie Cambridge Analytica.36 Solche Praktiken, die die EU mittlerweile unter dem Begriff »Foreign Information Manipulation and Interference« (FIMI) zusammenfasst, verdeutlichen, dass digitale Plattformen längst nicht mehr nur ökonomische Märkte, sondern auch geopolitisch relevante Infrastrukturen darstellen. Durch die hohe Reichweite, algorithmische Verstärkungsmechanismen und die Möglichkeit präzisen Targetings können Informationsflüsse und Prozesse der öffentlichen Meinungsbildung in einem Ausmaß beeinflusst werden, das traditionelle Formen aus­ländischer Einmischung übersteigt. Dies vergrößert die Herausforderung einer Regulierung und unterstreicht die Notwendigkeit, Plattformen nicht allein als Wirtschaftsakteure, sondern auch als Generatoren demokratie- und sicherheitspolitischer Risiken zu begreifen. In der EU gab es in letzter Zeit viele Fälle, in denen falsche Informationen massenhaft verbreitet wurden. Der Einsatz von Fake-Accounts zur Streuung spezifischer politischer Inhalte, die sich mit russischen Interessen decken, fand unter anderem kurz vor der Brexit-Abstimmung, im französischen Präsidentschaftswahlkampf 2017 und vor der deutschen Bundestagswahl 2024 statt. Rund 50.000 gefälschte Konten auf dem Portal X/Twitter wurden unter anderem in Frankreich, Italien, Deutschland und Rumänien identifiziert.37 Die Funktionsweise von Internetplattformen, die darauf abzielt, die Attrak­tivität der Inhalte für den Empfänger zu maximieren, hat auch negative Auswirkungen auf andere Bereiche des gesellschaftlichen Lebens, darunter die psycho­logische Gesundheit von Kindern und Jugendlichen.38

Online-Plattformen und regulatorische Zielkonflikte

Die Digitalpolitik der Europäischen Union ist struk­turell von tiefgreifenden Zielkonflikten geprägt: Sie muss zugleich die Vollendung des digitalen Binnenmarkts, die Förderung von Innovation und Wett­bewerbsfähigkeit sowie den Schutz öffentlicher Güter wie Demokratie, Sicherheit, Datenschutz und gesell­schaftliche Kohäsion im Blick haben.39 In Bezug auf die Online-Plattformen tritt dieses Spannungs­verhält­nis besonders deutlich zutage, weil diese sowohl Wachstumstreiber des Binnenmarkts als auch Quel­len systemischer Risiken sind. Die oben genannten ambivalenten Effekte der Plattformökonomie – Effi­zienzgewinne und Markterweiterung auf der einen, Datenmacht, algorithmische Intransparenz und poli­tische Einflussnahme auf der anderen Seite – ver­schärfen die Zwangslage der EU-Digitalpolitik erheb­lich. Die europäischen Regie­rungen stehen hier vor der klassischen Herausforderung, einerseits den Schutz der Freiheiten und Regeln des Marktes ge­währleisten und andererseits Marktversagen in Schlüsselbereichen verhindern zu müssen. Beispiele für regulatorische Konflikte, die durch die zwie­spältigen Auswirkungen der Plattform­wirtschaft ent­stehen, werden in Tabelle 2 dargestellt.

Unter den verschiedenen regulatorischen Ziel­konflikten treten zwei besonders hervor: Erstens die strukturelle Spannung zwischen der Notwendigkeit strenger Regulierung und der Aufrechterhaltung von Wettbewerbsfähigkeit und innovationsfördernden Rahmenbedingungen; zweitens der häufig proble­matisierte Gegensatz zwischen dem Schutz der Meinungsfreiheit und der Sicherung gesellschaft­licher Kohäsion.

Der erstgenannte Konflikt überschreitet den engeren Bereich der digitalen Regulierung und bildet einen zentralen Gegenstand der breiteren wirtschafts­politischen Diskussion über regulatorische und ad­ministrative Belastungen, die das Wachstums­poten­tial der europäischen Wirtschaft beeinträchtigen können. Diese Debatte prägt den europäischen politischen Diskurs seit längerem und hat durch den Bericht von Mario Draghi zusätzliche Schärfe und politische Relevanz erhalten.40 Eine robuste Marktregulierung, die darauf abzielt, die Dominanz von Plattform­unternehmen zu verhindern, kann die Bereitschaft von Wirtschaftsakteuren, in Innovationen zu inves­tieren oder eine Expansion zu beschließen, erheblich mindern. Der aktuellste Punkt in dieser Diskussion ist der Vorschlag der Europäischen Kommission für einen sogenannten Digitalen Omnibus, der ihre neue strategische Ausrichtung zeigt: Statt schrittweiser Regulierung geht sie nun den Weg der Vereinfachung und Deregulierung – mit dem Argument, dass das der Wettbewerbsfähigkeit und der Investitionsbereit­schaft helfe.41 Dabei kann eine Verschiebung im EU-Regulierungsansatz von einem Fokus auf die Förde­rung von Wettbewerb hin zu einer Erhöhung der Wettbewerbsfähigkeit beobachtet werden.

Die Kontroverse um den europäischen Regulierungsrahmen berührt nicht nur wettbewerbs- und arbeitsmarktpolitische Fragen, sondern zunehmend auch das Problem des Schutzes personenbezogener Daten – ein Bereich, der besonders stark mit der Entwicklung und Anwendung künstlicher Intelligenz verknüpft ist. Die Ent­wicklung von KI-Modellen auf der Grundlage solcher Daten erfordert den Zugang zu umfangreichen und aktuellen Datensätzen von hoher Qua­lität.42 Dies führt zu einer Situation, in der der Datenschutz ein Hindernis für das Voranbringen von Innovationen darstellt.

Tabelle 2 Ambivalente Effekte von Online-Plattformen und regulatorische Zielkonflikte: Beispiele

Positive Effekte

Negative Effekte

Regulatorische Zielkonflikte

Grenzüberschreitender Online-Handel

Regulatorische Arbitrage (z. B. Steuern, Arbeitsrecht)

EU-weite Durchsetzung vs. nationale Souveränität

Erweiterung des Marktes & Markttransparenz

Wettbewerbswidrige Praktiken

Wachstum vs. Wett­bewerbssicherung

Erleichterter Marktzugang für KMU

Ungünstige Vertragsbedingungen / Abhängigkeiten

Monopolvermeidung vs. Entlastung von KMU / Start-ups

Datengetriebene Innovation & neue Geschäftsmodelle

Datenrisiken, Macht­konzentration, Überwachung

Datenschutz vs. datenbasierte Innovation (AI)

Flexible digitale Arbeitsformen

Prekäre Beschäftigung

Flexibilität vs. faire Arbeits­standards

Soziale Vernetzung & Informationszugang

Desinformation, Polarisierung, Hassrede

Meinungsfreiheit vs. Inhaltsmoderation

Digitalisierung & Effizienz­gewinne

Strategische Abhängigkeit von Big-Tech

Digitale Autonomie vs. offene Märkte

Quelle: Eigene Darstellung

Der in der öffentlichen Diskussion sichtbarste Zielkonflikt betrifft jedoch den oben genannten Bereich der Inhaltsmoderation, wo Bestrebungen zur Regulierung schädlicher Inhalte auf Plattformen mit Vorwürfen der Einschränkung der Meinungsfreiheit konfrontiert sind.43 Das vorliegende regulatorische Dilemma erstreckt sich über den Binnenmarkt hinaus, da sich die Regelung in der EU von der in den USA erheblich unterscheidet. EU-Vorschriften wie der DSA zur Moderation von Inhalten werden höchstwahrscheinlich zu regulatorischen und in der Folge auch zu politischen Auseinandersetzungen mit den Vereinigten Staaten führen.44

Die Zielkonflikte, die sich mit der Regulierung großer Plattformen ergeben, überschreiten die Grenzen der EU.

Diese Zielkonflikte sind im Fall großer Plattformen besonders ausgeprägt, weil deren Aktivitäten die territoriale Reichweite der EU-Rechtsordnung über­steigen und ebendiese Rechtsordnung häufig mit den wirtschaftlichen und geopolitischen Interessen anderer Weltakteure – vor allem der USA und Chinas – kollidiert. J. D. Vance stellte in München die europäische Auslegung der Meinungsfreiheit und damit die Legitimität der EU-Digitalgesetze in Frage, Elon Musk nutzte Plattformen, um teils rechtsextreme Parteien zu unterstützen, und TikTok gerät in Taiwan unter Beobachtung, weil die chinesische Mutterfirma Einfluss auf Informationsflüsse nehmen könnte. Das macht digitale Vorschriften nicht nur zu einer Sache für den Binnenmarkt, sondern auch zu einem wich­tigen Teil des Systemwettbewerbs in den Bereichen Außenhandel, Technologie und Sicherheitspolitik.45

Zusammenfassend lässt sich sagen, dass sich digitale Plattformen in einem komplexen Spannungsfeld zwischen Markt, Staat und Gesellschaft bewegen. Diese Komplexität der Auswirkungen digitaler Platt­formen erfordert einen ausgewogenen EU-Regulie­rungsansatz, der Innovationen ermöglicht, ohne wichtige öffentliche Güter wie Datenschutz, Meinungs­freiheit oder faire Wettbewerbsbedingungen zu gefährden. Die EU-Instrumente wie der Digital Services Act und der Digital Markets Act sind Aus­druck dieses regulatorischen Balanceakts, der sowohl ökonomische als auch gesellschaftliche Risiken ein­dämmen soll, ohne die Innovationskraft der euro­päischen Wirtschaft zu beeinträchtigen.

Die EU und Plattformen: von der Marktlogik zum Kampf um die Inhalte

Verschiebung des EU-Ansatzes von einem »Selbstverwaltungsansatz« zu »öffentlichem Interventionismus«

Das Verhältnis zwischen dem Binnenmarkt und den Plattformunternehmen hat sich schrittweise ent­wickelt. Zu Beginn der kommerziellen Nutzung des Internets in größerem Umfang dominierte in der EU ein marktliberaler Ansatz. Im Bangemann-Bericht von 1994, einem Grundlagendokument der EU, das die digitale Entwicklung Europas geprägt hat, wurde vorgeschlagen, dass die Marktkräfte und der private Sektor die Informationsgesellschaft schaffen sollten.46 Parallel zur Kommerzialisierung des Internets in den 1990er Jahren schlug die EU einen klaren Kurs in Richtung Marktliberalisierung ein. Der zitierte Bericht empfahl eine »Marktrevolution«, um Europa im Bereich der Anwendung und wirtschaftlichen Nut­zung »neuer elektronischer Informationsdienste«, wie es damals hieß, wettbewerbsfähig zu machen.47 Zwei wichtige Pfeiler des digitalen Binnenmarkts wurden in dieser Zeit entwickelt: die Datenschutzrichtlinie von 199548 und die Richtlinie über den elektronischen Geschäftsverkehr von 2000.49 Der Datenschutz sollte auch eine Fragmentierung des Binnenmarkts verhin­dern, während die E-Commerce-Verordnungen nur geringfügige Eingriffe in Online-Geschäftsmodelle vorsahen und eine nur begrenzte Haftungsregelung für Web-Inhalte von Dienstleistern einführten in der Absicht, Online-Aktivitäten zu fördern.

Beide Verordnungen prägten mehr als zwei Jahrzehnte lang den Ansatz der EU in diesem Bereich. Die Richtlinie über den elektronischen Geschäftsverkehr stützte sich auf drei Säulen: erstens, dass Anbieter von E-Commerce-Diensten die Vorschriften des Mitgliedstaats einhalten müssen, in dem sie nieder­gelassen sind, und nicht die Vorschriften des Landes, in dem der Dienst angeboten wird.50 Dies begünstigte Skaleneffekte, könnte aber auch zu einem Deregu­lierungs­wettbewerb geführt haben. Mitgliedstaaten sind versucht, einander durch weiche Regulierung zu unterbieten, um Investitionen von Big-Tech-Unter­nehmen anzuziehen. Zweitens waren die Dienste­anbieter nicht für illegale Inhalte auf ihren Platt­formen verantwortlich, sondern nur gehalten, diese zu entfernen oder den Zugang zu verhindern, sobald sie darüber informiert wurden.51 Drittens muss­ten die Diensteanbieter nicht alle Aktivitäten auf ihren Platt­formen, wie zum Beispiel Blogbeiträge, auf illegale Aktivitäten überprüfen. Wie der Grundsatz der beschränkten Haftung sollte auch diese Regelung Online-Geschäftsmodelle und allgemein die Digita­lisierung von Marktplätzen und Dienstleistungs­angeboten fördern.52

Die Enthüllungen von Edward Snowden im Jahr 2013, in denen er die massive weltweite Überwachung durch US-Geheimdienste mittels großer US-Tech­no­logieunternehmen beschrieb, trugen dazu bei, dass die EU von diesem Ansatz abwich.53 Sie sorgten für einen erheblichen öffentlichen Aufruhr und machten die politische Dimension eines Bereichs der Wirtschaft deutlich, der zuvor oft aus einer rein technischen Perspektive betrachtet worden war.54 Darüber hinaus wurde in Brüssel erkannt, dass die europäischen Tech-Unternehmen hinter ihren US-Konkur­renten zurücklagen und die EU in einem proble­matischen Ausmaß von diesen abhängig war.55 Die Snowden-Enthüllungen führten zu einer Verschärfung der EU-Datenschutzvorschriften in Form der All­gemeinen Datenschutzgrundverordnung (DSGVO).56 Zwar stellen die DSGVO und die darin fixierten Grundsätze, wie das Recht auf Vergessenwerden, einen Schritt in Richtung eines stärker interventio­nistischen Ansatzes gegenüber den Aktivitäten der Online-Plattformen dar; doch mit der Verordnung hat sich nichts am eher marktliberalen Herkunfts­landprinzip geändert. Auch sie legt fest, dass digitale Unternehmen von den nationalen Behörden des Mitgliedstaats, in dem sie niedergelassen sind, über­wacht werden.

Die Covid-Pandemie hat die EU‑Plattformregulierung wesentlich beeinflusst.

Die Aussage von Ursula von der Leyen, Präsidentin der Europäischen Kommission, Ende 2019, dass sie eine »geopolitische Kommission« leiten wolle, war auch für den digitalen Sektor von Bedeutung. Viele der Anfang 2020 unternommenen Schritte, darunter Gesetzvorschläge, regulatorische Initiativen und die Verabschiedung strategischer Leitlinien, waren eher interventionistischer Natur und können als Reaktion auf die sich verändernde globale Situation gewertet werden.57 Insbesondere die Covid-Pandemie hat den Ansatz der EU in Sachen Plattformregulierung erheb­lich beeinflusst. Die Gesundheitskrise hat sowohl die Nachfrage nach Online-Diensten und die Digitalisie­rung beschleunigt als auch die Auswirkungen der Verbreitung von Desinformationen über Social Media sowie das Ungleichgewicht zwischen Nutzern und Plattformen im Allgemeinen auf­gezeigt. Der russische Krieg gegen die Ukraine wiederum hat die Sicher­heits­dimension kritischer digitaler Infrastrukturen einmal mehr deutlich gemacht. Mit den Forderungen nach mehr »digitaler Souveränität«58 und »offe­ner strategischer Autonomie«59 hat sich die Haltung und Herangehensweise der EU grundlegend geändert. Die Diskussion über das Streben nach größerer wirtschaft­licher Souveränität und die Notwendigkeit, im Pro­zess des digitalen Wandels aufzuholen, gewann nach den Berichten von Enrico Letta und Mario Draghi an Dynamik und intensivierte sich nach dem Wahlsieg von Donald Trump in den USA weiter.

DSA und DMA als zentrale Instrumente der Plattformregulierung

Die wichtigsten Regulierungsgesetze für Plattformen in Europa sind das Gesetz über digitale Dienste (DSA) und das Gesetz über digitale Märkte (DMA). Beide Rechtssetzungen haben ihren Ursprung in der Arbeit der Juncker-Kommission. In ihrer Strategie für den digitalen Binnenmarkt von 2015 versprach die Kom­mission, eine um­fassende Bewertung der sozialen und wirtschaftlichen Auswirkungen der digi­talen Wirtschaft, vor allem großer Plattformen, vorzunehmen.60 Günther Oettinger, Kommissar für digitale Wirtschaft, kündigte im gleichen Jahr die Wieder­erlangung der von der EU verlorenen »digitalen Souveränität« an.61 In ihrem Bericht aus dem Jahr 2016 über die Auswirkungen der Plattformökonomie betonte die Kommission die Notwendigkeit von mehr Transparenz (wie in der Verordnung (EU) 2019/1150 erwähnt) und ging insbesondere auf die Herausforderung ein, die große Plattformunternehmen in den Bereichen Inhaltsmoderation und fairer Wettbewerb darstellen.62 Am 15. Dezember 2020 präsentierte sie schließlich ein Paket für digitale Dienste, das aus zwei Verordnungen besteht: dem Gesetz über digitale Dienste (Verordnung (EU) 2022/2065) und dem Gesetz über digitale Märkte (Verordnung (EU) 2022/1925). Diese Rechtsakte traten am 16. November 2022 (DSA) bzw. am 1. November 2022 (DMA) in Kraft. Es handelt sich also um relativ neue Vorschriften, die seit 17. Februar 2024 und 2. Mai 2023 uneingeschränkt in der EU bindend sind.

Der DSA befasst sich hauptsächlich mit Fragen der Inhaltsmoderation und legt Bestimmungen fest, die in die Geschäftspraktiken von Plattformen eingreifen, wie das Verbot irreführender Tricks zur Mani­pulation von Nutzern (»Dark Patterns«) und das Verbot ver­haltensorientierter Werbung, die sich an Minder­jährige richtet. Der DMA zielt darauf ab, einen fairen Wettbewerb zu gewährleisten. Er enthält einen voll­ständigen Katalog von Anforderungen und Verboten für sehr große Online-Platt­formen, indem er beispiels­weise Geschäftskunden Zugang zu den von ihnen generierten Daten gewährt und sicherstellt, dass Nutzer vorinstallierte Software oder Anwendungen deinstallieren können. Auf diese Weise befasst sich der DMA mit der Marktstruktur und nicht nur mit der Preisgestaltung für den Endverbraucher. Diese »Ex-ante«-Befugnisse des DMA sind daher eher dem Bereich der Wirt­schaftsregulierung als dem der Wett­bewerbspolitik zuzuordnen und stellen daher bereits eine Abkehr vom vormaligen Regulierungsansatz dar.

Bei der Festsetzung der Vorgaben, die dieses stärker interventionistische Paket für digitale Dienstleis­tungen macht, scheint die Kommission aus den Schwächen der Datenschutzgrundverordnung (DSGVO) gelernt zu haben. Da die meisten großen Technologieunternehmen in Irland ansässig sind, gibt das Herkunftslandprinzip der irischen Datenschutzbehörde eine weitreichende Zuständigkeit. Allerdings hat ein Bericht des Irish Council for Civil Liberties, einer NGO, im Jahr 2021 gezeigt, dass 98 Prozent der schweren Fälle von Datenschutzverletzungen ungelöst bleiben.63 Mit dem Paket über digitale Dienste werden daher die Durchsetzungsbefugnisse für sehr große Online-Plattformen auf die Europäische Kommission übertragen. Zum ersten Mal außerhalb der Wett­bewerbspolitik erlaubt der DSA der Kommission nun, erhebliche Geldbußen von bis zu sechs Prozent des weltweiten Umsatzes von Unternehmen zu verhängen (und damit zwei Prozent mehr, als bei den maxi­malen Geldbußen im Datenschutzbereich möglich ist) und bis zu 20 Prozent für wiederholte DMA-Verstöße.

An der Umsetzung des DSA sind auch die nationalen Regulierungs­behörden beteiligt.

Die Europäische Kommission ist die wichtigste Behörde, die für die Durchsetzung des DMA zuständig ist,64 was einer kohärenten Anwendung der Vorschriften förderlich und insbesondere in der Auseinandersetzung mit den großen Technologieunternehmen von Belang ist. Im Falle des DSA spielen auch die Regulierungsbehörden der einzelnen Mitgliedstaaten eine Rolle. In Deutschland ist der Digital Services Coordinator (DSC) die Bundesnetzagentur. Dem DSC kommt im Rahmen des DSA eine zentrale Aufgabe zu: Er fungiert als Beschwerdestelle für Nutzer, über­wacht die Einhaltung der Vorschriften durch die Plattformanbieter und entscheidet maßgeblich darüber, ob gemeldete illegale Inhalte gelöscht oder gesperrt werden. Ein konkretes Beispiel hierfür ist das Verfahren mit Trusted Flaggers (verlässliche Hinweisgeber, nach Art. 22 DSA), die vom nationalen DSC zertifiziert werden. Meldet ein Trusted Flagger einen vermuteten illegalen Inhalt, ist die Platt­form ver­pflichtet, diesen zeitnah und sorgfältig zu prüfen und über Löschung oder Sperrung zu entscheiden, ohne unangemessene Verzögerung und objektiv (Art. 16 DSA). Darüber hinaus koordiniert der DSC die Zu­sammenarbeit mit Plattformen, kontrolliert die Umsetzung von Transparenzpflichten und kann bei Verstößen Sanktionen vorschlagen. Diese Kompetenzen machen den DSC zu einem zentralen Akteur der Rechtsdurchsetzung im digitalen Binnenmarkt.

Da die DSCs in den EU-Mitgliedstaaten sehr unterschiedlich ausgestattet sind – insbesondere in puncto Personal, Fachwissen und technische Ressourcen – kann dies zu regulatorischer Fragmentierung führen: Solange nationale DSCs nicht in gleicher Weise wirk­sam arbeiten können, entstehen erhebliche Unterschiede bei der An­wendung und Durchsetzung des DSA, obwohl der Verordnungsrahmen einen ein­heitlichen Binnenmarkt für digitale Dienste schaffen soll. Um dieser Fragmen­tierung entgegenzuwirken, übernimmt die Europäische Kommission eine Ko­ordinie­rungsfunktion: Sie leitet das European Board for Digital Services (EBDS), ein durch die DSA ein­gerichtetes beratendes Gremium, das Leitlinien entwickelt, Analysen erstellt und die DSCs bei der konformen Umsetzung der Vorschriften unterstützt.

Darüber hinaus verfügt die Kommission über direkte Durchsetzungskompetenzen, vor allem gegen­über den sehr großen Online-Plattformen (VLOPs/ VLOSEs). Sie kann Informationen fordern, Zugriff auf Algorithmen verlangen, Inspektionen durchführen, Bußgelder verhängen, wiederholte Verstöße mit Strafen in Form von Tagessätzen belegen oder in extremen Fällen sogar die vorübergehende Aussetzung von Diensten anordnen. Diese Befugnisse machen sie zum zentralen Akteur bei der Sicher­stellung einer einheitlichen Anwendung des DSA in der gesamten EU.

Die Kommission hat früh begonnen, die neuen Digitalgesetze gegen die Big-Tech-Unternehmen um­zusetzen. Eine im Dezember 2023 eingeleitete EU-Untersuchung gegen X (ehemals Twitter) gründete auf dem Vorwurf, dass die Plattform nicht angemessen gegen die Verbreitung illegaler Inhalte (insbesondere gegen Hassreden und terroristischen und gewalt­tätigen Content) vorgehe, keine ausreichende algo­rithmische Transparenz biete, irreführende »Dark Patterns«, also unseriöse, manipulative Praktiken nutze, Werbung und deren Auftraggeber nicht hin­reichend kennzeichne und Forschern keinen Zugang zu Daten gewähre. X war die erste der sehr großen On­line-Plattformen, gegen die ein formelles Straf­verfahren nach dem DSA eingeleitet und eine Geld­strafe in Höhe von 120 Millionen Euro verhängt wurde.65 Dem Tech-Giganten Google (Alphabet) warf die Europäische Kommission vor, gegen das Gesetz über digitale Märkte zu verstoßen, indem das Unter­nehmen seine eigenen Dienste in den Suchergebnissen bevorzuge und bei der Nutzung seines Google Play Store wettbewerbsbeschränkende Praktiken ver­wende. Diese Geschäftsmethoden benachteiligten Wett­bewer­ber und verstießen gegen die Grundsätze des fairen Wettbewerbs.66 Apple wiederum wurde aufgefordert, die Interoperabilität zu verbessern, indem es kon­kurrierenden Technologien und mobilen Betriebs­systemen erlaubt, sich nahtlos mit seinen Geräten, einschließlich iPhones und iPads, zu verbinden.67

Die folgende Tabelle 3 liefert einen Überblick über den aktuellen Stand der Durchsetzungsverfahren nach dem DSA und dem DMA. Im Rahmen des DSA wurden förmliche Ver­fahren gegen X (ehemals Twitter), TikTok und mehrere Plattformen für Erwachsenen­inhalte (Pornhub, Stripchat, XNXX, XVideos) eingelei­tet, unter anderem wegen der illegalen Verbreitung von Inhalten, mangelnder Transparenz, algorithmi­scher Risiken und unzureichendem Jugendschutz. Im Regelungsbereich des DMA wurden Apple und Meta wegen wettbewerbswidriger Praktiken mit Geldbußen in Höhe von 500 bzw. 200 Millionen Euro belegt.

Apple wurde zur Last gelegt, dass es seinen Kundinnen und Kunden verwehre, sich kostenlos über alternative Angebote außerhalb seines App-Stores zu informieren, sie zu diesen Angeboten zu leiten und ihnen den Kauf zu ermöglichen. Meta wurde bestraft, weil das Unternehmen ohne Zustimmung der Nutzer personenbezogene Daten zwischen seinen Diensten kombinierte. Diese Fälle sind ein Beleg für die Operationalisierung des DSA und des DMA durch konkrete rechtliche Schritte gegen große Plattformen und für die wachsende Wirksamkeit der EU bei der Durchsetzung der digitalen Regulierung. Sie sind auch ein Zeichen dafür, dass die EU dabei neue sektorale Prio­ritäten wie Plattformtransparenz, Kinderschutz und Datenautonomie setzt.

Tabelle 3 Status der wichtigsten Verfahren im Rahmen von DMA und DSA gegenüber Plattformen (Stand: Dezember 2025)

Online-Plattform

Rechtsgrundlage des Verfahrens

Vorwurf

Status

X (ehemals Twitter)

Digital Services Act (DSA)

Verbreitung illegaler Inhalte, fehlende Trans­parenz, Desinformation und unzureichende Moderation

Erstes DSA-Verfahren, ein­geleitet im Dezember 2023. Im Dezember 2025 wurde eine Geldstrafe in Höhe von 120 Millionen Euro als erste Vollstreckungsentscheidung gemäß dem DSA verhängt.

TikTok

DSA

Fehlende Transparenz bei Werbung, algorithmische Risiken (»Rabbit Holes«) und unzureichender Schutz Minderjähriger

Februar 2024:
Förmliches Verfahren eingeleitet

Pornhub, Stripchat, XNXX, XVideos

DSA

Fehlende Altersverifika­tion und Risiken für den Jugendschutz

Mai 2025:
Förmliches Verfahren eingeleitet

Apple

Digital Markets Act (DMA)

Verstoß gegen Anti-Steering-Vorgaben im App Store, insbesondere Ein­schränkungen für Ent­wick­ler bei der Nutzung alter­nativer Vertriebskanäle

Im April 2025 verhängte die Europäische Kommission eine Geldstrafe in Höhe von 500 Millionen Euro.

Meta (Facebook, Instagram, WhatsApp)

DMA

Unzulässige Kombination personenbezogener Daten über verschiedene Dienste hinweg ohne ausreichende Nutzerzustimmung

Im April 2025 verhängte die Europäische Kommission eine Geldstrafe in Höhe von 200 Millionen Euro.

Google/Alphabet

DMA-Self-Preferencing

Bevorzugung der eigenen Online-Werbetechnologie­dienste zum Nachteil kon­kurrierender Anbieter

November 2025:
Offizielles Verfahren gestartet

Shein

DSA – systemische Risiken

Illegale Produkte

November 2025:
Informationsanfrage

Quelle: Eigene Ausarbeitung auf der Basis von: Europäische Kommission, »Verstöße gegen das Gesetz über digitale Märkte (DMA): Millionen-Geldbußen für Apple und Meta«, Pressemitteilung, 23.4.2025; dies., »Digital Services Act: Kommission eröffnet förmliches Verfahren gegen X«, Pressemitteilung, 18.12.2023; dies., »DSA: EU-Kommission leitet förmliches Verfahren gegen TikTok ein«, Pressemitteilung, 19.2.2024; dies., »DSA: Kommission leitet Verfahren gegen pornographische Websites ein«, Pressemitteilung, 27.5.2025; dies., »Kommission leitet Untersuchung wegen möglichen Verstoßes gegen das Gesetz über digitale Märkte in Form der Herabstufung der Inhalte von Herausgebern in Suchergebnissen durch Google ein«, Pressemitteilung, 13.11.2025; dies., »Kommis­sion fordert Shein auf, Informationen über den Verkauf illegaler Produkte im Rahmen des Gesetzes über digitale Dienste bereit­zustellen«, Pressemitteilung, 26.11.2025; dies., »Kommission verhängt Geldbußen in Höhe von 120 Mio. EUR nach dem Gesetz über digitale Dienste«, Pressemitteilung, 5.12.2025.

Im Falle des DMA ist es von Bedeutung, dass die Europäische Kommission weitreichende Kompetenzen erhält, um Informationen von Online-Platt­formen einzuholen, die als »Gatekeeper« bezeichnet werden (siehe zur Definition oben, S. 9). Die Unternehmen müssen innerhalb festgelegter Fristen Berichte über die Konformität ihrer Aktivitäten mit diesem Rechtsakt vorlegen. Gemäß dem DMA müssen sie außerdem ihre Tech­niken zur Erstellung von Verbraucherprofilen offenlegen.68 Gatekeeper sind darüber hinaus verpflichtet, laufend Informationen über alle Pläne für Fusionen und Übernahmen anderer Plattformen bereitzustellen.69 Der DSA sieht auch Monitoring- und Durchsetzungsmechanismen vor, darunter Auskunftsersuchen, Anfragen, Unter­suchungen, in deren Rahmen Plattformen um eine Antwort gebeten (oder verpflichtend aufgefordert) werden. Es ist jedoch schwierig zu beurteilen, wie sich diese »weichen Maßnahmen« in der Praxis auf die Aktivitäten der Unternehmen auswirken, die Online-Plattformen betreiben.

Grundsätzlich lässt die Anwendung des DSA und des DMA allerdings Raum für unterschiedliche recht­liche Auslegungen, die aller Voraussicht nach zu­künftiger Klärung durch den Europäischen Gerichtshof bedürfen. Wie bereits zu Beginn dieser Studie erwähnt, liegt eine Schwierigkeit bei der Rechtsdurchsetzung in der Definition der Wirtschafts­subjekte, die als Plattformen gelten und damit unter die beiden Rechtsakte fallen. Große Technologie­unternehmen verfügen zudem über erhebliche finanzielle Mittel, die sie für Rechtsberatung und die Anfechtung von Entscheidungen der Europäischen Kommission und nationaler Institutionen einsetzen können.70 Aus diesem Grund kann das Verfahren zur Verhängung möglicher Strafmaßnahmen, wie die im Rahmen der DSGVO eingeleiteten Prozesse gezeigt haben, sehr langwierig sein.

Definitorische Unklarheit, der Wider­stand der Plattformen und die Rechts­vielfalt in der EU führen zu Problemen bei der Durchsetzung der Vorschriften.

Die Bemühungen der Unternehmen um die Ein­haltung der Vorschriften können in Teilen strate­gischer Natur sein und primär dem Ziel dienen, regulatorische Kontrolle abzuwehren oder Kritik zu mildern. Dann droht die Gefahr des sogenannten »Compliance Washing«, das heißt einer Situation, in der Unternehmen nur symbolische oder oberfläch­liche Maßnahmen umsetzen und diese als umfassende Einhaltung der Vorschriften darstellen. Auf der anderen Seite kann der Druck, Kritik oder hohe Geld­strafen zu vermeiden, zu übermäßigen Restriktionen bei der Moderation von Inhalten führen, mit der Folge, dass potentiell legale oder sozial relevante Inhalte aus Angst vor Sanktionen entfernt werden (Overblocking). Dies wiederum könnte die Kritik an der EU, die vor allem auch von den USA derzeit schon vorgebracht wird, noch verstärken.

Auch die Definition des Begriffs »illegale Inhalte«, der von Mitgliedstaat zu Mitgliedstaat unterschiedlich ausgelegt werden kann, ist umstritten. Nach dem DSA werden unter der Bezeichnung »illegale Inhalte« alle Informationen verstanden, die gegen das Recht der Union oder der Mitgliedstaaten verstoßen. Auch Ver­weise auf illegale Aktivitäten oder Produkte zählen dazu.71 Der Begriff umfasst The­men wie Hassrede, terroristische Inhalte und gefälschte Waren. Was als illegal gilt, wird nicht anhand einer einheitlichen EU-Definition festgelegt, sondern gemäß den jeweiligen nationalen Rechtssystemen und dem geltenden EU-Recht. Die Mitgliedstaaten spielen dabei eine ent­scheidende Rolle: Sie benennen Koordinatoren für digitale Dienste, erlassen Anordnungen zur Entfernung illegaler Inhalte und informieren die Plattformen über entsprechende Verstöße.72

Dieser dezentrale Ansatz berücksichtigt die Unterschiede in der Rechtskultur der einzelnen Länder, führt jedoch zu erheblichen Problemen bei der Durchsetzung der Vorschriften gegenüber Platt­formen, die EU-weit tätig sind. Inhalte, die in einem Mitgliedstaat als illegal gelten, können in einem anderen legal sein. Wie in der Begründung der Ver­ordnung hervorgehoben wird, definiert der DSA keine neue Kategorie »rechtswidriger Inhalte«, sondern verweist auf bestehendes nationales und EU-Recht. Dies erschwert eine kohärente und einheitliche Moderationspraxis über Grenzen hinweg beträchtlich. Welche strukturellen Risiken eine dezentralisierte EU-Digital­aufsicht mit sich bringt, wird beim Blick auf Irlands Zurückhaltung bei der Durchsetzung digitaler Vorschriften deutlich. Die irische Datenschutzbehörde hat wiederholt entschiedene Maßnahmen gegen Digitalunternehmen verzögert, ins­besondere im Fall der Datenweitergabe durch Meta, während die Medienaufsichtsbehörde des Landes immer noch dabei ist »herauszufinden«, wie sie den DSA auf große Plattformen mit Hauptsitz in Dublin anwenden soll.73

Es ist zu beachten, dass sich die Maßnahmen der Kommission im Rahmen des DSA und des DMA nicht auf Sanktionen beschränken. Unternehmen, die als »Gatekeeper« gelten (siehe oben, S. 9), sind zu einer umfassenderen Berichterstattung über ihre Markt­aktivitäten verpflichtet, darunter auch über Techniken zur Verbraucherprofilierung. Die Kommission steht überdies in einem ständigen Regulierungsdialog mit ihnen, um zu erfahren, wie sie die DMA-Vor­schriften umsetzen.

Plattformen und das KI-Gesetz: zwischen Innovation und Rechenschaftspflicht

Online-Plattformen stützen sich zunehmend auf künstliche Intelligenz, um den Informationsfluss auf ihren Diensten zu verwalten. Als Reaktion auf die wachsende wirtschaftliche und gesellschaftliche Bedeutung von KI-Systemen hat die Europäische Union am 21. Mai 2024 das Gesetz über künstliche Intelligenz (KI-Gesetz) verabschiedet, das am 1. August 2024 in Kraft trat.74 Mit dem Erlass des KI-Gesetzes hat die EU eine Vorreiterrolle bei der Regulierung in diesem Bereich übernommen. Es handelt sich um den weltweit ersten umfassenden Rechtsrahmen für künstliche Intelligenz. Die Verordnung stellt eine wichtige Ergänzung zur bestehenden Digitalgesetz­gebung der EU dar. Während sich der DSA und der DMA mit der verantwortungsvollen Governance und dem Wettbewerbsverhalten von Online-Vermittlern befassen, konzentriert sich das KI-Gesetz speziell auf die Gestaltung, den Einsatz und die Überwachung von KI-Systemen, die in diesen Umgebungen ver­wendet werden. Zusammen bilden diese drei Verord­nungen ein Dreieck der horizontalen Governance: Der DMA befasst sich mit Marktmacht, der DSA gewährleistet die Rechenschaftspflicht und Sicherheit von Plattformen und das Gesetz über künstliche Intel­ligenz macht Vorgaben für die technische Integrität und ethische Umsetzung von Systemen der künst­lichen Intelligenz. Die KI-Verordnung regelt viele der Tools der künstlichen Intelligenz, die den Zugang zu Informationen beeinflussen oder Grundrechte beeinträch­tigen können und damit in die Kategorie der risikoreichen KI-Systeme fallen.75 Daher müssen Plattformanbieter ein Risikomanagementsystem etablieren, Grundrechtsverträglichkeitsprüfungen durchführen, eine wirksame menschliche Aufsicht über automatisierte Entscheidungsprozesse sicher­stellen und die Nutzer informieren, wenn sie es mit Sys­temen der künstlichen Intelligenz zu tun haben.76 Diese Bestimmungen zielen darauf ab, die algorithmische Rechenschaftspflicht zu stärken, die Nut­zer­autonomie zu fördern und das Vertrauen der Öffent­lichkeit in die Gover­nance KI-gesteuerter Online-Umgebungen zu erhöhen. Zusammen mit dem DSA und dem DMA soll das KI-Gesetz der dritte Baustein nach der DSGVO für einen umfassenden europäischen Rahmen für die digitale Regulierung sein. Das Paket mit den drei Verordnungen soll dem Anspruch der Kommis­sion Rechnung tragen, Marktgerechtigkeit, systemische Sicherheit und den ethi­schen Ein­satz von KI in einer kohärenten Governance-Struktur zu vereinen.

Die thematische Nähe von KI-Gesetz, DSA und DMA birgt auch Risiken. Diese ergeben sich aus der Über­schneidung ihrer Bestimmungen zu Algorithmus-Transparenz, Risikobewertung und Datenverwaltungs­auflagen.77 Es bestehen komplexe Wech­selwirkungen zwischen dem KI-Gesetz und der DSGVO, wobei die Anforde­rungen des ersten Gesetzes Auswirkungen auf den Datenschutz haben kön­nen.78 Zum Beispiel müssen Anbieter personenbezogene Daten nutzen (Art. 10 KI-Gesetz), um Verzerrungen in Hochrisiko-KI‑Systemen zu vermeiden. Diese Bestimmungen haben Effekte für den Schutz personenbezogener Informationen, etwa mit Blick auf Verarbeitung, Speicherfristen und das Recht auf Löschung. Weitere Probleme betreffen die Rechtmäßigkeit der Verwendung von Daten für die KI oder zur Durchsetzung von Vorschriften. Die DSGVO wird von den nationalen Datenschutz­behörden (DPAs) unter der Leitung des Europäischen Datenschutzausschusses (EDPB) durch­gesetzt, während das KI-Gesetz neue KI-Marktüber­wachungs­behörden einführt und von den Mitgliedstaaten die Benennung von Prüf- und Zertifizierungs­stellen erwartet, die von der Europäischen KI-Behörde koordiniert werden.

Die Regulierungsprozesse der EU im Bereich der KI sind auf Skepsis und Ablehnung von Big-Tech-Unter­nehmen gestoßen. Die großen Player in diesem Segment haben durch politischen Druck und Lobby­arbeit in Brüssel versucht, die gesetzgeberischen Maßnahmen der EU in Bezug auf KI zu verwässern.79 Kritische Stimmen gegenüber den europäischen Vor­schriften werden auch im Zusammenhang mit der Wettbewerbsfähigkeit der EU-Wirtschaft laut. Die Gegner einer Überregulierung im Bereich der künst­lichen Intelligenz argumentieren, dass durch die Auflagen Innovationen gehemmt werden und die Entwicklung von KI in Europa behindert wird.80 Daher wird die Fortschreibung der Regulierung in diesem Bereich einige Kompromisse erfordern, die der Not­wendigkeit Rechnung tragen, den Rückstand der EU bei der KI aufzuholen. Die Weiterentwicklung der künstlichen Intelligenz wird nicht nur für die Wett­bewerbsfähigkeit Europas, sondern auch für seine Verteidigungsfähigkeit entscheidend sein. Mit diesem Prozess verknüpft ist die Gefahr neuer Abhängigkeiten. Im zweiten Teil des Draghi-Berichts wird davor ge­warnt, dass die EU aufgrund ihrer geringen Innova­tionskraft bei KI-Modellen zunehmend auf Techno­logien aus Drittstaaten angewiesen sein könnte.81

Ausblick: EU‑Regulierung als Puffer für den digitalen Wandel

In der Dominanz ausländischer Online-Plattformen auf dem Binnenmarkt spiegeln sich langjährige Schwächen der EU wider. Zu nennen wären hier zuallererst eine geringe Innovationskraft, eine un­zureichende Integration des Binnen- und Kapitalmarkts und dessen Fragmentierung in viele nationale Märkte sowie die ausufernde Bürokratie und hohe Steuerbelastung. Infolgedessen mangelt es an In­vestitionen in Schlüsseltechnologien wie künstliche Intelligenz und digitale Infrastruktur. Um diese Herausforderungen zu bewältigen, müssen die Euro­päer den Binnenmarkt weiter integrieren, ein spezi­fisches Innovationsökosystem aufbauen, das Inves­titionen anlockt, und eine wirksamere Regulierung schaffen.

Die Berichte von Enrico Letta und Mario Draghi, die im April 2024 und September 2024 veröffentlicht wurden, haben den Rückstand der EU bei der Digita­lisierung als eine zentrale Schwäche identifiziert.82 Beide Dokumente betonen zudem die Notwendigkeit, den regulatorischen Rahmen zu verein­fachen und übersichtlicher zu gestalten: Letta kritisiert die zu­nehmende Kom­plexität des Binnenmarkts, während Draghi einen »klaren, einfachen und smarten« Rechts­rahmen fordert, der Unternehmen zugutekommt. Die beiden Analysen haben einen direkten Einfluss auf die Initiativen der Europäischen Kommis­sion gehabt und unter anderem den Vorschlag für die Digital-Omnibus-Verordnung inspiriert,83 der darauf abzielt, bestehende digitale Vorschriften zu kon­solidieren und zu verein­fachen. Sowohl der Bericht Lettas als auch der Draghis mahnen an, dass die EU günstige Bedingungen für das Wachstum ihrer eigenen Big-Tech-Unter­nehmen schaffen muss, die es ihnen er­möglichen würden, mit amerikanischen und chine­sischen Konkurrenten mitzuhalten. Um ihre digitale Souveränität zu sichern, muss die Europäische Union den Aufbau eigener Technologieunternehmen syste­ma­tisch fördern und ihre strukturellen Abhängig­keiten von außereuropäischen Anbietern verringern.

Es ist jedoch kaum zu erwarten, dass es im Bereich der digitalen Wettbewerbsfähigkeit der EU zu schnel­len Fortschritten kommt oder dass europäische Pen­dants zu den amerikanischen Big-Tech-Firmen ent­stehen, die ihre eigenen Dienste auf Plattformen an­bieten. Zwar verfolgt die EU auch eine aktivere indus­triepolitische Strategie, zum Beispiel im Rahmen der Verordnung zur Stärkung des europäischen Halb­leiter-Ökosystems, bei der gezielt auch der digitale Sektor unterstützt werden soll;84 allerdings wird die Union in der nahen Zukunft vor allem mit ihren Regulierungsmaßnahmen auf die digitalen Herausforderungen reagieren müssen. Umso wichtiger ist es, dass die EU diese effektiver gestaltet und geschickt zwischen regulatorischen Konflikten balanciert. Wie die vorliegende Studie gezeigt hat, muss die EU bei der Ausgestaltung ihrer Maß­nahmen die vielfältigen Zielkonflikte berücksichtigen, die mit der Regulierung digitaler Plattformen einhergehen: Diese fördern den grenzüberschreitenden Handel, erhöhen die Markt­transparenz, stimulieren Innovation und flexible Arbeitsformen; gleichzeitig aber bringen sie Abhängigkeiten, wettbewerbswidrige Praktiken und Daten­risiken mit sich, vermehren sie prekäre Beschäf­tigung und Desinformation, so dass ein ausgewogenes Ab­wägen zwischen Wettbewerbssicherung, Datenschutz, fairen Arbeitsstandards, Meinungs­freiheit und digitaler Autonomie erforderlich ist.

Die Europäische Union hat einen umfassenden, mehrschichtigen Rechts­rahmen geschaffen, der Marktmacht reguliert (DMA), Plattformen zu Trans­parenz und Verantwortlichkeit verpflichtet (DSA), den Schutz personenbezogener Daten stärkt (DSGVO) und Vorgaben für den Einsatz künstlicher Intelligenz macht (KI-Gesetz). Diese Gesetze konstituieren das weltweit umfassendste Regulierungspaket für Online-Plattformen. Es hat das Potential, die Big-Tech-Unter­nehmen dahingehend zu beeinflussen, dass sie ihre Geschäftsmodelle an die europäischen Anforderungen anpassen, unter anderem in Bezug auf den Schutz personenbezogener Daten, die Einhaltung der Regeln der freien Marktwirtschaft oder die wirksame Moderation von Inhalten. Einerseits zeichnen sich diese Vorschriften durch ihren oft ambitionierten und wegweisenden Charakter aus. Der DMA und der DSA fokussieren sich in ihrer pragmatischen Heran­gehensweise auf jene Plattformen, die das größte Risiko für die Funktionalität des Bin­nen­markts dar­stellen. Andererseits sind sie jedoch äußerst komplex und ihre Bestimmungen überschneiden sich in einigen Punkten, was zu Interpretationsproblemen führen kann. Darüber hinaus bestehen Zweifel, ob die EU-Institutionen und die natio­nalen Behörden in der Lage sein werden, die Regeln einheitlich durch­zusetzen. Europäische Unternehmen äußern sich hingegen kritisch über den damit verbundenen Verwaltungsaufwand und die potentielle Hemmung von Innovationen, insbesondere im Bereich der KI. Das Gesetz über künstliche Intel­ligenz mag in einigen Bereichen weniger umstritten sein als der DMA und der DSA, doch wirft seine Implementierung die mit jeder Regulierung verknüpfte grundlegende Frage auf, in welchem Ausmaß und wie strikt die Vorgaben praktisch um­zusetzen sind.

Insbesondere hängt die Wirksamkeit des DMA und des DSA von einer konsequenten Durchsetzung der Vorschriften, Rechtsklarheit und einer effektiven Zu­sam­menarbeit zwischen EU-Institutionen, nationalen Behörden und Technologieunternehmen ab. Der Widerstand von Big-Tech, rechtliche Herausforde­rungen und geopolitische Spannungen machen die Umsetzung zu einem komplexen Prozess. Vor diesem Hintergrund sollte auch die Einrichtung einer von der Kommission ausgelagerten, unabhängigen und einheitlichen europäischen digitalen Aufsichtsbehörde diskutiert werden. Das derzeitige fragmentierte Im­plementierungsmodell gemahnt an die Unzulänglich­keiten der Finanzaufsicht in der EU vor 2008. Die Erkenntnis dieser Defizite führte zur Schaffung der Bankenunion und der Europäischen Zentralbank als einheitlicher Aufsichtsbehörde. In ähnlicher Weise würde die Kon­solidierung der Aufsicht über den DMA, den DSA und das KI-Gesetz (das erst noch in Kraft treten muss) unter einer Behörde auf EU-Ebene die Durchsetzung straffen, Koordina­tionsengpässe beseitigen und dafür sorgen, dass für Wett­bewerb, Inhalte und den Einsatz von KI ein einheitlicher regulatorischer Ansatz verfolgt wird. Eine solche Zentralisierung ist nicht nur tech­nisch, sondern auch strategisch notwendig, um die digitale Souveränität der EU zu gewährleisten und sicherzustellen, dass die Durchsetzung gesamteuropäische Interessen wider­spiegelt und nicht nationalen »Sonderwegen« unter­liegt, die von partikularen administrativen oder wirt­schaftlichen Erwägungen motiviert sind, wie im Fall Irlands. Darüber hinaus ist sehr dazu zu raten, dass der allen Regulierungen zugrunde gelegte Plattformbegriff erweitert wird.

Die größte Herausforderung im Bereich der Regulierung von Plattformen bleibt die Notwendigkeit, schädliche Inhalte zu moderieren, die eine Gefahr für den sozialen Zusammenhalt und die demokratischen Systeme darstellen. Der Bedarf für ein Eingreifen an dieser Stelle wird in den einzelnen EU-Ländern unter­schiedlich bewertet. In Staaten, in denen die dominie­renden politischen Kräfte ihre Kommunika­tion weit­gehend auf soziale Medien stützen, könnte dies, ähn­lich wie im Falle der US-Regierung, als Bedrohung der Meinungsfreiheit interpretiert werden. So ist damit zu rechnen, dass Behinderungen und Widerstände gegen eine wirksame Regulierung von Plattformen und insbesondere gegen eine Moderation ihrer In­halte von den Vereinigten Staaten ausgehen werden. Politische Spannungen mit den USA und die Vor­berei­tung der Gesellschaften auf ein neues, von sozialen Medien dominiertes Informationsumfeld werden die Umfeldbedingungen bzw. die Kern­aufgabe einer effektiven Plattformpolitik sein.

Abkürzungen

ABl.

Amtsblatt der Europäischen Union

AIA

KI-Verordnung

Big-Tech

Große Technologieunternehmen

CEO

Chief Executive Officer (Vorstandsvorsitzende/r)

CEPS

Centre for European Policy Studies (Brüssel)

DMA

Digital Markets Act (Gesetz über digitale Märkte)

DPA

Data Protection Authority

DSA

Digital Services Act (Gesetz über digitale Dienste)

DSC

Koordinator für digitale Dienste (Digital Services Coordinator)

DSGVO

Datenschutz-Grundverordnung

EBDS

European Board for Digital Services

EDPB

European Data Protection Board

FIMI

Foreign Information Manipulation and Interference

KI

Künstliche Intelligenz

KMU

Kleine und mittlere Unternehmen

Nato

North Atlantic Treaty Organization

OECD

Organisation for Economic Co-operation and Development

VLOPs

Very Large Online Platforms (Sehr große Online-Plattformen)

VLOSEs

Very Large Online Search Engines (Sehr große Online-Suchmaschinen)

Endnoten

1

 In dieser Studie werden die Begriffe »Internetplatt­formen«, »Plattformen« und »digitale Platt­formen« als Synonyme verwendet.

2

 Dazu gehören vor allem Google (Alphabet), Apple, Micro­soft, Amazon und Meta.

3

 Siehe z. B. K. Sabeel Rahman et al., »The Rise of the Plat­form Business Model and the Transformation of Twenty-First-Century Capitalism«, in: Politics & Society, 47 (2019) 2, S. 177–204; Martin Kenney / John Zysman, »The Rise of the Platform Economy«, in: Issues in Science and Technology, 32 (2016) 3, S. 61–69.

4

 PWC, Global Top 100 Companies by Market Capitalisation, Mai 2025, <https://www.pwc.co.uk/audit/assets/pdf/global-100/ companies/global-top-100-companies-2025.pdf> (Zugriff am 8.1.2026).

5

 Richard Waters, »Google Dodges a Bullet«, in: Financial Times, 3.11.2025.

6

 Siehe z. B. Willem Pieter De Groen et al., »The Impact of the Platform Economy on Job Creation«, in: Intereconomics, 52 (2017) 6, S. 345–351.

7

 Organisation for Economic Co-operation and Development (OECD), An Introduction to Online Platforms and their Role in the Digital Transformation, Paris: OECD Publishing, Mai 2019, S. 4, doi: 10.1787/53e5f593-en.

8

 Paul Belleflamme / Martin Peitz, The Economics of Platforms: Concepts and Strategy, Cambridge: Cambridge University Press, 2011, S. 11–30.

9

 OECD, An Introduction to Online Platforms [wie Fn. 7], S. 15.

10

 José van Dijck, »Governing Digital Societies: Private Platforms, Public Values«, in: Computer Law & Security Review, 36 (2020) 105377; Annabelle Gawer / Nick Srnicek, Online Platforms: Economic and Societal Effects, Brüssel: European Parliamentary Research Service, März 2021 (PE 656.336).

11

 »Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG (Gesetz über digitale Dienste)« [=Digital Services Act (DSA)], in: Amtsblatt der Europäischen Union (ABl.), 27.10.2022, L 277, S. 1–102, Artikel 3 Buchstabe i.

12

 »Verordnung (EU) 2022/1925 des Europäischen Parlaments und des Rates vom 14. September 2022 über bestreitbare und faire Märkte im digitalen Sektor und zur Änderung der Richtlinien (EU) 2019/1937 und (EU) 2020/1828« (Gesetz über digitale Märkte)« [=Digital Markets Act (DMA)], in: ABl., 12.10.2022, L 265, S. 1–66, Artikel 2(2).

13

 »Gesetz über digitale Dienste« [wie Fn. 11], Art. 33.

14

 Siehe z. B. Amnesty International, »Global: TikTok’s ›For You‹ Feed Risks Pushing Children and Young People towards Harmful Mental Health Content«, Pressemitteilung, London, 7.11.2023, <https://www.amnesty.org/en/latest/news/2023/11/ tiktok-risks-pushing-children-towards-harmful-content/> (sofern nicht anders angegeben, wurden alle Internetquellen zuletzt am 5.1.2026 aufgerufen); Kari Paul, »What TikTok Does to Your Mental Health: ›It’s Embarrassing We Know so Little‹«, in: The Guardian, 30.10.2022.

15

 »Gatekeepers«, European Commission (online), <https://digital-markets-act.ec.europa.eu/gatekeepers_en>.

16

 Gemäß Artikel 3(h) des DSA gelten Visa und Mastercard nicht als Online-Plattformen, da sie keine Hosting-Dienste anbieten, die nutzergenerierte Inhalte an die Öffentlichkeit verbreiten. Dementsprechend fallen Visa und Mastercard auch nicht in den Regelungsbereich des DMA, da Zahlungsnetzwerke nicht zu den Kernplattformdiensten zählen, was für die Einstufung als Gatekeeper erforderlich ist (Art. 2.2 DMA).

17

 Siehe z. B. Europäische Kommission, Gestaltung der digitalen Zukunft Europas. Mitteilung an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, COM(2020) 67 final, Brüssel, 19.2.2020, S. 4; Gawer / Srnicek, Online Plattforms: Economic and Societal Effects [wie Fn. 10], S. 18–22.

18

 OECD, Unpacking E-Commerce: Business Models, Trends and Policies, Paris: OECD Publishing, 2019, S. 9–10, doi: 10.1787/23561431-en; Estrella Gomez-Herrera / Bertin Martens / Geomina Turlea, »The Drivers and Impediments for Cross-Border e-Commerce in the EU«, in: Information Economics and Policy, 28 (2014), S. 83–96, doi: 10.1016/j.infoecopol.2014.05.002.

19

 Torsten J. Gerpott / Jan Berends, »Competitive Pricing on Online Markets: A Literature Review«, in: Journal of Revenue and Pricing Management, 21 (2022), S. 596–622, doi: 10.1057/s41272-022-00390-x.

20

 »Online Platforms«, European Commission (online), 12.12.2025, <https://digital-strategy.ec.europa.eu/en/policies/ online-platforms>.

21

 Mario Draghi, The Future of European Competitiveness, Part B: In-Depth Analysis and Recommendations, Luxemburg, September 2024, S. 77.

22

 Siehe z. B. Jonathan J. Rusch, »Computer and Internet Fraud: A Risk Identification Overview«, in: Computer Fraud & Security, 2003 (Juni 2003) 6, S. 6–9.

23

 Siehe z. B. Lina M. Khan, »Amazon’s Antitrust Paradox«, in: Yale Law Journal, 126 (2017) 3, S. 710–805; Katharina Pistor, »Rule by Data: The End of Markets?«, in: Law and Con­temporary Problems, 83 (2020), S. 101–124; European Com­mis­sion, »Commission Sends Preliminary Findings to Alpha­bet under the Digital Markets Act«, Pressemitteilung, Brüssel, 19.3.2025, <https://ec.europa.eu/commission/presscorner/ detail/en/ip_25_811>; Marc Rysman, »The Economics of Two-Sided Markets«, in: Journal of Economic Perspectives, 23 (2009) 3, S. 125–143 (130f), doi: 10.1257/jep.23.3.125.

24

 Subrata Mitra, »Economic Models of Price Competition between Traditional and Online Retailing under Showrooming«, in: Decision, 49 (2022), S. 29–63, doi: 10.1007/s40622-021-00293-7; Kalpana Tyagi et al. (Hg.), Digital Platforms, Competition Law, and Regulation: Comparative Perspectives, Oxford: Hart Publishing, 2024, doi: 10.5040/9781509969418; Geoffrey Parker / Georgios Petropoulos / Marshall Van Alstyne, Digital Platforms and Antitrust, Brüssel: Bruegel, November 2020 (Working Paper 06/2020), <https://www.bruegel.org/ working-paper/digital-platforms-and-antitrust>.

25

 Florian A. Schmidt, Digital Labour Markets in the Platform Economy. Mapping the Political Challenges of Crowd Work and Gig Work, Bonn: Friedrich-Ebert-Stiftung, 2017, S. 24, <https://library.fes.de/pdf-files/wiso/13164.pdf>; Michele Cantarella/Chiara Strozzi, »Workers in the Crowd: The Labour Market Impact of the Online Plat­form Economy«, in: Industrial and Corporate Change, 30 (2021) 6, S. 1429–1458, doi: 10.1093/icc/dtab022.

26

 Cristina Criddle, »Europe’s Privacy Watchdog Probes Google’s Use of Data for AI Model«, in: Financial Times, 12.9.2024; Shoshana Zuboff, The Age of Surveillance Capitalism. The Fight for a Human Future at the New Frontier of Power, New York: Hachette Book Group, 2019.

27

 Draghi, The Future of European Competitiveness , Part B [wie Fn. 21], S. 77.

28

 Carolina Melches / Michael Peters, The Financial Services of Apple, Google and Other Big Tech: A Dangerously Good Deal. How the EU Should Respond, Berlin: Finanzwende Recherche, März 2025, <www.finanzwende-recherche.de/wp-content/uploads/ The_Financial_Services_of_Apple_Google_and_other_Big_ Tech_eng.pdf>.

29

 »Innovation, Integration and Independence: Taking the Single Euro Payments Area to the Next Level. Keynote Speech by Piero Cipollone at the ECB Conference on ›An Innovative and Integrated European Retail Payments Market‹, Frankfurt, 24 April 2024«, European Central Bank (online), <https://www.ecb.europa.eu/press/key/date/2024/html/ecb.sp240424~12ecb60e1b.en.html>.

30

 Hanns Günther Hilpert / Paweł Tokarski, Die Digitalisierung des Zentralbankgelds. Chinas Vor­preschen – Europas Zögern, Berlin: Stiftung Wissenschaft und Politik, Oktober 2024 (SWP-Aktuell 51/2024), doi: 10.18449/2024A51.

31

 »Meta/Diem: Zuckerberg’s Crypto was Cursed from the Start«, in: Financial Times, 1.2.2022.

32

 Sebastian Heidebrecht, »How and Why EU Institutions Promote the Digital Euro: The Politics of a Central Bank Digital Currency (CBDC)«, in: Journal of Common Market Studies, (online), 15.12.2025, doi: 10.1111/jcms.70062.

33

 Madeleine De Cock Buning, A Multi-Dimensional Approach to Disinformation: Report of the Independent High Level Group on Fake News and Online Disinformation, Luxemburg 2018, <https://op.europa.eu/en/publication-detail/-/publication/ 6ef4df8b-4cea-11e8-be1d-01aa75ed71a1/language-en>.

34

 Emily Kubin / Christian von Sikorski, »The Role of (Social) Media in Political Polarization: A Systematic Review«, in: Annals of the International Communication Association, 45 (2021) 3, S. 188–206.

35

 Unter dem Einfluss der neuen US-Regierung kündigte Mark Zuckerberg, Gründer und CEO von Meta, am 7.1.2025 an, dass sein Unternehmen die Moderation von Inhalten (einschließlich der Überprüfung von Fakten) auf den Plattformen Facebook, Instagram, Threads und WhatsApp erheblich einschränken werde, was offensichtlich einen Verstoß gegen EU-Vorschriften darstellt, siehe: Dean Jackson / Berin Szóka, »The Far Right’s War on Content Modera­tion Comes to Europe«, Tech Policy Press, 11.2.2025.

36

 Adrian Chen, »Cambridge Analytica and Our Lives Inside the Surveillance Machine«, in: The New Yorker, 21.3.2018; Abigail Abrams, »Here’s What We Know So Far about Russia’s 2016 Meddling«, in: Time, 18.4.2019; Joanna Plucinska, »EU Tries to Shield 2019 Election from Fake News«, in: Politico, 25.4.2018.

37

 Lisa O’Carroll, »Disinformation Networks ›Flooded‹ X before EU Elections, Report Says«, in: The Guardian, 12.7.2024; Das auffälligste Beispiel für den Impact solcher Desinformationskonten waren die Präsidentschaftswahlen in Rumänien im Jahr 2024. Sie wurden nach der ersten Runde annulliert, nachdem offenbar geworden war, dass zugunsten eines der Kandidaten eine gigantische Desinformations­kampagne auf TikTok durchgeführt worden war, siehe z. B. Sarah Rainsford, »Romanian Court Annuls Result of Presidential Election First Round«, BBC (online), 6.12.2024.

38

 Christian Montag et al., »Problematic Social Media Use in Childhood and Adolescence«, in: Addictive Behaviors, 153 (2024), S. 13–15.

39

 Anselm Küsters / Cecilia Emma Sottilotta, How Europe Can Navigate the Regulatory Tightrope. Trade-offs and Risks in EU Digital Policy, Freiburg/Berlin: Centrum für Europäische Politik, 2025 (CepInput 2/2025), <www.cep.eu/eu-topics/details/trade-offs-and-risks-in-eu-digital-policy.html>.

40

 Siehe z. B. European Parliament, U-turn on EU Bureau­cracy: The Need to Axe Unnecessary Burdens and Reporting to Un­leash Competitiveness and Innovation (topical debate), 23.10.2024, <https://www.europarl.europa.eu/doceo/ document/CRE-10-2024-10-23-ITM-010_EN.html?utm>.

41

 Europäische Kommission, »Vereinfachung der Digital­gesetzgebung: Kommission legt Paket vor«, Pressemitteilung, 19.11.2025.

42

 Axel Voss, We Should Revise the GDPR to Unlock Europe’s Digital Future, Brüssel: Centre for European Policy Studies (CEPS), 17.2.2025.

43

 Siehe z. B. Jack M. Balkin, »Free Speech in the Algo­rithmic Society: Big Data, Private Governance, and New School Speech Regulation«, in: UC Davis Law Review, 51 (2018) 3, S. 1149–1210.

44

 Dawn Carla Nunziato, »The Digital Services Act and the Brussels Effect on Platform Content Moderation«, in: Chicago Journal of International Law, 24 (2024) 2, S. 290–337.

45

 Annegret Bendiek, Integrationspolitische Bedeutung des Digital Service Act (DSA) und Digital Markets Act (DMA). Digitalmarktregulierung als eines von fünf digitalpolitischen Großprojekten der EU, Stellungnahme für das deutsch-französische Fach­gespräch des Europaausschusses des Deutschen Bundestages am 11.2.2021, Berlin: Stiftung Wissenschaft und Politik, März 2021 (Arbeitspapier FG EU/Europa 1/2021).

46

 Martin Bangemann (Hg.), Europa und die globale Informations­gesellschaft. Empfehlungen für den Europäischen Rat [Bangemann-Bericht], Luxemburg: Amt für amtliche Veröffentlichungen der Europäischen Gemeinschaften, 1994 (Beiheft 2/94), S. 30.

47

 Ebd.

48

 »Richtlinie 95/46/EG des Europäischen Parlaments und des Rates vom 24. Oktober 1995 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr« [»Datenschutzrichtlinie«], in: ABl., 23.11.1995, L 281, S. 31–50.

49

 »Richtlinie 2000/31/EG des Europäischen Parlaments und des Rates vom 8. Juni 2000 über bestimmte rechtliche Aspekte der Dienste der Informationsgesellschaft, insbesondere des elektronischen Geschäftsverkehrs, im Binnenmarkt (›Richtlinie über den elektronischen Geschäftsverkehr‹)«, in: ABl., 17.7.2000, L 178, S. 1–16.

50

 Ebd., Art. 3

51

 Ebd., Art. 12.

52

 Ebd., Art. 5.

53

 Ewen Macaskill / Gabriel Dance, »NSA Files: Decoded. What the Revelations Mean for You«, in: The Guardian, 1.11.2013.

54

 Nikhil Kalyanpur / Abraham L. Newman, »The MNC-Coalition Paradox: Issue Salience, Foreign Firms and the General Data Protection Regulation«, in: Journal of Common Market Studies, 57 (2019) 3, S. 448–467.

55

 Henry Farrell / Abraham L. Newman, »Weaponized Interdependence: How Global Economic Networks Shape State Coercion«, in: International Security, 44 (2019) 1,
S. 42–79.

56

 »Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natür­licher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung)«, in: ABl., 4.5.2016, L 119, S. 1–88.

57

 Sebastian Heidebrecht, »From Market Liberalism to Public Intervention: Digital Sovereignty and Changing European Union Digital Single Market Governance«, in: Journal of Common Market Studies, 62 (2024) 1, S. 205–223, doi: 10.1111/jcms.13488.

58

 Gerda Falkner et al., »Digital Sovereignty – Rhetoric and Reality«, in: Journal of European Public Policy, 31 (2024) 8, S. 2099–2120, doi: 10.1080/13501763.2024.2358984.

59

 Luuk Schmitz / Timo Seidl, »As Open as Possible, as Autonomous as Necessary: Understanding the Rise of Open Strategic Autonomy in EU Trade Policy«, in: Journal of Com­mon Market Studies, 61 (2023) 3, S. 834–852.

60

 Europäische Kommission, Strategie für einen digitalen Binnenmarkt für Europa, COM(2015) 192 final, Brüssel, 6.5.2015.

61

 Daniel Tost, »Oettinger Calls for ›Europeanisation‹ of Digital Policy«, in: Euractiv, 17.3.2015.

62

 Europäische Kommission, Mitteilung über Online-Platt­formen und den digitalen Binnenmarkt – Chancen und Herausforderungen für Europa, COM(2016) 288 final, Brüssel, 25.5.2016.

63

 Irish Council for Civil Liberties, Europe’s Enforcement Paralysis. ICCL’s 2021 Report on the Enforcement Capacity of Data Protection Authorities, Dublin, September 2021, <https://www.iccl.ie/wp-content/uploads/2021/09/Europes-enforcement-paralysis-2021-ICCL-report-on-GDPR-enforcement.pdf>.

64

 Sebastian Heidebrecht, »Digital Policy as a Driver of Integration: Spillover Effects and Euro­pean Commission Empowerment«, in: Politics and Governance, 13 (2025) 10474, doi: 10.17645/pag.10474.

65

 Europäische Kommission, »Kommission verhängt Geld­bußen in Höhe von 120 Mio. EUR nach dem Gesetz über digitale Dienste«, Pressemitteilung, 5.12.2025.

66

 Foo Yun Chee, »Google, Apple Hit by EU Regulatory Crackdown«, Reuters, 19.3.2025.

67

 Ebd.

68

 »Gesetz über digitale Märkte – Digital Markets Act (DMS)« [wie Fn. 12], Art. 15.

69

 Ebd., Art. 14.

70

 Robert Gorwa / Grzegorz Lechowski / Daniel Schneiß, »Platform Lobbying: Policy Influence Strategies and the EU's Digital Services Act«, in: Internet Policy Review, 13 (2024) 2, S. 4, doi: 10.14763/2024.2.1782.

71

 »Gesetz über digitale Dienste – Digital Services Act (DSA)« [wie Fn. 11], Art. 3 Buchstabe h.

72

 Ebd., Art. 9, 10 und 49.

73

 Mark Scott, »Ireland’s Social Media Enforcer Prepares for an Uncertain Battle«, in: Politico, 30.11.2023.

74

 »Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz)« [=»KI-Gesetz«], PE/24/2024/REV/1, in: ABl., 12.7.2024, L 2024/1689, S. 1. Diese Verordnung wird schrittweise bis zum Jahr 2026 umgesetzt.

75

 Ebd., Art 6.

76

 Ebd., Art 9.

77

 Philipp Hacker, The AI Act between Digital and Sectoral Regulations, Gütersloh: Bertelsmann Stiftung, Dezember 2024, S. 20–21.

78

 Ebd., S. 25.

79

 Melissa Heikkilä / Barbara Moens, »How the EU Botched its Attempt to Regulate AI. Can Brussels Balance its Desire to Set the Guardrails for Tech with its Need to Attract In­vestment?«, in: Financial Times, 20.11.2025 <https://www.ft.com/content/6585fb32-8a86-4ffb-a940-06b17e06345a>.

80

 Pieter Haeck, »To Shush AI Act Critics, the EU Fine-Tunes Innovation Pitch«, in: Politico, 22.1.2024; European Digital SME Alliance, Industry Concerns on the Artificial Intelligence Act Implementation, Brüssel, 17.12.2024, <https://www.digitalsme.eu/digital/uploads/Joint_Letter_by_European_Tech_Industry_Associations_on_the_Artificial.pdf>.

81

 Draghi, The Future of European Competitiveness, Part B [wie Fn. 21], S. 79.

82

 Mario Draghi, Report on the Future of European Competitiveness, Part A: A Competitiveness Strategy for Europe, Brüssel, September 2024; Enrico Letta, Much More Than a Market: Speed, Security, Soli­darity, Brüssel, April 2024; Europäische Kommission, Ein Kompass für eine wettbewerbsfähige EU. Mitteilung an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, COM (2025) 30 final, Brüssel, 29.1.2025.

83

 Europäische Kommission, Vorschlag für eine Digital-Omni­bus-Verordnung, Brüssel, 19.11.2025, <https://digital-strategy. ec.europa.eu/de/library/digital-omnibus-regulation-proposal>.

84

 »Verordnung (EU) 2023/1781 des Europäischen Parlaments und des Rates vom 13. September 2023 zur Schaffung eines Rahmens für Maßnahmen zur Stärkung des europäischen Halbleiter-Ökosystems und zur Änderung der Verordnung (EU) 2021/694« [=»Chip-Gesetz«], in: ABl., 18.9.2023, L 229, S. 1–53.

Dieses Werk ist lizenziert unter CC BY 4.0

SWP-Studien unterliegen einem Verfahren der Begut­achtung durch Fachkolle­ginnen und -kollegen und durch die Institutsleitung (peer review), sie werden zudem einem Lektorat unterzogen. Weitere Informationen zur Qualitätssicherung der SWP finden Sie auf der SWP-Website unter https:// www.swp-berlin.org/ueber-uns/qualitaetssicherung/.
SWP‑Studien geben die Auffassung der Autoren und Autorinnen wieder.

SWP

Stiftung Wissenschaft und Politik

Deutsches Institut für Internationale Politik und Sicherheit

Ludwigkirchplatz 3–4
10719 Berlin
Telefon +49 30 880 07-0
Fax +49 30 880 07-200
www.swp-berlin.org
swp@swp-berlin.org

ISSN (Print) 1611-6372

ISSN (Online) 2747-5115