EU-Binnenmarkt und Online‑Plattformen
Zwischen Markt, Macht und technologischer Souveränität
SWP-Studie 2026/S 04, 28.01.2026, 28 Seitendoi:10.18449/2026S04
ForschungsgebieteDr. Sebastian Heidebrecht ist Universitätsassistent am Centre for European Integration Research (EIF), das am Institut für Politikwissenschaft der Universität Wien angesiedelt ist.
Dr. Paweł Tokarski ist Wissenschaftler in der Forschungsgruppe EU / Europa.
-
Große Internetplattformen prägen Wirtschaft, Politik und Gesellschaft in der EU, stellen den Binnenmarkt vor neue Herausforderungen und sind wegen ihrer überwiegenden US-amerikanischen Herkunft auch zunehmend ein geopolitisches Konfliktthema.
-
Online-Plattformen haben ambivalente Effekte: Sie fördern Integration, Innovation und Digitalisierung des Binnenmarkts, bergen aber zugleich Risiken wie Marktmachtmissbrauch, Desinformation und intransparente algorithmische Steuerung.
-
Die EU hat ihren Regulierungsansatz deutlich verschärft, insbesondere mit den beiden Verordnungen DSA und DMA. Sie steht bei der Durchsetzung jedoch vor einer Reihe von Hürden: der nicht eindeutigen Rechtsklarheit, der asymmetrischen Ressourcenverteilung zwischen Regulierungsbehörden und großen digitalen Plattformen und der unzureichenden Verpflichtung zu algorithmischer Transparenz.
-
Zur Stärkung der digitalen Souveränität wird die Einrichtung einer unabhängigen europäischen Digitalaufsicht empfohlen. Sie könnte darauf hinwirken, dass nationale Vollzugsdefizite und regulatorische Fragmentierung überwunden und Vorschriften einheitlich durchgesetzt werden.
-
Digitale Regulierung allein reicht nicht aus: Sie muss durch eine umfassende industrie- und wettbewerbspolitische Strategie ergänzt werden, die das Wachstum europäischer Technologieunternehmen im globalen Wettbewerb fördert.
Inhaltsverzeichnis
1 Problemstellung und Empfehlungen
2 Online-Plattformen: terminologische Unschärfen und konzeptionelle Grenzen
3 Die Plattformwirtschaft und der Binnenmarkt: Chancen, Risiken und regulatorische Zielkonflikte
3.1 Funktionale Vorteile und Wertschöpfungsbeiträge von Plattformen
3.2 Risiken digitaler Plattformen für Wirtschaft und Gesellschaft
3.3 Online-Plattformen und regulatorische Zielkonflikte
4 Die EU und Plattformen: von der Marktlogik zum Kampf um die Inhalte
4.2 DSA und DMA als zentrale Instrumente der Plattformregulierung
4.3 Plattformen und das KI-Gesetz: zwischen Innovation und Rechenschaftspflicht
5 Ausblick: EU‑Regulierung als Puffer für den digitalen Wandel
Problemstellung und Empfehlungen
Die dynamische Entwicklung von Internetplattformen ist einer der bedeutendsten Aspekte der digitalen Ökonomie. Insbesondere die Plattformen mit der größten Reichweite und die sie betreibenden Unternehmen sind nicht nur für das Funktionieren des Binnenmarkts der Europäischen Union, sondern auch für die politischen und sozialen Systeme zu einer Herausforderung geworden. Da sie fast ausnahmslos aus den Vereinigten Staaten stammen und die normativen Unterschiede auf beiden Seiten des Atlantiks wachsen, ist die Kontrolle ihrer Aktivitäten nicht nur zu einem wirtschaftlichen und regulatorischen, sondern auch zu einem politischen Streitthema geworden. Trotz ambitionierter Pläne zur Stärkung ihrer digitalen Souveränität sind kurzfristig keine wesentlichen technologischen Fortschritte in der EU absehbar. Umso wichtiger ist es, dass die Union einen wirkungsvollen digitalen Regulierungsrahmen schafft, der ihre Handlungsfähigkeit im digitalen Raum sichert. Die vorliegende Studie geht deshalb der Frage nach, wie die EU ihre Regulierung angesichts der dynamischen Plattformentwicklung so ausgestalten kann, dass negative Effekte begrenzt und positive Beiträge zum Binnenmarkt erhalten bleiben bzw. generiert werden.
Ausgangspunkt ist die bestehende definitorische Unschärfe des Begriffs Online-Plattformen und die ambivalenten Auswirkungen der Tätigkeit dieser digitalen Portale auf den Binnenmarkt. Diese hat zweifellos positive Effekte, beispielsweise im Hinblick auf die Vertiefung oder die Digitalisierung des Binnenmarkts. In den letzten Jahren sind jedoch die mit Online-Plattformen verbundenen Risiken, wie der Missbrauch einer marktbeherrschenden Stellung oder die Verbreitung von Desinformation durch undurchsichtige Algorithmen, immer deutlicher hervorgetreten und haben sich von einer regulatorischen Herausforderung zu einem wachsenden wirtschaftlichen, sozialen und politischen Problem entwickelt. Die Ambivalenz der Wirkungen der Plattformaktivitäten führt zu schwer lösbaren Konflikten zwischen den Zielen, die mit einer Regulierung digitaler Dienstleister verbunden werden: auf der einen Seite Innovation, auf der anderen Datenschutz, auf der einen Seite Meinungsfreiheit, auf der anderen die Moderation von Inhalten. Die Frage, wie Chancen und Risiken von Online-Plattformen ausbalanciert werden können, wird maßgeblich darüber entscheiden, ob der digitale Binnenmarkt langfristig zu einer Erfolgsgeschichte wird.
Die Haltung der EU zur Regulierung von Internetplattformen hat sich stark gewandelt. Von einem liberalen, auf den Grundsätzen der Marktwirtschaft basierenden Ansatz ausgehend ist die EU mittlerweile von der Notwendigkeit einer sehr umfassenden Regulierung überzeugt. Deren Ziel soll es sein, wichtige Aspekte des Funktionierens des Binnenmarkts und die Rechte der Bürger zu schützen. Davon sind die Union und die Mitgliedstaaten aber noch weit entfernt. Die EU verfügt über eine Reihe von Rechtsinstrumenten zur Regulierung von Plattformen, insbesondere die seit Mai 2023 und Februar 2024 uneingeschränkt in der EU geltenden Gesetze über digitale Dienste (DSA) und über digitale Märkte (DMA). Eine Herausforderung stellen jedoch die Vielschichtigkeit der Funktionsweise von Plattformen, die technische Komplexität, die zu klärenden Rechtsstreitigkeiten und die erheblichen Ressourcen dar, die die betroffenen Unternehmen für Lobbyarbeit und Rechtsberatung aufwenden können. So werden Regulierungsverfahren erschwert und die Rechtsdurchsetzung verzögert. Deshalb geht die Einführung von Regeln und Sanktionen für Online-Plattformen nur langsam voran. Die Vorgaben sind moderat, uneinheitlich und immer noch unzureichend, was die Offenlegungspflichten in Bezug auf die verwendeten Algorithmen betrifft, die ein zentrales Element der Funktionsweise der Plattformen sind.
Vor diesem Hintergrund sollte sich die Bundesregierung im Rahmen der EU für die Einrichtung einer gemeinsamen unabhängigen digitalen Aufsichtsbehörde einsetzen. Damit könnte eine harmonisierte Durchsetzung der Allgemeinen Datenschutzverordnung, des DSA, des DMA und der KI-Verordnung im gesamten Binnenmarkt gewährleistet werden. Die Etablierung einer solchen Behörde wäre ein großer Schritt, um Durchsetzungsengpässe auf der Ebene der Mitgliedstaaten, wie sie in Irland zu beobachten sind, und eine Fragmentierung zu überwinden, die die Wirksamkeit der Regulierung reduziert. Dies wäre auch ein entscheidender Faktor zur Stärkung der europäischen technologischen Souveränität. Die Behörde kann die Unabhängigkeit der EU von potentieller politischer Einflussnahme auf die Kommission durch mitgliedstaatliche und private Partikularinteressen erhöhen und die digitale Souveränität durch eine einheitliche marktweite Aufsicht stärken. Ungeachtet dessen sollte die Bundesregierung die Bemühungen der Europäischen Kommission um eine einheitliche und effektive Anwendung der bestehenden Vorschriften für Plattformen in der EU und den Mitgliedstaaten unterstützen.
Die digitalen Regulierungsinstrumente müssen in einen breiteren wirtschaftspolitischen Kontext eingeordnet werden. Sie allein können die strukturellen Herausforderungen der europäischen Wettbewerbsfähigkeit nicht lösen; vielmehr müssen sie durch Maßnahmen ergänzt werden, die günstige Rahmenbedingungen für das Wachstum leistungsfähiger Technologieunternehmen schaffen – sowohl innerhalb des Binnenmarkts als auch im globalen Wettbewerb mit Akteuren aus den USA und China.
Online-Plattformen: terminologische Unschärfen und konzeptionelle Grenzen
Online-Plattformen,1 die von großen Technologieunternehmen (Big-Tech) betrieben werden,2 spielen eine wachsende Rolle in der modernen Wirtschaft, da sie einen neuen digitalen Raum für soziale und wirtschaftliche Interaktionen schaffen. Die verschiedenen Plattformen, seien es soziale Medien wie Meta, Videoplattformen wie YouTube oder andere Dienste oder Marktplätze und Suchmaschinen, sind für praktisch jeden Aspekt des modernen Lebens von enormer Bedeutung, von der zwischenmenschlichen Interaktion über den Verkauf und die kulturelle Produktion bis hin zur politischen Praxis. Plattformen transformieren die Wirtschaft, weil sie digitale Technologien und Daten nutzen, um integrierte Ökosysteme zu schaffen, die mehrere Märkte miteinander verbinden. Dadurch stellen sie klassische Industrie- und Finanzstrukturen in Frage: Sie verändern die Art und Weise, wie Finanzdienstleistungen erbracht werden, und begünstigen – gestützt durch ihre algorithmischen Infrastrukturen und datengetriebene Geschäftsmodelle – eine enorme Konzentration von Marktmacht.3
Die Hälfte der zehn weltweit größten Unternehmen nach Marktkapitalisierung im Jahr 2025 sind Firmen, die digitale Dienstleistungen über Plattformen anbieten.4 Diese globalen Konzerne, auch als »Big Five« bezeichnet, Amazon, Apple, Google, Meta und Microsoft, sind führend in den Bereichen E-Commerce, Software, Datenerfassung, Suche und Verarbeitung, auch verbunden mit KI, und die Säulen der heutigen digitalen Wirtschaft. Sie verwalten Dutzende von Online-Plattformen und Milliarden von Nutzerkonten. Zum Beispiel verfügt Alphabet/Google über eine Vielzahl von eigenständigen Online-Anwendungen, zu denen nicht nur die bekannte Suchmaschine, sondern unter anderem noch Gmail, Drive, Maps, Android, Chrome, YouTube und die Google Cloud Platform zählen. Allein der Chrome-Webbrowser verzeichnet über 3,5 Milliarden aktive Nutzer weltweit.5
Plattformen generieren wirtschaftlichen Wert durch Daten, Algorithmen und Netzwerkeffekte.
Eine klare begriffliche Bestimmung von Online-Plattformen ist eine unerlässliche Voraussetzung, um die Chancen und Risiken, die sich rechtlich, ökonomisch und auch politisch aus ihren Aktivitäten ergeben, adäquat zu beurteilen. Die Vielfalt ebendieser Aktivitäten in den Bereichen des wirtschaftlichen und sozialen Lebens führt jedoch zu Problemen bei der Definition der Plattformen.6 Sie können als unternehmensgeführte digitale Infrastrukturen bezeichnet werden, die als Intermediäre zwischen unterschiedlichen Nutzergruppen fungieren und Interaktionen und Transaktionen koordinieren. Sie generieren wirtschaftlichen Wert, indem sie Datenverarbeitung, algorithmische Vermittlung und positive Netzwerkeffekte nutzen, die mit steigenden User-Zahlen wachsende Skalierungsgewinne ermöglichen. Die Organisation for Economic Co-operation and Development (OECD) definiert diese Art von Wirtschaftsakteur als »digitalen Dienst«, der Interaktionen zwischen zwei oder mehr Marktteilnehmern ermöglicht, die diese Interaktionen über das Internet abwickeln.7 Dabei heben die Autorinnen und Autoren der Studie als typisierendes Element neben dem Interaktionseffekt unter anderem die Bedeutung des Netzwerkeffekts und der Skaleneffekte hervor. Andere Experten betonen darüber hinaus die Fähigkeit von Plattformen, durch eine kontinuierliche Steigerung der Anziehungskraft der angebotenen Dienste für unterschiedliche Nutzergruppen und durch die aktive, datenbasierte Verwaltung des Netzwerks einen sich selbst verstärkenden Wertschöpfungsprozess in Gang zu setzen.8 Auch die Rolle der Algorithmen bei der fortlaufenden Verbesserung der Attraktivität dieser Netzwerke durch die komplexe Verarbeitung riesiger Datenmengen wird unterstrichen.9 Die Aktivitäten der von den führenden Technologiekonzernen verwalteten Plattformen gehen weit über die Schaffung von wirtschaftlichem Wert hinaus. Die Big Five dominieren zunehmend den europäischen digitalen Raum, fungieren als Gatekeeper für soziale und wirtschaftliche Aktivitäten im Internet, beeinflussen die Struktur der Gesellschaft und den demokratischen Prozess und stellen damit eine Herausforderung für die Regulierungsbehörden dar.10
Die EU hat im November 2022 das Gesetz über digitale Dienste (Digital Services Act, DSA) und das Gesetz über digitale Märkte (Digital Markets Act, DMA) in Kraft gesetzt. Im Rahmen dessen hat sie die detailliertesten und umfassendsten Begriffsbestimmungen für digitale Plattformen formuliert, die zugleich sektorübergreifend anwendbar sind. Die Definition des DSA bezieht sich auf »Hosting-Dienste«, die darin bestehen, Informationen im Auftrag eines Nutzers »zu speichern und öffentlich zugänglich zu machen«.11 Im Gesetz über digitale Märkte werden solche Dienstleistungsunternehmen als Plattformen bezeichnet, die einen der dort aufgeführten »Kerndienste« (core platform services) anbieten: Internetvermittlungsdienste, Suchmaschinen, soziale Online-Netzwerkdienste, Videoplattformdienste, Dienste der zwischenmenschlichen Kommunikation (und zwar solche, die die Nutzer nicht über Rufnummern miteinander verbinden), Betriebssysteme, Webbrowser, virtuelle Assistenten, Cloud-Computing-Dienste und Online-Werbedienste.12
Im Rahmen des DSA klassifiziert die Europäische Kommission die größten Plattformen entweder als Very Large Online Platforms (VLOPs) oder als Very Large Online Search Engines (VLOSEs). Das Hauptkriterium ist dabei, dass sie mehr als 45 Millionen aktive Nutzer monatlich in der EU haben.13 Die Liste der Unternehmen, die von der Kommission seit Februar 2024 als VLOPs und VLOSEs eingestuft werden, ist in Tabelle 1 (S. 9) aufgeführt.
Das auf Basis des DSA festgelegte Kriterium der Nutzerzahl ist jedoch möglicherweise nicht zuverlässig genug, wie das Beispiel TikTok zeigt. Obwohl diese Plattform innerhalb der EU eine geringere Nutzerbasis aufweist als Facebook oder YouTube, sind die mit ihrer Tätigkeit einhergehenden Risiken, wie die massive Verbreitung schädlicher Inhalte, als unverhältnismäßig hoch einzustufen.14
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Einen alternativen Ansatz bietet der DMA. Die Kommission definiert hier »Gatekeeper« als Firmen, die eine marktbeherrschende Stellung einnehmen und über ihre Online-Plattformen den Zugang der Nutzer zu diesem Markt kontrollieren können. Die Klassifizierung erfolgt demnach auf der Grundlage von Kriterien der wirtschaftlichen Dominanz und nicht ausschließlich der Größe der Zielgruppe. Im zweiten Halbjahr 2025 wurden Alphabet, Amazon, Apple, Booking, ByteDance, Meta und Microsoft von der EU-Kommission als Gatekeeper eingestuft.15
Die verschiedenen Kategorisierungen von Plattformen im DSA und im DMA haben ihre Ursache in unterschiedlichen Regulierungszielen. Der DSA konzentriert sich auf die Gefahren für Nutzer durch schädliche Inhalte. Der DMA will dagegen Marktmissbrauch bekämpfen. In der Praxis werden viele Plattformen, wie Google, Meta, Apple oder Amazon, sowohl als VLOPS und als auch als Gatekeeper eingestuft. In diesem Kontext stellt sich die Frage, warum andere global agierende Netzwerk-Unternehmen nicht unter die beiden EU-Regulierungen fallen. Beispielsweise werden Visa und Mastercard häufig nicht als Anbieter von Dienstleistungen auf Plattformen klassifiziert.16 Sie haben einen Netzwerkeffekt, verbinden Händler, Banken und Verbraucher, ähnlich wie Online-Plattformen Nutzer verbinden, Online-Transaktionen anbieten und Nutzerdaten verwalten. Auch wenn ihre Dominanz auf dem Markt für Kartenzahlungen Bedenken hinsichtlich der technologischen Souveränität der EU aufkommen lässt, vermitteln diese Unternehmen aber keine Inhalte, betreiben keinen Marktplatz und verwalten auch nicht die Sichtbarkeit ihrer Produkte.
Die außenpolitische Instrumentalisierung der Plattformen tritt zunehmend hervor.
Eine überwältigende Anzahl der VLOPs in der Tabelle 1, nämlich 13 von 22 stammen aus den USA. Was die Gatekeeper angeht, so haben alle Unternehmen außer Bytedance ebenfalls ihren Sitz in den USA. Die globale Dominanz großer Plattformunternehmen geht einher mit einer hohen politisch-ökonomischen Relevanz, die insbesondere angesichts divergierender Regulierungsauffassungen in der EU und in den USA zum Tragen kommt. Unterschiedliche normative Leitbilder führen dazu, dass Fragen von Marktstruktur, Datenschutz, Inhaltsmoderation und Plattformmacht zunehmend politisiert werden. Aktuelle Ereignisse zeigen, wie stark der politische Impact von Plattformakteuren bereits ist. So stellte beispielsweise US-Vizepräsident J. D. Vance am 14. Februar 2025 in München die europäische Auslegung von Meinungsfreiheit und damit die EU-Plattformregulierung insgesamt in Frage. Dabei wird das Thema der Plattformregulierung mit sicherheitspolitischen Elementen, wie etwa der Unterstützung im Rahmen der Nato, verknüpft. In Taiwan gerät TikTok unter Beobachtung, da die dortige Regierung befürchtet, dass die chinesische Mutterfirma auf Informationsflüsse einwirkt. Die außenpolitische Instrumentalisierung der Plattformen tritt zunehmend hervor: Sie werden gezielt genutzt, um wirtschaftlichen und politischen Einfluss international auszubauen.
Die definitorische Unschärfe des Plattformbegriffs ist mit Blick auf die regulatorische Debatte in der EU weiterhin von Belang. Je nachdem, ob Plattformen als Intermediäre, Infrastrukturbetreiber, Datenunternehmen, Marktorganisatoren oder als umfassende digitale Ökosysteme verstanden werden, ergeben sich unterschiedliche Anknüpfungspunkte, wer wofür verantwortlich ist und welche Risiken reguliert werden müssen. Die oben genannten Beispiele illustrieren, wie Plattformen über ihre wirtschaftliche Funktion hinaus politische Wirkungen entfalten. Dieses Potential verstärkt die Divergenz ohnehin schon ungleicher Regulierungsansätze und erhöht die Schwierigkeit konsistenter Antworten zusätzlich. Darüber hinaus erzeugen Plattformfirmen im EU-Binnenmarkt sehr unterschiedliche, teils widersprüchliche Effekte. Diese Ambivalenzen sind eine Herausforderung für die Bestrebungen, eine einheitliche Regulierung durchzusetzen. Welche Probleme sich dabei stellen, ist Ausgangspunkt des folgenden Abschnitts.
Die Plattformwirtschaft und der Binnenmarkt: Chancen, Risiken und regulatorische Zielkonflikte
Das Verhältnis zwischen dem europäischen Binnenmarkt und den großen Online-Plattformen ist komplex. Dabei lassen sich zwei grundlegende Perspektiven unterscheiden: Einerseits tragen die digitalen Plattformen zur Stärkung des Binnenmarkts im digitalen Bereich bei, zum Beispiel durch einen besseren grenzüberschreitenden Zugang zu Gütern und Dienstleistungen oder durch Preistransparenz. Andererseits werden die Risiken, die sich aus den Geschäftsmodellen der Plattformen ergeben, immer deutlicher. Diese zeigen sich nicht nur in wirtschaftlicher, sondern auch in sozialer, politischer und sicherheitspolitischer Hinsicht. Diese positiven wie negativen Effekte überschneiden sich zudem häufig in denselben Funktionsbereichen, was die Identifizierung eindeutiger Regulierungsziele erschwert und die Entwicklung kohärenter Steuerungsansätze zu einer besonderen Herausforderung macht.
Funktionale Vorteile und Wertschöpfungsbeiträge von Plattformen
Digitale Plattformen haben in vielerlei Hinsicht einen positiven Einfluss auf das Wachstum und die Entwicklung der EU-Wirtschaft.17 Der wichtigste Vorteil ihres Geschäftsmodells für den Binnenmarkt besteht darin, dass sie bestehende Hindernisse, insbesondere im Bereich der digitalen Dienste, abbauen. Dies ist von großer Bedeutung für den EU-Binnenmarkt, der nach wie vor durch erhebliche interne Barrieren gekennzeichnet ist. Digitale Plattformen fungieren hier als Katalysatoren, indem sie Handels- und Interaktionsbarrieren weiter abbauen und die Transaktionskosten erheblich senken. Sie tragen zur Entwicklung des grenzüberschreitenden elektronischen Handels und zur Verbreitung des Dienstleistungsangebots bei, indem sie den Verbraucherinnen und Verbrauchern einen leichteren Zugang zu diesen Märkten ermöglichen.18 Aus Sicht der Käufer erweitert sich dank der Plattformen die Produktauswahl. Durch die starke Ausweitung des E-Commerce tragen digitale Plattformen zu höherer Preistransparenz bei und intensivieren damit den Wettbewerb, was den Verbrauchern zugutekommt.19 Plattformen wirken sich zudem positiv auf qualitative Wettbewerbsparameter aus, indem sie die Transparenz über die Qualität von Produkten erhöhen, die Vielfalt des verfügbaren Angebots erweitern und wegen der vereinfachten Vergleichbarkeit einen Trend zur Verbesserung der Liefer- und Servicebedingungen auslösen. Durch die Plattformen können auch kleine und mittlere Unternehmen Märkte in anderen Ländern besser erreichen, ohne in neue Verkaufsstellen oder Logistik investieren zu müssen. Über 50 Prozent der Unternehmen aus dieser Gruppe, die über Online-Plattformen verkaufen, machen auch grenzüberschreitende Geschäfte.20
Die Plattformwirtschaft fördert die digitale Transformation der EU.
Die Plattformwirtschaft spielt also eine positive Rolle bei einem der wichtigsten politischen Ziele der EU, nämlich dem, die digitale Transformation voranzutreiben, indem sie für die Marktteilnehmer digitale Tools für Marketing, Verkauf und Zahlungsabwicklung bereitstellt. Große Technologieunternehmen bieten auch Sicherheitslösungen an, zum Beispiel Software zum Schutz vor Cyberbedrohungen. Auch dies erleichtert Unternehmen und Privatpersonen die sichere Nutzung digitaler Dienste. Ein weiteres bedeutendes Merkmal von plattformbasierten Geschäftsmodellen ist ihre datengestützte Innovationsfähigkeit, die für ihre Wettbewerbs‑ und Anpassungsfähigkeit von entscheidender Bedeutung ist. Plattformen nutzen nicht nur selbst fortschrittliche digitale Technologien, sondern fördern auch die Entstehung neuer Geschäftsmodelle. Ein gutes Beispiel dafür sind Streaming-Dienste oder App-basierte Vertriebsformen.
Der Einfluss der Plattformwirtschaft ist auch beim Blick auf den Arbeitsmarkt und die sozialen Verhältnisse deutlich spürbar. Digitale Plattformen unterstützen flexible Formen der Fernarbeit und die Ausübung von Online-Tätigkeiten – ein Effekt, der während der Covid-19-Pandemie besonders sichtbar wurde, als Millionen Beschäftigte gezwungen waren, remote zu arbeiten. Diese verstärkte Nutzung digitaler Plattformen führte nicht nur zu einer höheren Abhängigkeit von technischen Infrastrukturen, sondern auch zu einer beschleunigten Akzeptanz neuer Arbeits- und Kommunikationsformen. Gleichzeitig bieten Plattformen Tools für kollektive Kommunikation und Meinungsaustausch, wodurch sich lokale oder thematische Communities leichter zusammenfinden können, was den Wegfall analoger sozialer Interaktionsräume, zum Beispiel während der pandemiebedingten Lockdowns, teilweise kompensierte.
Es ist auch anzumerken, dass die positiven Effekte von Plattformen auf die Wirtschaft einem Wandel unterliegen, der maßgeblich durch den technologischen Fortschritt und das Entstehen neuer Dienste (z. B. Cloud-Computing oder digitale Werbemärkte) geprägt ist. Dies ist einer der dynamischsten Bereiche des Binnenmarkts, der gleichzeitig dessen Reichweite erweitert. Der Wert des europäischen Markts für Cloud-Dienste wird voraussichtlich von rund 87 Milliarden Euro (2022) auf 200 Milliarden Euro im Jahr 2028 steigen.21
Risiken digitaler Plattformen für Wirtschaft und Gesellschaft
Die negativen Auswirkungen der Plattformen auf den Binnenmarkt haben sich im Laufe der Zeit deutlich intensiviert und ausdifferenziert. In der frühen Entwicklungsphase der Online-Plattformen, also in den ersten anderthalb Jahrzehnten des 21. Jahrhunderts, wurden diese vor allem als Träger technischer Innovationen angesehen, die neue Märkte, Zugang zu Informationen und niedrige Transaktionskosten ermöglichten. Die größten Kritikpunkte waren zu dieser Zeit Fragen des Datenschutzes (Verwendung von sogenannten Cookies), die Anfälligkeit für Internetbetrug und der Verbraucherschutz.22
Die Situation hat sich seit etwa 2010 allmählich geändert, als Plattformen (z. B. Amazon Marketplace, Google Search, Apple App Store) ihre Marktposition ausbauten und zunehmend Praktiken einsetzten, die als wettbewerbswidrig gelten. Dazu zählen vor allem die systematische bevorzugte Behandlung eigener Produkte und Dienste, Restriktions- und Knebelklauseln gegenüber Geschäftspartnern, die missbräuchliche Ausnutzung von Abhängigkeiten kleinerer Unternehmen sowie ein Preis- und Konditionendruck entlang der Wertschöpfungskette.23 Darüber hinaus geht die Ausbreitung von Plattformen mit der Verdrängung traditioneller Handelsformen einher, indem die Unternehmen der digitalen Ökonomie insbesondere kleine und traditionelle Einzelhandels- und Dienstleistungsbetriebe in einen starken Preiswettbewerb verwickeln.24
Nach 2010 wurde zunehmend auf die Herausforderungen aufmerksam gemacht, die das Geschäftsmodell der Online-Plattformen für den Arbeitsmarkt und die Sozialpolitik mit sich brachte, unter anderem durch die Schaffung von schlecht bezahlten und unsicheren Beschäftigungsverhältnissen.25 Dabei war eine Neigung der Plattformen sichtbar geworden, die Unterschiede zwischen den Rechtssystemen der Mitgliedstaaten, etwa im Arbeits- und Steuerrecht, zu nutzen, um den Gewinn zu maximieren. Mit der zunehmenden Verbreitung der Speicherung von Daten in einer Cloud kamen nicht nur Fragen zum Datenschutz auf,26 sondern auch zur wachsenden Abhängigkeit von der IT-Infrastruktur von US-Firmen, die etwa 65 Prozent dieses Marktes kontrollieren.27
Und noch eine andere Abhängigkeit von US-Unternehmen wird mehr und mehr als problematisch angesehen: die des europäischen Finanzsektors, speziell bei der Zahlungsinfrastruktur.28 Die Unselbständigkeit in diesem Sektor macht das europäische Finanzsystem anfälliger für Störungen von außen. Auf ausländische Zahlungsdienstleister entfielen in der ersten Hälfte des Jahres 2023 fast zwei Drittel (64%) aller elektronisch initiierten Transaktionen mit im Euroraum ausgegebenen Karten. 13 von 20 Ländern des Euroraums sind aufgrund des Fehlens eines nationalen Kartensystems vollständig auf internationale Anbieter angewiesen.29 Internetplattformen bergen auch das Risiko, die Rolle traditioneller, auf staatlicher oder suprastaatlicher Souveränität basierender Währungen zu untergraben. Neue private Geldemittenten können eine Gefahr für die Währungshoheit der Staaten und die Wirksamkeit der Geldpolitik darstellen. Als besonders besorgniserregend wird vor allem die potentielle Beteiligung großer Technologieunternehmen an entsprechenden Projekten angesehen. Die Ankündigung von Facebook/Meta im Juni 2019, ein eigenes Zahlungsmittel schaffen zu wollen, war ein wichtiger Weckruf in Bezug auf die Währungssouveränität, der die Arbeit am digitalen Euro beschleunigt hat.30 Die Vorhaben der Tech-Firmen scheiterten, hauptsächlich aufgrund des Widerstands von Regierungen und Regulierungsbehörden weltweit.31 In Zukunft kann aber nicht ausgeschlossen werden, dass sich Internetplattformen an Stablecoins stärker beteiligen, sei es als Infrastrukturanbieter, zu Investitionszwecken oder zur Schaffung eines eigenen Zahlungsmittels. Daraus könnten potentiell neue Herausforderungen für die technologische Dimension der europäischen Währungssouveränität entstehen.32
Intransparente Algorithmen, Desinformation und KI-gestützte Moderation der Online-Plattformen stehen zunehmend in der Kritik.
Eine weitere Herausforderung, die im Kontext digitaler Plattformen in den Fokus gerückt ist, betrifft den Informationsfluss und die damit verbundenen Steuerungsmechanismen. Zunehmend kritisiert werden intransparent gestaltete Algorithmen, mit denen Inhalte priorisiert und verbreitet werden, die systemische Anfälligkeit für Desinformation sowie der wachsende Einsatz künstlicher Intelligenz bei der Moderation von Inhalten. Internetplattformen bieten ein günstiges Umfeld für die Verbreitung von falschen, ungenauen oder irreführenden Nachrichten, für das Schüren von Misstrauen gegenüber der Regierungspolitik.33 Die Verbreitung falscher Informationen und die Erzeugung von Ängsten betreffen auch die Wirtschaftspolitik, was sich vor allem in der Förderung protektionistischer Maßnahmen gegenüber bestimmten Berufsgruppen äußert. Plattformen wie X/Twitter, Facebook/Meta oder TikTok geben extremen politischen Kräften die Möglichkeit, einen großen Teil der Gesellschaft zu erreichen.34 Das Problem wurde durch die Übernahme von Twitter durch Elon Musk und durch die Wahl von Donald Trump zum US-Präsidenten noch verschärft.35 Online-Plattformen eröffnen zudem neue Wege der politischen Einflussnahme im internationalen Kontext. In den vergangenen Jahren wurden zahlreiche Fälle externer Einmischung dokumentiert, bei denen ausländische staatliche oder staatsnahe Akteure digitale Plattformen gezielt nutzten, um auf politische Prozesse in demokratischen Staaten einzuwirken. Die Beispiele reichen von koordinierter Desinformation durch russische Akteure im Umfeld der US-Wahlen 2016 und in verschiedenen europäischen Wahlkämpfen über chinesische Informationskampagnen zur Unterstützung strategischer Narrative bis hin zu einer auf Plattformdaten basierenden manipulativen Zielgruppenansprache durch private Akteure wie Cambridge Analytica.36 Solche Praktiken, die die EU mittlerweile unter dem Begriff »Foreign Information Manipulation and Interference« (FIMI) zusammenfasst, verdeutlichen, dass digitale Plattformen längst nicht mehr nur ökonomische Märkte, sondern auch geopolitisch relevante Infrastrukturen darstellen. Durch die hohe Reichweite, algorithmische Verstärkungsmechanismen und die Möglichkeit präzisen Targetings können Informationsflüsse und Prozesse der öffentlichen Meinungsbildung in einem Ausmaß beeinflusst werden, das traditionelle Formen ausländischer Einmischung übersteigt. Dies vergrößert die Herausforderung einer Regulierung und unterstreicht die Notwendigkeit, Plattformen nicht allein als Wirtschaftsakteure, sondern auch als Generatoren demokratie- und sicherheitspolitischer Risiken zu begreifen. In der EU gab es in letzter Zeit viele Fälle, in denen falsche Informationen massenhaft verbreitet wurden. Der Einsatz von Fake-Accounts zur Streuung spezifischer politischer Inhalte, die sich mit russischen Interessen decken, fand unter anderem kurz vor der Brexit-Abstimmung, im französischen Präsidentschaftswahlkampf 2017 und vor der deutschen Bundestagswahl 2024 statt. Rund 50.000 gefälschte Konten auf dem Portal X/Twitter wurden unter anderem in Frankreich, Italien, Deutschland und Rumänien identifiziert.37 Die Funktionsweise von Internetplattformen, die darauf abzielt, die Attraktivität der Inhalte für den Empfänger zu maximieren, hat auch negative Auswirkungen auf andere Bereiche des gesellschaftlichen Lebens, darunter die psychologische Gesundheit von Kindern und Jugendlichen.38
Online-Plattformen und regulatorische Zielkonflikte
Die Digitalpolitik der Europäischen Union ist strukturell von tiefgreifenden Zielkonflikten geprägt: Sie muss zugleich die Vollendung des digitalen Binnenmarkts, die Förderung von Innovation und Wettbewerbsfähigkeit sowie den Schutz öffentlicher Güter wie Demokratie, Sicherheit, Datenschutz und gesellschaftliche Kohäsion im Blick haben.39 In Bezug auf die Online-Plattformen tritt dieses Spannungsverhältnis besonders deutlich zutage, weil diese sowohl Wachstumstreiber des Binnenmarkts als auch Quellen systemischer Risiken sind. Die oben genannten ambivalenten Effekte der Plattformökonomie – Effizienzgewinne und Markterweiterung auf der einen, Datenmacht, algorithmische Intransparenz und politische Einflussnahme auf der anderen Seite – verschärfen die Zwangslage der EU-Digitalpolitik erheblich. Die europäischen Regierungen stehen hier vor der klassischen Herausforderung, einerseits den Schutz der Freiheiten und Regeln des Marktes gewährleisten und andererseits Marktversagen in Schlüsselbereichen verhindern zu müssen. Beispiele für regulatorische Konflikte, die durch die zwiespältigen Auswirkungen der Plattformwirtschaft entstehen, werden in Tabelle 2 dargestellt.
Unter den verschiedenen regulatorischen Zielkonflikten treten zwei besonders hervor: Erstens die strukturelle Spannung zwischen der Notwendigkeit strenger Regulierung und der Aufrechterhaltung von Wettbewerbsfähigkeit und innovationsfördernden Rahmenbedingungen; zweitens der häufig problematisierte Gegensatz zwischen dem Schutz der Meinungsfreiheit und der Sicherung gesellschaftlicher Kohäsion.
Der erstgenannte Konflikt überschreitet den engeren Bereich der digitalen Regulierung und bildet einen zentralen Gegenstand der breiteren wirtschaftspolitischen Diskussion über regulatorische und administrative Belastungen, die das Wachstumspotential der europäischen Wirtschaft beeinträchtigen können. Diese Debatte prägt den europäischen politischen Diskurs seit längerem und hat durch den Bericht von Mario Draghi zusätzliche Schärfe und politische Relevanz erhalten.40 Eine robuste Marktregulierung, die darauf abzielt, die Dominanz von Plattformunternehmen zu verhindern, kann die Bereitschaft von Wirtschaftsakteuren, in Innovationen zu investieren oder eine Expansion zu beschließen, erheblich mindern. Der aktuellste Punkt in dieser Diskussion ist der Vorschlag der Europäischen Kommission für einen sogenannten Digitalen Omnibus, der ihre neue strategische Ausrichtung zeigt: Statt schrittweiser Regulierung geht sie nun den Weg der Vereinfachung und Deregulierung – mit dem Argument, dass das der Wettbewerbsfähigkeit und der Investitionsbereitschaft helfe.41 Dabei kann eine Verschiebung im EU-Regulierungsansatz von einem Fokus auf die Förderung von Wettbewerb hin zu einer Erhöhung der Wettbewerbsfähigkeit beobachtet werden.
Die Kontroverse um den europäischen Regulierungsrahmen berührt nicht nur wettbewerbs- und arbeitsmarktpolitische Fragen, sondern zunehmend auch das Problem des Schutzes personenbezogener Daten – ein Bereich, der besonders stark mit der Entwicklung und Anwendung künstlicher Intelligenz verknüpft ist. Die Entwicklung von KI-Modellen auf der Grundlage solcher Daten erfordert den Zugang zu umfangreichen und aktuellen Datensätzen von hoher Qualität.42 Dies führt zu einer Situation, in der der Datenschutz ein Hindernis für das Voranbringen von Innovationen darstellt.
Der in der öffentlichen Diskussion sichtbarste Zielkonflikt betrifft jedoch den oben genannten Bereich der Inhaltsmoderation, wo Bestrebungen zur Regulierung schädlicher Inhalte auf Plattformen mit Vorwürfen der Einschränkung der Meinungsfreiheit konfrontiert sind.43 Das vorliegende regulatorische Dilemma erstreckt sich über den Binnenmarkt hinaus, da sich die Regelung in der EU von der in den USA erheblich unterscheidet. EU-Vorschriften wie der DSA zur Moderation von Inhalten werden höchstwahrscheinlich zu regulatorischen und in der Folge auch zu politischen Auseinandersetzungen mit den Vereinigten Staaten führen.44
Die Zielkonflikte, die sich mit der Regulierung großer Plattformen ergeben, überschreiten die Grenzen der EU.
Diese Zielkonflikte sind im Fall großer Plattformen besonders ausgeprägt, weil deren Aktivitäten die territoriale Reichweite der EU-Rechtsordnung übersteigen und ebendiese Rechtsordnung häufig mit den wirtschaftlichen und geopolitischen Interessen anderer Weltakteure – vor allem der USA und Chinas – kollidiert. J. D. Vance stellte in München die europäische Auslegung der Meinungsfreiheit und damit die Legitimität der EU-Digitalgesetze in Frage, Elon Musk nutzte Plattformen, um teils rechtsextreme Parteien zu unterstützen, und TikTok gerät in Taiwan unter Beobachtung, weil die chinesische Mutterfirma Einfluss auf Informationsflüsse nehmen könnte. Das macht digitale Vorschriften nicht nur zu einer Sache für den Binnenmarkt, sondern auch zu einem wichtigen Teil des Systemwettbewerbs in den Bereichen Außenhandel, Technologie und Sicherheitspolitik.45
Zusammenfassend lässt sich sagen, dass sich digitale Plattformen in einem komplexen Spannungsfeld zwischen Markt, Staat und Gesellschaft bewegen. Diese Komplexität der Auswirkungen digitaler Plattformen erfordert einen ausgewogenen EU-Regulierungsansatz, der Innovationen ermöglicht, ohne wichtige öffentliche Güter wie Datenschutz, Meinungsfreiheit oder faire Wettbewerbsbedingungen zu gefährden. Die EU-Instrumente wie der Digital Services Act und der Digital Markets Act sind Ausdruck dieses regulatorischen Balanceakts, der sowohl ökonomische als auch gesellschaftliche Risiken eindämmen soll, ohne die Innovationskraft der europäischen Wirtschaft zu beeinträchtigen.
Die EU und Plattformen: von der Marktlogik zum Kampf um die Inhalte
Verschiebung des EU-Ansatzes von einem »Selbstverwaltungsansatz« zu »öffentlichem Interventionismus«
Das Verhältnis zwischen dem Binnenmarkt und den Plattformunternehmen hat sich schrittweise entwickelt. Zu Beginn der kommerziellen Nutzung des Internets in größerem Umfang dominierte in der EU ein marktliberaler Ansatz. Im Bangemann-Bericht von 1994, einem Grundlagendokument der EU, das die digitale Entwicklung Europas geprägt hat, wurde vorgeschlagen, dass die Marktkräfte und der private Sektor die Informationsgesellschaft schaffen sollten.46 Parallel zur Kommerzialisierung des Internets in den 1990er Jahren schlug die EU einen klaren Kurs in Richtung Marktliberalisierung ein. Der zitierte Bericht empfahl eine »Marktrevolution«, um Europa im Bereich der Anwendung und wirtschaftlichen Nutzung »neuer elektronischer Informationsdienste«, wie es damals hieß, wettbewerbsfähig zu machen.47 Zwei wichtige Pfeiler des digitalen Binnenmarkts wurden in dieser Zeit entwickelt: die Datenschutzrichtlinie von 199548 und die Richtlinie über den elektronischen Geschäftsverkehr von 2000.49 Der Datenschutz sollte auch eine Fragmentierung des Binnenmarkts verhindern, während die E-Commerce-Verordnungen nur geringfügige Eingriffe in Online-Geschäftsmodelle vorsahen und eine nur begrenzte Haftungsregelung für Web-Inhalte von Dienstleistern einführten in der Absicht, Online-Aktivitäten zu fördern.
Beide Verordnungen prägten mehr als zwei Jahrzehnte lang den Ansatz der EU in diesem Bereich. Die Richtlinie über den elektronischen Geschäftsverkehr stützte sich auf drei Säulen: erstens, dass Anbieter von E-Commerce-Diensten die Vorschriften des Mitgliedstaats einhalten müssen, in dem sie niedergelassen sind, und nicht die Vorschriften des Landes, in dem der Dienst angeboten wird.50 Dies begünstigte Skaleneffekte, könnte aber auch zu einem Deregulierungswettbewerb geführt haben. Mitgliedstaaten sind versucht, einander durch weiche Regulierung zu unterbieten, um Investitionen von Big-Tech-Unternehmen anzuziehen. Zweitens waren die Diensteanbieter nicht für illegale Inhalte auf ihren Plattformen verantwortlich, sondern nur gehalten, diese zu entfernen oder den Zugang zu verhindern, sobald sie darüber informiert wurden.51 Drittens mussten die Diensteanbieter nicht alle Aktivitäten auf ihren Plattformen, wie zum Beispiel Blogbeiträge, auf illegale Aktivitäten überprüfen. Wie der Grundsatz der beschränkten Haftung sollte auch diese Regelung Online-Geschäftsmodelle und allgemein die Digitalisierung von Marktplätzen und Dienstleistungsangeboten fördern.52
Die Enthüllungen von Edward Snowden im Jahr 2013, in denen er die massive weltweite Überwachung durch US-Geheimdienste mittels großer US-Technologieunternehmen beschrieb, trugen dazu bei, dass die EU von diesem Ansatz abwich.53 Sie sorgten für einen erheblichen öffentlichen Aufruhr und machten die politische Dimension eines Bereichs der Wirtschaft deutlich, der zuvor oft aus einer rein technischen Perspektive betrachtet worden war.54 Darüber hinaus wurde in Brüssel erkannt, dass die europäischen Tech-Unternehmen hinter ihren US-Konkurrenten zurücklagen und die EU in einem problematischen Ausmaß von diesen abhängig war.55 Die Snowden-Enthüllungen führten zu einer Verschärfung der EU-Datenschutzvorschriften in Form der Allgemeinen Datenschutzgrundverordnung (DSGVO).56 Zwar stellen die DSGVO und die darin fixierten Grundsätze, wie das Recht auf Vergessenwerden, einen Schritt in Richtung eines stärker interventionistischen Ansatzes gegenüber den Aktivitäten der Online-Plattformen dar; doch mit der Verordnung hat sich nichts am eher marktliberalen Herkunftslandprinzip geändert. Auch sie legt fest, dass digitale Unternehmen von den nationalen Behörden des Mitgliedstaats, in dem sie niedergelassen sind, überwacht werden.
Die Covid-Pandemie hat die EU‑Plattformregulierung wesentlich beeinflusst.
Die Aussage von Ursula von der Leyen, Präsidentin der Europäischen Kommission, Ende 2019, dass sie eine »geopolitische Kommission« leiten wolle, war auch für den digitalen Sektor von Bedeutung. Viele der Anfang 2020 unternommenen Schritte, darunter Gesetzvorschläge, regulatorische Initiativen und die Verabschiedung strategischer Leitlinien, waren eher interventionistischer Natur und können als Reaktion auf die sich verändernde globale Situation gewertet werden.57 Insbesondere die Covid-Pandemie hat den Ansatz der EU in Sachen Plattformregulierung erheblich beeinflusst. Die Gesundheitskrise hat sowohl die Nachfrage nach Online-Diensten und die Digitalisierung beschleunigt als auch die Auswirkungen der Verbreitung von Desinformationen über Social Media sowie das Ungleichgewicht zwischen Nutzern und Plattformen im Allgemeinen aufgezeigt. Der russische Krieg gegen die Ukraine wiederum hat die Sicherheitsdimension kritischer digitaler Infrastrukturen einmal mehr deutlich gemacht. Mit den Forderungen nach mehr »digitaler Souveränität«58 und »offener strategischer Autonomie«59 hat sich die Haltung und Herangehensweise der EU grundlegend geändert. Die Diskussion über das Streben nach größerer wirtschaftlicher Souveränität und die Notwendigkeit, im Prozess des digitalen Wandels aufzuholen, gewann nach den Berichten von Enrico Letta und Mario Draghi an Dynamik und intensivierte sich nach dem Wahlsieg von Donald Trump in den USA weiter.
DSA und DMA als zentrale Instrumente der Plattformregulierung
Die wichtigsten Regulierungsgesetze für Plattformen in Europa sind das Gesetz über digitale Dienste (DSA) und das Gesetz über digitale Märkte (DMA). Beide Rechtssetzungen haben ihren Ursprung in der Arbeit der Juncker-Kommission. In ihrer Strategie für den digitalen Binnenmarkt von 2015 versprach die Kommission, eine umfassende Bewertung der sozialen und wirtschaftlichen Auswirkungen der digitalen Wirtschaft, vor allem großer Plattformen, vorzunehmen.60 Günther Oettinger, Kommissar für digitale Wirtschaft, kündigte im gleichen Jahr die Wiedererlangung der von der EU verlorenen »digitalen Souveränität« an.61 In ihrem Bericht aus dem Jahr 2016 über die Auswirkungen der Plattformökonomie betonte die Kommission die Notwendigkeit von mehr Transparenz (wie in der Verordnung (EU) 2019/1150 erwähnt) und ging insbesondere auf die Herausforderung ein, die große Plattformunternehmen in den Bereichen Inhaltsmoderation und fairer Wettbewerb darstellen.62 Am 15. Dezember 2020 präsentierte sie schließlich ein Paket für digitale Dienste, das aus zwei Verordnungen besteht: dem Gesetz über digitale Dienste (Verordnung (EU) 2022/2065) und dem Gesetz über digitale Märkte (Verordnung (EU) 2022/1925). Diese Rechtsakte traten am 16. November 2022 (DSA) bzw. am 1. November 2022 (DMA) in Kraft. Es handelt sich also um relativ neue Vorschriften, die seit 17. Februar 2024 und 2. Mai 2023 uneingeschränkt in der EU bindend sind.
Der DSA befasst sich hauptsächlich mit Fragen der Inhaltsmoderation und legt Bestimmungen fest, die in die Geschäftspraktiken von Plattformen eingreifen, wie das Verbot irreführender Tricks zur Manipulation von Nutzern (»Dark Patterns«) und das Verbot verhaltensorientierter Werbung, die sich an Minderjährige richtet. Der DMA zielt darauf ab, einen fairen Wettbewerb zu gewährleisten. Er enthält einen vollständigen Katalog von Anforderungen und Verboten für sehr große Online-Plattformen, indem er beispielsweise Geschäftskunden Zugang zu den von ihnen generierten Daten gewährt und sicherstellt, dass Nutzer vorinstallierte Software oder Anwendungen deinstallieren können. Auf diese Weise befasst sich der DMA mit der Marktstruktur und nicht nur mit der Preisgestaltung für den Endverbraucher. Diese »Ex-ante«-Befugnisse des DMA sind daher eher dem Bereich der Wirtschaftsregulierung als dem der Wettbewerbspolitik zuzuordnen und stellen daher bereits eine Abkehr vom vormaligen Regulierungsansatz dar.
Bei der Festsetzung der Vorgaben, die dieses stärker interventionistische Paket für digitale Dienstleistungen macht, scheint die Kommission aus den Schwächen der Datenschutzgrundverordnung (DSGVO) gelernt zu haben. Da die meisten großen Technologieunternehmen in Irland ansässig sind, gibt das Herkunftslandprinzip der irischen Datenschutzbehörde eine weitreichende Zuständigkeit. Allerdings hat ein Bericht des Irish Council for Civil Liberties, einer NGO, im Jahr 2021 gezeigt, dass 98 Prozent der schweren Fälle von Datenschutzverletzungen ungelöst bleiben.63 Mit dem Paket über digitale Dienste werden daher die Durchsetzungsbefugnisse für sehr große Online-Plattformen auf die Europäische Kommission übertragen. Zum ersten Mal außerhalb der Wettbewerbspolitik erlaubt der DSA der Kommission nun, erhebliche Geldbußen von bis zu sechs Prozent des weltweiten Umsatzes von Unternehmen zu verhängen (und damit zwei Prozent mehr, als bei den maximalen Geldbußen im Datenschutzbereich möglich ist) und bis zu 20 Prozent für wiederholte DMA-Verstöße.
An der Umsetzung des DSA sind auch die nationalen Regulierungsbehörden beteiligt.
Die Europäische Kommission ist die wichtigste Behörde, die für die Durchsetzung des DMA zuständig ist,64 was einer kohärenten Anwendung der Vorschriften förderlich und insbesondere in der Auseinandersetzung mit den großen Technologieunternehmen von Belang ist. Im Falle des DSA spielen auch die Regulierungsbehörden der einzelnen Mitgliedstaaten eine Rolle. In Deutschland ist der Digital Services Coordinator (DSC) die Bundesnetzagentur. Dem DSC kommt im Rahmen des DSA eine zentrale Aufgabe zu: Er fungiert als Beschwerdestelle für Nutzer, überwacht die Einhaltung der Vorschriften durch die Plattformanbieter und entscheidet maßgeblich darüber, ob gemeldete illegale Inhalte gelöscht oder gesperrt werden. Ein konkretes Beispiel hierfür ist das Verfahren mit Trusted Flaggers (verlässliche Hinweisgeber, nach Art. 22 DSA), die vom nationalen DSC zertifiziert werden. Meldet ein Trusted Flagger einen vermuteten illegalen Inhalt, ist die Plattform verpflichtet, diesen zeitnah und sorgfältig zu prüfen und über Löschung oder Sperrung zu entscheiden, ohne unangemessene Verzögerung und objektiv (Art. 16 DSA). Darüber hinaus koordiniert der DSC die Zusammenarbeit mit Plattformen, kontrolliert die Umsetzung von Transparenzpflichten und kann bei Verstößen Sanktionen vorschlagen. Diese Kompetenzen machen den DSC zu einem zentralen Akteur der Rechtsdurchsetzung im digitalen Binnenmarkt.
Da die DSCs in den EU-Mitgliedstaaten sehr unterschiedlich ausgestattet sind – insbesondere in puncto Personal, Fachwissen und technische Ressourcen – kann dies zu regulatorischer Fragmentierung führen: Solange nationale DSCs nicht in gleicher Weise wirksam arbeiten können, entstehen erhebliche Unterschiede bei der Anwendung und Durchsetzung des DSA, obwohl der Verordnungsrahmen einen einheitlichen Binnenmarkt für digitale Dienste schaffen soll. Um dieser Fragmentierung entgegenzuwirken, übernimmt die Europäische Kommission eine Koordinierungsfunktion: Sie leitet das European Board for Digital Services (EBDS), ein durch die DSA eingerichtetes beratendes Gremium, das Leitlinien entwickelt, Analysen erstellt und die DSCs bei der konformen Umsetzung der Vorschriften unterstützt.
Darüber hinaus verfügt die Kommission über direkte Durchsetzungskompetenzen, vor allem gegenüber den sehr großen Online-Plattformen (VLOPs/ VLOSEs). Sie kann Informationen fordern, Zugriff auf Algorithmen verlangen, Inspektionen durchführen, Bußgelder verhängen, wiederholte Verstöße mit Strafen in Form von Tagessätzen belegen oder in extremen Fällen sogar die vorübergehende Aussetzung von Diensten anordnen. Diese Befugnisse machen sie zum zentralen Akteur bei der Sicherstellung einer einheitlichen Anwendung des DSA in der gesamten EU.
Die Kommission hat früh begonnen, die neuen Digitalgesetze gegen die Big-Tech-Unternehmen umzusetzen. Eine im Dezember 2023 eingeleitete EU-Untersuchung gegen X (ehemals Twitter) gründete auf dem Vorwurf, dass die Plattform nicht angemessen gegen die Verbreitung illegaler Inhalte (insbesondere gegen Hassreden und terroristischen und gewalttätigen Content) vorgehe, keine ausreichende algorithmische Transparenz biete, irreführende »Dark Patterns«, also unseriöse, manipulative Praktiken nutze, Werbung und deren Auftraggeber nicht hinreichend kennzeichne und Forschern keinen Zugang zu Daten gewähre. X war die erste der sehr großen Online-Plattformen, gegen die ein formelles Strafverfahren nach dem DSA eingeleitet und eine Geldstrafe in Höhe von 120 Millionen Euro verhängt wurde.65 Dem Tech-Giganten Google (Alphabet) warf die Europäische Kommission vor, gegen das Gesetz über digitale Märkte zu verstoßen, indem das Unternehmen seine eigenen Dienste in den Suchergebnissen bevorzuge und bei der Nutzung seines Google Play Store wettbewerbsbeschränkende Praktiken verwende. Diese Geschäftsmethoden benachteiligten Wettbewerber und verstießen gegen die Grundsätze des fairen Wettbewerbs.66 Apple wiederum wurde aufgefordert, die Interoperabilität zu verbessern, indem es konkurrierenden Technologien und mobilen Betriebssystemen erlaubt, sich nahtlos mit seinen Geräten, einschließlich iPhones und iPads, zu verbinden.67
Die folgende Tabelle 3 liefert einen Überblick über den aktuellen Stand der Durchsetzungsverfahren nach dem DSA und dem DMA. Im Rahmen des DSA wurden förmliche Verfahren gegen X (ehemals Twitter), TikTok und mehrere Plattformen für Erwachseneninhalte (Pornhub, Stripchat, XNXX, XVideos) eingeleitet, unter anderem wegen der illegalen Verbreitung von Inhalten, mangelnder Transparenz, algorithmischer Risiken und unzureichendem Jugendschutz. Im Regelungsbereich des DMA wurden Apple und Meta wegen wettbewerbswidriger Praktiken mit Geldbußen in Höhe von 500 bzw. 200 Millionen Euro belegt.
Apple wurde zur Last gelegt, dass es seinen Kundinnen und Kunden verwehre, sich kostenlos über alternative Angebote außerhalb seines App-Stores zu informieren, sie zu diesen Angeboten zu leiten und ihnen den Kauf zu ermöglichen. Meta wurde bestraft, weil das Unternehmen ohne Zustimmung der Nutzer personenbezogene Daten zwischen seinen Diensten kombinierte. Diese Fälle sind ein Beleg für die Operationalisierung des DSA und des DMA durch konkrete rechtliche Schritte gegen große Plattformen und für die wachsende Wirksamkeit der EU bei der Durchsetzung der digitalen Regulierung. Sie sind auch ein Zeichen dafür, dass die EU dabei neue sektorale Prioritäten wie Plattformtransparenz, Kinderschutz und Datenautonomie setzt.
|
|
||||||||||||||||||||||||||||||||||||
Im Falle des DMA ist es von Bedeutung, dass die Europäische Kommission weitreichende Kompetenzen erhält, um Informationen von Online-Plattformen einzuholen, die als »Gatekeeper« bezeichnet werden (siehe zur Definition oben, S. 9). Die Unternehmen müssen innerhalb festgelegter Fristen Berichte über die Konformität ihrer Aktivitäten mit diesem Rechtsakt vorlegen. Gemäß dem DMA müssen sie außerdem ihre Techniken zur Erstellung von Verbraucherprofilen offenlegen.68 Gatekeeper sind darüber hinaus verpflichtet, laufend Informationen über alle Pläne für Fusionen und Übernahmen anderer Plattformen bereitzustellen.69 Der DSA sieht auch Monitoring- und Durchsetzungsmechanismen vor, darunter Auskunftsersuchen, Anfragen, Untersuchungen, in deren Rahmen Plattformen um eine Antwort gebeten (oder verpflichtend aufgefordert) werden. Es ist jedoch schwierig zu beurteilen, wie sich diese »weichen Maßnahmen« in der Praxis auf die Aktivitäten der Unternehmen auswirken, die Online-Plattformen betreiben.
Grundsätzlich lässt die Anwendung des DSA und des DMA allerdings Raum für unterschiedliche rechtliche Auslegungen, die aller Voraussicht nach zukünftiger Klärung durch den Europäischen Gerichtshof bedürfen. Wie bereits zu Beginn dieser Studie erwähnt, liegt eine Schwierigkeit bei der Rechtsdurchsetzung in der Definition der Wirtschaftssubjekte, die als Plattformen gelten und damit unter die beiden Rechtsakte fallen. Große Technologieunternehmen verfügen zudem über erhebliche finanzielle Mittel, die sie für Rechtsberatung und die Anfechtung von Entscheidungen der Europäischen Kommission und nationaler Institutionen einsetzen können.70 Aus diesem Grund kann das Verfahren zur Verhängung möglicher Strafmaßnahmen, wie die im Rahmen der DSGVO eingeleiteten Prozesse gezeigt haben, sehr langwierig sein.
Definitorische Unklarheit, der Widerstand der Plattformen und die Rechtsvielfalt in der EU führen zu Problemen bei der Durchsetzung der Vorschriften.
Die Bemühungen der Unternehmen um die Einhaltung der Vorschriften können in Teilen strategischer Natur sein und primär dem Ziel dienen, regulatorische Kontrolle abzuwehren oder Kritik zu mildern. Dann droht die Gefahr des sogenannten »Compliance Washing«, das heißt einer Situation, in der Unternehmen nur symbolische oder oberflächliche Maßnahmen umsetzen und diese als umfassende Einhaltung der Vorschriften darstellen. Auf der anderen Seite kann der Druck, Kritik oder hohe Geldstrafen zu vermeiden, zu übermäßigen Restriktionen bei der Moderation von Inhalten führen, mit der Folge, dass potentiell legale oder sozial relevante Inhalte aus Angst vor Sanktionen entfernt werden (Overblocking). Dies wiederum könnte die Kritik an der EU, die vor allem auch von den USA derzeit schon vorgebracht wird, noch verstärken.
Auch die Definition des Begriffs »illegale Inhalte«, der von Mitgliedstaat zu Mitgliedstaat unterschiedlich ausgelegt werden kann, ist umstritten. Nach dem DSA werden unter der Bezeichnung »illegale Inhalte« alle Informationen verstanden, die gegen das Recht der Union oder der Mitgliedstaaten verstoßen. Auch Verweise auf illegale Aktivitäten oder Produkte zählen dazu.71 Der Begriff umfasst Themen wie Hassrede, terroristische Inhalte und gefälschte Waren. Was als illegal gilt, wird nicht anhand einer einheitlichen EU-Definition festgelegt, sondern gemäß den jeweiligen nationalen Rechtssystemen und dem geltenden EU-Recht. Die Mitgliedstaaten spielen dabei eine entscheidende Rolle: Sie benennen Koordinatoren für digitale Dienste, erlassen Anordnungen zur Entfernung illegaler Inhalte und informieren die Plattformen über entsprechende Verstöße.72
Dieser dezentrale Ansatz berücksichtigt die Unterschiede in der Rechtskultur der einzelnen Länder, führt jedoch zu erheblichen Problemen bei der Durchsetzung der Vorschriften gegenüber Plattformen, die EU-weit tätig sind. Inhalte, die in einem Mitgliedstaat als illegal gelten, können in einem anderen legal sein. Wie in der Begründung der Verordnung hervorgehoben wird, definiert der DSA keine neue Kategorie »rechtswidriger Inhalte«, sondern verweist auf bestehendes nationales und EU-Recht. Dies erschwert eine kohärente und einheitliche Moderationspraxis über Grenzen hinweg beträchtlich. Welche strukturellen Risiken eine dezentralisierte EU-Digitalaufsicht mit sich bringt, wird beim Blick auf Irlands Zurückhaltung bei der Durchsetzung digitaler Vorschriften deutlich. Die irische Datenschutzbehörde hat wiederholt entschiedene Maßnahmen gegen Digitalunternehmen verzögert, insbesondere im Fall der Datenweitergabe durch Meta, während die Medienaufsichtsbehörde des Landes immer noch dabei ist »herauszufinden«, wie sie den DSA auf große Plattformen mit Hauptsitz in Dublin anwenden soll.73
Es ist zu beachten, dass sich die Maßnahmen der Kommission im Rahmen des DSA und des DMA nicht auf Sanktionen beschränken. Unternehmen, die als »Gatekeeper« gelten (siehe oben, S. 9), sind zu einer umfassenderen Berichterstattung über ihre Marktaktivitäten verpflichtet, darunter auch über Techniken zur Verbraucherprofilierung. Die Kommission steht überdies in einem ständigen Regulierungsdialog mit ihnen, um zu erfahren, wie sie die DMA-Vorschriften umsetzen.
Plattformen und das KI-Gesetz: zwischen Innovation und Rechenschaftspflicht
Online-Plattformen stützen sich zunehmend auf künstliche Intelligenz, um den Informationsfluss auf ihren Diensten zu verwalten. Als Reaktion auf die wachsende wirtschaftliche und gesellschaftliche Bedeutung von KI-Systemen hat die Europäische Union am 21. Mai 2024 das Gesetz über künstliche Intelligenz (KI-Gesetz) verabschiedet, das am 1. August 2024 in Kraft trat.74 Mit dem Erlass des KI-Gesetzes hat die EU eine Vorreiterrolle bei der Regulierung in diesem Bereich übernommen. Es handelt sich um den weltweit ersten umfassenden Rechtsrahmen für künstliche Intelligenz. Die Verordnung stellt eine wichtige Ergänzung zur bestehenden Digitalgesetzgebung der EU dar. Während sich der DSA und der DMA mit der verantwortungsvollen Governance und dem Wettbewerbsverhalten von Online-Vermittlern befassen, konzentriert sich das KI-Gesetz speziell auf die Gestaltung, den Einsatz und die Überwachung von KI-Systemen, die in diesen Umgebungen verwendet werden. Zusammen bilden diese drei Verordnungen ein Dreieck der horizontalen Governance: Der DMA befasst sich mit Marktmacht, der DSA gewährleistet die Rechenschaftspflicht und Sicherheit von Plattformen und das Gesetz über künstliche Intelligenz macht Vorgaben für die technische Integrität und ethische Umsetzung von Systemen der künstlichen Intelligenz. Die KI-Verordnung regelt viele der Tools der künstlichen Intelligenz, die den Zugang zu Informationen beeinflussen oder Grundrechte beeinträchtigen können und damit in die Kategorie der risikoreichen KI-Systeme fallen.75 Daher müssen Plattformanbieter ein Risikomanagementsystem etablieren, Grundrechtsverträglichkeitsprüfungen durchführen, eine wirksame menschliche Aufsicht über automatisierte Entscheidungsprozesse sicherstellen und die Nutzer informieren, wenn sie es mit Systemen der künstlichen Intelligenz zu tun haben.76 Diese Bestimmungen zielen darauf ab, die algorithmische Rechenschaftspflicht zu stärken, die Nutzerautonomie zu fördern und das Vertrauen der Öffentlichkeit in die Governance KI-gesteuerter Online-Umgebungen zu erhöhen. Zusammen mit dem DSA und dem DMA soll das KI-Gesetz der dritte Baustein nach der DSGVO für einen umfassenden europäischen Rahmen für die digitale Regulierung sein. Das Paket mit den drei Verordnungen soll dem Anspruch der Kommission Rechnung tragen, Marktgerechtigkeit, systemische Sicherheit und den ethischen Einsatz von KI in einer kohärenten Governance-Struktur zu vereinen.
Die thematische Nähe von KI-Gesetz, DSA und DMA birgt auch Risiken. Diese ergeben sich aus der Überschneidung ihrer Bestimmungen zu Algorithmus-Transparenz, Risikobewertung und Datenverwaltungsauflagen.77 Es bestehen komplexe Wechselwirkungen zwischen dem KI-Gesetz und der DSGVO, wobei die Anforderungen des ersten Gesetzes Auswirkungen auf den Datenschutz haben können.78 Zum Beispiel müssen Anbieter personenbezogene Daten nutzen (Art. 10 KI-Gesetz), um Verzerrungen in Hochrisiko-KI‑Systemen zu vermeiden. Diese Bestimmungen haben Effekte für den Schutz personenbezogener Informationen, etwa mit Blick auf Verarbeitung, Speicherfristen und das Recht auf Löschung. Weitere Probleme betreffen die Rechtmäßigkeit der Verwendung von Daten für die KI oder zur Durchsetzung von Vorschriften. Die DSGVO wird von den nationalen Datenschutzbehörden (DPAs) unter der Leitung des Europäischen Datenschutzausschusses (EDPB) durchgesetzt, während das KI-Gesetz neue KI-Marktüberwachungsbehörden einführt und von den Mitgliedstaaten die Benennung von Prüf- und Zertifizierungsstellen erwartet, die von der Europäischen KI-Behörde koordiniert werden.
Die Regulierungsprozesse der EU im Bereich der KI sind auf Skepsis und Ablehnung von Big-Tech-Unternehmen gestoßen. Die großen Player in diesem Segment haben durch politischen Druck und Lobbyarbeit in Brüssel versucht, die gesetzgeberischen Maßnahmen der EU in Bezug auf KI zu verwässern.79 Kritische Stimmen gegenüber den europäischen Vorschriften werden auch im Zusammenhang mit der Wettbewerbsfähigkeit der EU-Wirtschaft laut. Die Gegner einer Überregulierung im Bereich der künstlichen Intelligenz argumentieren, dass durch die Auflagen Innovationen gehemmt werden und die Entwicklung von KI in Europa behindert wird.80 Daher wird die Fortschreibung der Regulierung in diesem Bereich einige Kompromisse erfordern, die der Notwendigkeit Rechnung tragen, den Rückstand der EU bei der KI aufzuholen. Die Weiterentwicklung der künstlichen Intelligenz wird nicht nur für die Wettbewerbsfähigkeit Europas, sondern auch für seine Verteidigungsfähigkeit entscheidend sein. Mit diesem Prozess verknüpft ist die Gefahr neuer Abhängigkeiten. Im zweiten Teil des Draghi-Berichts wird davor gewarnt, dass die EU aufgrund ihrer geringen Innovationskraft bei KI-Modellen zunehmend auf Technologien aus Drittstaaten angewiesen sein könnte.81
Ausblick: EU‑Regulierung als Puffer für den digitalen Wandel
In der Dominanz ausländischer Online-Plattformen auf dem Binnenmarkt spiegeln sich langjährige Schwächen der EU wider. Zu nennen wären hier zuallererst eine geringe Innovationskraft, eine unzureichende Integration des Binnen- und Kapitalmarkts und dessen Fragmentierung in viele nationale Märkte sowie die ausufernde Bürokratie und hohe Steuerbelastung. Infolgedessen mangelt es an Investitionen in Schlüsseltechnologien wie künstliche Intelligenz und digitale Infrastruktur. Um diese Herausforderungen zu bewältigen, müssen die Europäer den Binnenmarkt weiter integrieren, ein spezifisches Innovationsökosystem aufbauen, das Investitionen anlockt, und eine wirksamere Regulierung schaffen.
Die Berichte von Enrico Letta und Mario Draghi, die im April 2024 und September 2024 veröffentlicht wurden, haben den Rückstand der EU bei der Digitalisierung als eine zentrale Schwäche identifiziert.82 Beide Dokumente betonen zudem die Notwendigkeit, den regulatorischen Rahmen zu vereinfachen und übersichtlicher zu gestalten: Letta kritisiert die zunehmende Komplexität des Binnenmarkts, während Draghi einen »klaren, einfachen und smarten« Rechtsrahmen fordert, der Unternehmen zugutekommt. Die beiden Analysen haben einen direkten Einfluss auf die Initiativen der Europäischen Kommission gehabt und unter anderem den Vorschlag für die Digital-Omnibus-Verordnung inspiriert,83 der darauf abzielt, bestehende digitale Vorschriften zu konsolidieren und zu vereinfachen. Sowohl der Bericht Lettas als auch der Draghis mahnen an, dass die EU günstige Bedingungen für das Wachstum ihrer eigenen Big-Tech-Unternehmen schaffen muss, die es ihnen ermöglichen würden, mit amerikanischen und chinesischen Konkurrenten mitzuhalten. Um ihre digitale Souveränität zu sichern, muss die Europäische Union den Aufbau eigener Technologieunternehmen systematisch fördern und ihre strukturellen Abhängigkeiten von außereuropäischen Anbietern verringern.
Es ist jedoch kaum zu erwarten, dass es im Bereich der digitalen Wettbewerbsfähigkeit der EU zu schnellen Fortschritten kommt oder dass europäische Pendants zu den amerikanischen Big-Tech-Firmen entstehen, die ihre eigenen Dienste auf Plattformen anbieten. Zwar verfolgt die EU auch eine aktivere industriepolitische Strategie, zum Beispiel im Rahmen der Verordnung zur Stärkung des europäischen Halbleiter-Ökosystems, bei der gezielt auch der digitale Sektor unterstützt werden soll;84 allerdings wird die Union in der nahen Zukunft vor allem mit ihren Regulierungsmaßnahmen auf die digitalen Herausforderungen reagieren müssen. Umso wichtiger ist es, dass die EU diese effektiver gestaltet und geschickt zwischen regulatorischen Konflikten balanciert. Wie die vorliegende Studie gezeigt hat, muss die EU bei der Ausgestaltung ihrer Maßnahmen die vielfältigen Zielkonflikte berücksichtigen, die mit der Regulierung digitaler Plattformen einhergehen: Diese fördern den grenzüberschreitenden Handel, erhöhen die Markttransparenz, stimulieren Innovation und flexible Arbeitsformen; gleichzeitig aber bringen sie Abhängigkeiten, wettbewerbswidrige Praktiken und Datenrisiken mit sich, vermehren sie prekäre Beschäftigung und Desinformation, so dass ein ausgewogenes Abwägen zwischen Wettbewerbssicherung, Datenschutz, fairen Arbeitsstandards, Meinungsfreiheit und digitaler Autonomie erforderlich ist.
Die Europäische Union hat einen umfassenden, mehrschichtigen Rechtsrahmen geschaffen, der Marktmacht reguliert (DMA), Plattformen zu Transparenz und Verantwortlichkeit verpflichtet (DSA), den Schutz personenbezogener Daten stärkt (DSGVO) und Vorgaben für den Einsatz künstlicher Intelligenz macht (KI-Gesetz). Diese Gesetze konstituieren das weltweit umfassendste Regulierungspaket für Online-Plattformen. Es hat das Potential, die Big-Tech-Unternehmen dahingehend zu beeinflussen, dass sie ihre Geschäftsmodelle an die europäischen Anforderungen anpassen, unter anderem in Bezug auf den Schutz personenbezogener Daten, die Einhaltung der Regeln der freien Marktwirtschaft oder die wirksame Moderation von Inhalten. Einerseits zeichnen sich diese Vorschriften durch ihren oft ambitionierten und wegweisenden Charakter aus. Der DMA und der DSA fokussieren sich in ihrer pragmatischen Herangehensweise auf jene Plattformen, die das größte Risiko für die Funktionalität des Binnenmarkts darstellen. Andererseits sind sie jedoch äußerst komplex und ihre Bestimmungen überschneiden sich in einigen Punkten, was zu Interpretationsproblemen führen kann. Darüber hinaus bestehen Zweifel, ob die EU-Institutionen und die nationalen Behörden in der Lage sein werden, die Regeln einheitlich durchzusetzen. Europäische Unternehmen äußern sich hingegen kritisch über den damit verbundenen Verwaltungsaufwand und die potentielle Hemmung von Innovationen, insbesondere im Bereich der KI. Das Gesetz über künstliche Intelligenz mag in einigen Bereichen weniger umstritten sein als der DMA und der DSA, doch wirft seine Implementierung die mit jeder Regulierung verknüpfte grundlegende Frage auf, in welchem Ausmaß und wie strikt die Vorgaben praktisch umzusetzen sind.
Insbesondere hängt die Wirksamkeit des DMA und des DSA von einer konsequenten Durchsetzung der Vorschriften, Rechtsklarheit und einer effektiven Zusammenarbeit zwischen EU-Institutionen, nationalen Behörden und Technologieunternehmen ab. Der Widerstand von Big-Tech, rechtliche Herausforderungen und geopolitische Spannungen machen die Umsetzung zu einem komplexen Prozess. Vor diesem Hintergrund sollte auch die Einrichtung einer von der Kommission ausgelagerten, unabhängigen und einheitlichen europäischen digitalen Aufsichtsbehörde diskutiert werden. Das derzeitige fragmentierte Implementierungsmodell gemahnt an die Unzulänglichkeiten der Finanzaufsicht in der EU vor 2008. Die Erkenntnis dieser Defizite führte zur Schaffung der Bankenunion und der Europäischen Zentralbank als einheitlicher Aufsichtsbehörde. In ähnlicher Weise würde die Konsolidierung der Aufsicht über den DMA, den DSA und das KI-Gesetz (das erst noch in Kraft treten muss) unter einer Behörde auf EU-Ebene die Durchsetzung straffen, Koordinationsengpässe beseitigen und dafür sorgen, dass für Wettbewerb, Inhalte und den Einsatz von KI ein einheitlicher regulatorischer Ansatz verfolgt wird. Eine solche Zentralisierung ist nicht nur technisch, sondern auch strategisch notwendig, um die digitale Souveränität der EU zu gewährleisten und sicherzustellen, dass die Durchsetzung gesamteuropäische Interessen widerspiegelt und nicht nationalen »Sonderwegen« unterliegt, die von partikularen administrativen oder wirtschaftlichen Erwägungen motiviert sind, wie im Fall Irlands. Darüber hinaus ist sehr dazu zu raten, dass der allen Regulierungen zugrunde gelegte Plattformbegriff erweitert wird.
Die größte Herausforderung im Bereich der Regulierung von Plattformen bleibt die Notwendigkeit, schädliche Inhalte zu moderieren, die eine Gefahr für den sozialen Zusammenhalt und die demokratischen Systeme darstellen. Der Bedarf für ein Eingreifen an dieser Stelle wird in den einzelnen EU-Ländern unterschiedlich bewertet. In Staaten, in denen die dominierenden politischen Kräfte ihre Kommunikation weitgehend auf soziale Medien stützen, könnte dies, ähnlich wie im Falle der US-Regierung, als Bedrohung der Meinungsfreiheit interpretiert werden. So ist damit zu rechnen, dass Behinderungen und Widerstände gegen eine wirksame Regulierung von Plattformen und insbesondere gegen eine Moderation ihrer Inhalte von den Vereinigten Staaten ausgehen werden. Politische Spannungen mit den USA und die Vorbereitung der Gesellschaften auf ein neues, von sozialen Medien dominiertes Informationsumfeld werden die Umfeldbedingungen bzw. die Kernaufgabe einer effektiven Plattformpolitik sein.
Abkürzungen
|
ABl. |
Amtsblatt der Europäischen Union |
|
AIA |
KI-Verordnung |
|
Big-Tech |
Große Technologieunternehmen |
|
CEO |
Chief Executive Officer (Vorstandsvorsitzende/r) |
|
CEPS |
Centre for European Policy Studies (Brüssel) |
|
DMA |
Digital Markets Act (Gesetz über digitale Märkte) |
|
DPA |
Data Protection Authority |
|
DSA |
Digital Services Act (Gesetz über digitale Dienste) |
|
DSC |
Koordinator für digitale Dienste (Digital Services Coordinator) |
|
DSGVO |
Datenschutz-Grundverordnung |
|
EBDS |
European Board for Digital Services |
|
EDPB |
European Data Protection Board |
|
FIMI |
Foreign Information Manipulation and Interference |
|
KI |
Künstliche Intelligenz |
|
KMU |
Kleine und mittlere Unternehmen |
|
Nato |
North Atlantic Treaty Organization |
|
OECD |
Organisation for Economic Co-operation and Development |
|
VLOPs |
Very Large Online Platforms (Sehr große Online-Plattformen) |
|
VLOSEs |
Very Large Online Search Engines (Sehr große Online-Suchmaschinen) |
Endnoten
- 1
-
In dieser Studie werden die Begriffe »Internetplattformen«, »Plattformen« und »digitale Plattformen« als Synonyme verwendet.
- 2
-
Dazu gehören vor allem Google (Alphabet), Apple, Microsoft, Amazon und Meta.
- 3
-
Siehe z. B. K. Sabeel Rahman et al., »The Rise of the Platform Business Model and the Transformation of Twenty-First-Century Capitalism«, in: Politics & Society, 47 (2019) 2, S. 177–204; Martin Kenney / John Zysman, »The Rise of the Platform Economy«, in: Issues in Science and Technology, 32 (2016) 3, S. 61–69.
- 4
-
PWC, Global Top 100 Companies by Market Capitalisation, Mai 2025, <https://www.pwc.co.uk/audit/assets/pdf/global-100/ companies/global-top-100-companies-2025.pdf> (Zugriff am 8.1.2026).
- 5
-
Richard Waters, »Google Dodges a Bullet«, in: Financial Times, 3.11.2025.
- 6
-
Siehe z. B. Willem Pieter De Groen et al., »The Impact of the Platform Economy on Job Creation«, in: Intereconomics, 52 (2017) 6, S. 345–351.
- 7
-
Organisation for Economic Co-operation and Development (OECD), An Introduction to Online Platforms and their Role in the Digital Transformation, Paris: OECD Publishing, Mai 2019, S. 4, doi: 10.1787/53e5f593-en.
- 8
-
Paul Belleflamme / Martin Peitz, The Economics of Platforms: Concepts and Strategy, Cambridge: Cambridge University Press, 2011, S. 11–30.
- 9
-
OECD, An Introduction to Online Platforms [wie Fn. 7], S. 15.
- 10
-
José van Dijck, »Governing Digital Societies: Private Platforms, Public Values«, in: Computer Law & Security Review, 36 (2020) 105377; Annabelle Gawer / Nick Srnicek, Online Platforms: Economic and Societal Effects, Brüssel: European Parliamentary Research Service, März 2021 (PE 656.336).
- 11
-
»Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG (Gesetz über digitale Dienste)« [=Digital Services Act (DSA)], in: Amtsblatt der Europäischen Union (ABl.), 27.10.2022, L 277, S. 1–102, Artikel 3 Buchstabe i.
- 12
-
»Verordnung (EU) 2022/1925 des Europäischen Parlaments und des Rates vom 14. September 2022 über bestreitbare und faire Märkte im digitalen Sektor und zur Änderung der Richtlinien (EU) 2019/1937 und (EU) 2020/1828« (Gesetz über digitale Märkte)« [=Digital Markets Act (DMA)], in: ABl., 12.10.2022, L 265, S. 1–66, Artikel 2(2).
- 13
-
»Gesetz über digitale Dienste« [wie Fn. 11], Art. 33.
- 14
-
Siehe z. B. Amnesty International, »Global: TikTok’s ›For You‹ Feed Risks Pushing Children and Young People towards Harmful Mental Health Content«, Pressemitteilung, London, 7.11.2023, <https://www.amnesty.org/en/latest/news/2023/11/ tiktok-risks-pushing-children-towards-harmful-content/> (sofern nicht anders angegeben, wurden alle Internetquellen zuletzt am 5.1.2026 aufgerufen); Kari Paul, »What TikTok Does to Your Mental Health: ›It’s Embarrassing We Know so Little‹«, in: The Guardian, 30.10.2022.
- 15
-
»Gatekeepers«, European Commission (online), <https://digital-markets-act.ec.europa.eu/gatekeepers_en>.
- 16
-
Gemäß Artikel 3(h) des DSA gelten Visa und Mastercard nicht als Online-Plattformen, da sie keine Hosting-Dienste anbieten, die nutzergenerierte Inhalte an die Öffentlichkeit verbreiten. Dementsprechend fallen Visa und Mastercard auch nicht in den Regelungsbereich des DMA, da Zahlungsnetzwerke nicht zu den Kernplattformdiensten zählen, was für die Einstufung als Gatekeeper erforderlich ist (Art. 2.2 DMA).
- 17
-
Siehe z. B. Europäische Kommission, Gestaltung der digitalen Zukunft Europas. Mitteilung an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, COM(2020) 67 final, Brüssel, 19.2.2020, S. 4; Gawer / Srnicek, Online Plattforms: Economic and Societal Effects [wie Fn. 10], S. 18–22.
- 18
-
OECD, Unpacking E-Commerce: Business Models, Trends and Policies, Paris: OECD Publishing, 2019, S. 9–10, doi: 10.1787/23561431-en; Estrella Gomez-Herrera / Bertin Martens / Geomina Turlea, »The Drivers and Impediments for Cross-Border e-Commerce in the EU«, in: Information Economics and Policy, 28 (2014), S. 83–96, doi: 10.1016/j.infoecopol.2014.05.002.
- 19
-
Torsten J. Gerpott / Jan Berends, »Competitive Pricing on Online Markets: A Literature Review«, in: Journal of Revenue and Pricing Management, 21 (2022), S. 596–622, doi: 10.1057/s41272-022-00390-x.
- 20
-
»Online Platforms«, European Commission (online), 12.12.2025, <https://digital-strategy.ec.europa.eu/en/policies/ online-platforms>.
- 21
-
Mario Draghi, The Future of European Competitiveness, Part B: In-Depth Analysis and Recommendations, Luxemburg, September 2024, S. 77.
- 22
-
Siehe z. B. Jonathan J. Rusch, »Computer and Internet Fraud: A Risk Identification Overview«, in: Computer Fraud & Security, 2003 (Juni 2003) 6, S. 6–9.
- 23
-
Siehe z. B. Lina M. Khan, »Amazon’s Antitrust Paradox«, in: Yale Law Journal, 126 (2017) 3, S. 710–805; Katharina Pistor, »Rule by Data: The End of Markets?«, in: Law and Contemporary Problems, 83 (2020), S. 101–124; European Commission, »Commission Sends Preliminary Findings to Alphabet under the Digital Markets Act«, Pressemitteilung, Brüssel, 19.3.2025, <https://ec.europa.eu/commission/presscorner/ detail/en/ip_25_811>; Marc Rysman, »The Economics of Two-Sided Markets«, in: Journal of Economic Perspectives, 23 (2009) 3, S. 125–143 (130f), doi: 10.1257/jep.23.3.125.
- 24
-
Subrata Mitra, »Economic Models of Price Competition between Traditional and Online Retailing under Showrooming«, in: Decision, 49 (2022), S. 29–63, doi: 10.1007/s40622-021-00293-7; Kalpana Tyagi et al. (Hg.), Digital Platforms, Competition Law, and Regulation: Comparative Perspectives, Oxford: Hart Publishing, 2024, doi: 10.5040/9781509969418; Geoffrey Parker / Georgios Petropoulos / Marshall Van Alstyne, Digital Platforms and Antitrust, Brüssel: Bruegel, November 2020 (Working Paper 06/2020), <https://www.bruegel.org/ working-paper/digital-platforms-and-antitrust>.
- 25
-
Florian A. Schmidt, Digital Labour Markets in the Platform Economy. Mapping the Political Challenges of Crowd Work and Gig Work, Bonn: Friedrich-Ebert-Stiftung, 2017, S. 24, <https://library.fes.de/pdf-files/wiso/13164.pdf>; Michele Cantarella/Chiara Strozzi, »Workers in the Crowd: The Labour Market Impact of the Online Platform Economy«, in: Industrial and Corporate Change, 30 (2021) 6, S. 1429–1458, doi: 10.1093/icc/dtab022.
- 26
-
Cristina Criddle, »Europe’s Privacy Watchdog Probes Google’s Use of Data for AI Model«, in: Financial Times, 12.9.2024; Shoshana Zuboff, The Age of Surveillance Capitalism. The Fight for a Human Future at the New Frontier of Power, New York: Hachette Book Group, 2019.
- 27
-
Draghi, The Future of European Competitiveness , Part B [wie Fn. 21], S. 77.
- 28
-
Carolina Melches / Michael Peters, The Financial Services of Apple, Google and Other Big Tech: A Dangerously Good Deal. How the EU Should Respond, Berlin: Finanzwende Recherche, März 2025, <www.finanzwende-recherche.de/wp-content/uploads/ The_Financial_Services_of_Apple_Google_and_other_Big_ Tech_eng.pdf>.
- 29
-
»Innovation, Integration and Independence: Taking the Single Euro Payments Area to the Next Level. Keynote Speech by Piero Cipollone at the ECB Conference on ›An Innovative and Integrated European Retail Payments Market‹, Frankfurt, 24 April 2024«, European Central Bank (online), <https://www.ecb.europa.eu/press/key/date/2024/html/ecb.sp240424~12ecb60e1b.en.html>.
- 30
-
Hanns Günther Hilpert / Paweł Tokarski, Die Digitalisierung des Zentralbankgelds. Chinas Vorpreschen – Europas Zögern, Berlin: Stiftung Wissenschaft und Politik, Oktober 2024 (SWP-Aktuell 51/2024), doi: 10.18449/2024A51.
- 31
-
»Meta/Diem: Zuckerberg’s Crypto was Cursed from the Start«, in: Financial Times, 1.2.2022.
- 32
-
Sebastian Heidebrecht, »How and Why EU Institutions Promote the Digital Euro: The Politics of a Central Bank Digital Currency (CBDC)«, in: Journal of Common Market Studies, (online), 15.12.2025, doi: 10.1111/jcms.70062.
- 33
-
Madeleine De Cock Buning, A Multi-Dimensional Approach to Disinformation: Report of the Independent High Level Group on Fake News and Online Disinformation, Luxemburg 2018, <https://op.europa.eu/en/publication-detail/-/publication/ 6ef4df8b-4cea-11e8-be1d-01aa75ed71a1/language-en>.
- 34
-
Emily Kubin / Christian von Sikorski, »The Role of (Social) Media in Political Polarization: A Systematic Review«, in: Annals of the International Communication Association, 45 (2021) 3, S. 188–206.
- 35
-
Unter dem Einfluss der neuen US-Regierung kündigte Mark Zuckerberg, Gründer und CEO von Meta, am 7.1.2025 an, dass sein Unternehmen die Moderation von Inhalten (einschließlich der Überprüfung von Fakten) auf den Plattformen Facebook, Instagram, Threads und WhatsApp erheblich einschränken werde, was offensichtlich einen Verstoß gegen EU-Vorschriften darstellt, siehe: Dean Jackson / Berin Szóka, »The Far Right’s War on Content Moderation Comes to Europe«, Tech Policy Press, 11.2.2025.
- 36
-
Adrian Chen, »Cambridge Analytica and Our Lives Inside the Surveillance Machine«, in: The New Yorker, 21.3.2018; Abigail Abrams, »Here’s What We Know So Far about Russia’s 2016 Meddling«, in: Time, 18.4.2019; Joanna Plucinska, »EU Tries to Shield 2019 Election from Fake News«, in: Politico, 25.4.2018.
- 37
-
Lisa O’Carroll, »Disinformation Networks ›Flooded‹ X before EU Elections, Report Says«, in: The Guardian, 12.7.2024; Das auffälligste Beispiel für den Impact solcher Desinformationskonten waren die Präsidentschaftswahlen in Rumänien im Jahr 2024. Sie wurden nach der ersten Runde annulliert, nachdem offenbar geworden war, dass zugunsten eines der Kandidaten eine gigantische Desinformationskampagne auf TikTok durchgeführt worden war, siehe z. B. Sarah Rainsford, »Romanian Court Annuls Result of Presidential Election First Round«, BBC (online), 6.12.2024.
- 38
-
Christian Montag et al., »Problematic Social Media Use in Childhood and Adolescence«, in: Addictive Behaviors, 153 (2024), S. 13–15.
- 39
-
Anselm Küsters / Cecilia Emma Sottilotta, How Europe Can Navigate the Regulatory Tightrope. Trade-offs and Risks in EU Digital Policy, Freiburg/Berlin: Centrum für Europäische Politik, 2025 (CepInput 2/2025), <www.cep.eu/eu-topics/details/trade-offs-and-risks-in-eu-digital-policy.html>.
- 40
-
Siehe z. B. European Parliament, U-turn on EU Bureaucracy: The Need to Axe Unnecessary Burdens and Reporting to Unleash Competitiveness and Innovation (topical debate), 23.10.2024, <https://www.europarl.europa.eu/doceo/ document/CRE-10-2024-10-23-ITM-010_EN.html?utm>.
- 41
-
Europäische Kommission, »Vereinfachung der Digitalgesetzgebung: Kommission legt Paket vor«, Pressemitteilung, 19.11.2025.
- 42
-
Axel Voss, We Should Revise the GDPR to Unlock Europe’s Digital Future, Brüssel: Centre for European Policy Studies (CEPS), 17.2.2025.
- 43
-
Siehe z. B. Jack M. Balkin, »Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation«, in: UC Davis Law Review, 51 (2018) 3, S. 1149–1210.
- 44
-
Dawn Carla Nunziato, »The Digital Services Act and the Brussels Effect on Platform Content Moderation«, in: Chicago Journal of International Law, 24 (2024) 2, S. 290–337.
- 45
-
Annegret Bendiek, Integrationspolitische Bedeutung des Digital Service Act (DSA) und Digital Markets Act (DMA). Digitalmarktregulierung als eines von fünf digitalpolitischen Großprojekten der EU, Stellungnahme für das deutsch-französische Fachgespräch des Europaausschusses des Deutschen Bundestages am 11.2.2021, Berlin: Stiftung Wissenschaft und Politik, März 2021 (Arbeitspapier FG EU/Europa 1/2021).
- 46
-
Martin Bangemann (Hg.), Europa und die globale Informationsgesellschaft. Empfehlungen für den Europäischen Rat [Bangemann-Bericht], Luxemburg: Amt für amtliche Veröffentlichungen der Europäischen Gemeinschaften, 1994 (Beiheft 2/94), S. 30.
- 47
-
Ebd.
- 48
-
»Richtlinie 95/46/EG des Europäischen Parlaments und des Rates vom 24. Oktober 1995 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr« [»Datenschutzrichtlinie«], in: ABl., 23.11.1995, L 281, S. 31–50.
- 49
-
»Richtlinie 2000/31/EG des Europäischen Parlaments und des Rates vom 8. Juni 2000 über bestimmte rechtliche Aspekte der Dienste der Informationsgesellschaft, insbesondere des elektronischen Geschäftsverkehrs, im Binnenmarkt (›Richtlinie über den elektronischen Geschäftsverkehr‹)«, in: ABl., 17.7.2000, L 178, S. 1–16.
- 50
-
Ebd., Art. 3
- 51
-
Ebd., Art. 12.
- 52
-
Ebd., Art. 5.
- 53
-
Ewen Macaskill / Gabriel Dance, »NSA Files: Decoded. What the Revelations Mean for You«, in: The Guardian, 1.11.2013.
- 54
-
Nikhil Kalyanpur / Abraham L. Newman, »The MNC-Coalition Paradox: Issue Salience, Foreign Firms and the General Data Protection Regulation«, in: Journal of Common Market Studies, 57 (2019) 3, S. 448–467.
- 55
-
Henry Farrell / Abraham L. Newman, »Weaponized Interdependence: How Global Economic Networks Shape State Coercion«, in: International Security, 44 (2019) 1,
S. 42–79. - 56
-
»Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung)«, in: ABl., 4.5.2016, L 119, S. 1–88.
- 57
-
Sebastian Heidebrecht, »From Market Liberalism to Public Intervention: Digital Sovereignty and Changing European Union Digital Single Market Governance«, in: Journal of Common Market Studies, 62 (2024) 1, S. 205–223, doi: 10.1111/jcms.13488.
- 58
-
Gerda Falkner et al., »Digital Sovereignty – Rhetoric and Reality«, in: Journal of European Public Policy, 31 (2024) 8, S. 2099–2120, doi: 10.1080/13501763.2024.2358984.
- 59
-
Luuk Schmitz / Timo Seidl, »As Open as Possible, as Autonomous as Necessary: Understanding the Rise of Open Strategic Autonomy in EU Trade Policy«, in: Journal of Common Market Studies, 61 (2023) 3, S. 834–852.
- 60
-
Europäische Kommission, Strategie für einen digitalen Binnenmarkt für Europa, COM(2015) 192 final, Brüssel, 6.5.2015.
- 61
-
Daniel Tost, »Oettinger Calls for ›Europeanisation‹ of Digital Policy«, in: Euractiv, 17.3.2015.
- 62
-
Europäische Kommission, Mitteilung über Online-Plattformen und den digitalen Binnenmarkt – Chancen und Herausforderungen für Europa, COM(2016) 288 final, Brüssel, 25.5.2016.
- 63
-
Irish Council for Civil Liberties, Europe’s Enforcement Paralysis. ICCL’s 2021 Report on the Enforcement Capacity of Data Protection Authorities, Dublin, September 2021, <https://www.iccl.ie/wp-content/uploads/2021/09/Europes-enforcement-paralysis-2021-ICCL-report-on-GDPR-enforcement.pdf>.
- 64
-
Sebastian Heidebrecht, »Digital Policy as a Driver of Integration: Spillover Effects and European Commission Empowerment«, in: Politics and Governance, 13 (2025) 10474, doi: 10.17645/pag.10474.
- 65
-
Europäische Kommission, »Kommission verhängt Geldbußen in Höhe von 120 Mio. EUR nach dem Gesetz über digitale Dienste«, Pressemitteilung, 5.12.2025.
- 66
-
Foo Yun Chee, »Google, Apple Hit by EU Regulatory Crackdown«, Reuters, 19.3.2025.
- 67
-
Ebd.
- 68
-
»Gesetz über digitale Märkte – Digital Markets Act (DMS)« [wie Fn. 12], Art. 15.
- 69
-
Ebd., Art. 14.
- 70
-
Robert Gorwa / Grzegorz Lechowski / Daniel Schneiß, »Platform Lobbying: Policy Influence Strategies and the EU's Digital Services Act«, in: Internet Policy Review, 13 (2024) 2, S. 4, doi: 10.14763/2024.2.1782.
- 71
-
»Gesetz über digitale Dienste – Digital Services Act (DSA)« [wie Fn. 11], Art. 3 Buchstabe h.
- 72
-
Ebd., Art. 9, 10 und 49.
- 73
-
Mark Scott, »Ireland’s Social Media Enforcer Prepares for an Uncertain Battle«, in: Politico, 30.11.2023.
- 74
-
»Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz)« [=»KI-Gesetz«], PE/24/2024/REV/1, in: ABl., 12.7.2024, L 2024/1689, S. 1. Diese Verordnung wird schrittweise bis zum Jahr 2026 umgesetzt.
- 75
-
Ebd., Art 6.
- 76
-
Ebd., Art 9.
- 77
-
Philipp Hacker, The AI Act between Digital and Sectoral Regulations, Gütersloh: Bertelsmann Stiftung, Dezember 2024, S. 20–21.
- 78
-
Ebd., S. 25.
- 79
-
Melissa Heikkilä / Barbara Moens, »How the EU Botched its Attempt to Regulate AI. Can Brussels Balance its Desire to Set the Guardrails for Tech with its Need to Attract Investment?«, in: Financial Times, 20.11.2025 <https://www.ft.com/content/6585fb32-8a86-4ffb-a940-06b17e06345a>.
- 80
-
Pieter Haeck, »To Shush AI Act Critics, the EU Fine-Tunes Innovation Pitch«, in: Politico, 22.1.2024; European Digital SME Alliance, Industry Concerns on the Artificial Intelligence Act Implementation, Brüssel, 17.12.2024, <https://www.digitalsme.eu/digital/uploads/Joint_Letter_by_European_Tech_Industry_Associations_on_the_Artificial.pdf>.
- 81
-
Draghi, The Future of European Competitiveness, Part B [wie Fn. 21], S. 79.
- 82
-
Mario Draghi, Report on the Future of European Competitiveness, Part A: A Competitiveness Strategy for Europe, Brüssel, September 2024; Enrico Letta, Much More Than a Market: Speed, Security, Solidarity, Brüssel, April 2024; Europäische Kommission, Ein Kompass für eine wettbewerbsfähige EU. Mitteilung an das Europäische Parlament, den Europäischen Rat, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, COM (2025) 30 final, Brüssel, 29.1.2025.
- 83
-
Europäische Kommission, Vorschlag für eine Digital-Omnibus-Verordnung, Brüssel, 19.11.2025, <https://digital-strategy. ec.europa.eu/de/library/digital-omnibus-regulation-proposal>.
- 84
-
»Verordnung (EU) 2023/1781 des Europäischen Parlaments und des Rates vom 13. September 2023 zur Schaffung eines Rahmens für Maßnahmen zur Stärkung des europäischen Halbleiter-Ökosystems und zur Änderung der Verordnung (EU) 2021/694« [=»Chip-Gesetz«], in: ABl., 18.9.2023, L 229, S. 1–53.
Dieses Werk ist lizenziert unter CC BY 4.0
SWP-Studien unterliegen einem Verfahren der Begutachtung durch Fachkolleginnen und -kollegen und durch die Institutsleitung (peer review), sie werden zudem einem Lektorat unterzogen. Weitere Informationen zur Qualitätssicherung der SWP finden Sie auf der SWP-Website unter https:// www.swp-berlin.org/ueber-uns/qualitaetssicherung/.
SWP‑Studien geben die Auffassung der Autoren und Autorinnen wieder.
SWP
Stiftung Wissenschaft und Politik
Deutsches Institut für Internationale Politik und Sicherheit
Ludwigkirchplatz 3–4
10719 Berlin
Telefon +49 30 880 07-0
Fax +49 30 880 07-200
www.swp-berlin.org
swp@swp-berlin.org
ISSN (Print) 1611-6372
ISSN (Online) 2747-5115
DOI: 10.18449/2026S04