Jump directly to page content

Content Moderation in autoritären Staaten

Wie soziale Medien zu Komplizen autoritärer Herrscher zu werden drohen

SWP-Aktuell 2022/A 39, 13.06.2022, 8 Pages

doi:10.18449/2022A39

Research Areas

Täglich gibt es Berichte darüber, wie private Betreiber sozialer Medien sich proble­matischen Vorgaben autoritärer Herrscher beugen. Ob in Thailand, Kasachstan oder Russ­land, immer wieder werden als Teil von Content Moderation (CM) gezielt Inhalte ent­fernt oder Konten gelöscht, weil Regierungen sich durch Äußerungen in den sozia­len Medien kritisiert fühlen. Diesen Einzelfällen liegt ein systemisches Pro­blem von glo­baler Reichweite zugrunde. Die großen Betreiber sozialer Medien aus den USA bieten ihre Dienste in einer Vielzahl autoritärer Staaten an und erreichen hier Hun­derte Millionen Nutzerinnen und Nutzer. Dabei laufen sie Gefahr, zu Komplizen bei der Ver­let­zung von Menschenrechten werden. Um das Verhalten der Unternehmen hin­sicht­lich dieses Problems überprüfen zu können, sollte sich die deutsche Politik inter­natio­nal dafür einsetzen, dass öffentlich einsehbare Human Rights Impact Assess­ments (HRIAs) verpflichtend vorgegeben werden.

Die weltweite Ausbreitung des Internets ab den 1990er Jahren war von großen Hoff­nungen begleitet. In seiner Frühzeit galt das Internet als Heilsbringer der Demokratie, rückte doch das Ideal einer wirklich inklu­siven Öffentlichkeit in greifbare Nähe. Die besondere Rolle sozialer Medien zu Beginn des »Arabischen Frühlings« schien dies zu bestätigen. Heute hingegen gelten soziale Medien zunehmend als Bedrohung für die Demokratie. Der »Sturm aufs Kapitol« im Januar 2021 wird vielfach als Beleg für die Gefahren für die Demokratie gedeutet, die von den polarisierten und radikalisierten Öffentlichkeiten der sozialen Medien aus­gehen.

Die Folge ist eine umfangreiche politische Debatte um die Grenzen der Meinungs­freiheit im digitalen Raum. Weil alle rele­vanten sozialen Medien von privaten Unter­nehmen betrieben werden, geht es dabei auch darum, die Verantwortung öffent­licher wie privater Akteure für Schutz und Gewährleistung von Grund- bzw. Menschen­rechten neu zu bestimmen. Der tendenziell euphemistische Begriff der Content Moderation umfasst die Praxis der privaten Plattform­betreiber zur Um­setzung staatlicher Vor­gaben ebenso wie eigener Community-Regeln bzw. Allgemeiner Geschäftsbedingungen.

Mit dem jüngst vereinbarten Digital Ser­vices Act (DSA) hat die Europäische Union (EU) einen um­fassen­den, in dieser Form weltweit einzig­artigen Vorschlag gemacht, wie solche digitalen Plattformen und Dienste innerhalb der EU reguliert werden sollen. Bei aller berechtigten Sorge um den Erhalt demokratischer Ordnungen droht dabei allerdings aus dem Blick zu geraten, welche Effekte CM in nicht­demokratischen, mehr oder weniger offen autoritären Regimen hat bzw. haben kann. Wie plausibel ist die Hoff­­nung, soziale Medien könnten demo­kra­­tische Akteure unter den erschwerten Be­dingungen auto­ri­tärer Herrschaft stärken, wenn wir den­sel­ben sozialen Medien dieses emanzipatorische Potenzial in Öffentlichkeiten mit langer demokratischer Tradition zunehmend ab­sprechen? Wie sollten sich Unter­nehmen, die aus liberalen Demokratien heraus ent­standen sind, verhalten, wenn autoritäre Herrscher die Meinungsfreiheit für ihre Zwecke beschränken wollen? Welche Ver­antwortung haben hierbei demo­kratische Regierungen?

Effekte sozialer Medien in autoritären Regimen

Es ist verlockend und doch analytisch un­zureichend, den sozialen Medien als Tech­nologie in deterministischer Weise soziale Effekte zuzuschreiben. Welche gesellschaftlichen Auswirkungen Technologien haben, hängt immer davon ab, wer sie unter wel­chen Umständen und für welche Zwecke nutzt. Nach diesem Verständnis sehr hilf­reich sind Überlegungen von Guy Schleffer und Benjamin Miller. In einer explorativen Studie betrachten sie außer dem Regime-Typ auch den Grad der Konsolidierung staat­licher Macht und Handlungsfähigkeit. Für den Kontext auto­ritärer Staaten lautet die Frage demnach: Wem gelingt es, sich die Macht sozialer Medien zunutze zu machen – der Opposition bzw. der Zivil­gesellschaft oder aber der Regierung?

In einem schwachen autoritären Regime, so ihr Argument, können soziale Medien zu dessen Destabilisierung beitragen. Hier er­möglichen sie die Vernetzung und Selbst­organisation zivilgesellschaftlicher Akteure und somit Formen kollektiver Opposition. Schleffer und Miller nennen als Beispiel die Nutzung sozialer Medien als Grundlage für die Proteste in Ägypten 2011. Auch wenn das ägyptische Regime zu der Zeit in vieler­lei Hinsicht als gefestigt wahrgenom­men wurde, hatte die Regie­rung nur wenig Mög­lichkeiten, das Geschehen in den sozialen Medien zu kontrollieren – insbesondere im Vergleich zu traditionellen Medien (vgl. hier­zu SWP Research Paper 5/2016). Ein ak­tu­elles Bei­spiel ist die digitale Vernetzung der Mit­glie­der der Demokratiebewegung in Hong­kong in dem Moment, als der Macht­anspruch Pekings in Form eines neuen Sicher­heits­gesetzes manifest wurde, vor Ort aber noch nicht gänzlich durchgesetzt war. Beide Fälle verdeutlichen indes auch die Gren­zen des Arguments: Bis heute ist em­pi­risch umstritten, welche Bedeu­tung diese tech­ni­schen Möglichkeiten in Relation zu anderen Erklärungsansätzen haben. Zudem ist offen, was politisch auf eine von sozia­len Medien unterstützte Destabilisierung folgt.

In gefestigten autoritären Staaten hin­gegen ist nach Schleffer und Miller oftmals zu beobachten, dass die Plattformen zu einem Werkzeug der Regierungen werden, um unliebsame Opposition zu unterdrücken, eigene Narrative und Pro­paganda zu ver­breiten und so ihre eigene Macht­position zu konsolidieren. Insbe­sondere achten diese Regime auch darauf, das kommunikative Wirken externer Akteure, wie anderer Staa­ten oder transnationaler Nichtregierungs­organi­sa­tio­nen (NGOs), zu kontrollieren. Gefestigte auto­ritäre Staaten verfügen dabei nicht nur über die administrativen und tech­nischen Kapa­zitäten, an vielen Stellen selbst in die Kom­mu­nikationsflüsse einzu­greifen. Sie üben darüber hinaus gezielt Druck auf die priva­ten Betreiber sozia­ler Medien aus. Dazu gehört etwa die Drohung, den Zugang zum nationalen Markt zu versperren. Schleffer und Miller führen als Beispiele hierfür China und Russland an, weisen aber auch darauf hin, dass mittlerweile eine Reihe weiterer Staaten versucht, derartige Fähig­keiten zu erlangen – oft durch den Import entsprechender Technologie und Dienste aus China oder Russland.

Eine Analyse von Andrea Kendall-Taylor, Erica Frantz und Joseph Wright auf der Grund­lage von Daten zu Massenprotesten von 2000 bis 2017 liefert hierzu weitere, er­nüch­ternde Hinweise: Für autoritäre Regime, die sich die vielfältigen Möglichkeiten digi­taler Repression gerade auch mittels sozia­ler Medien zunutze machen können, geht von Protest- und Demokratiebewegungen ein geringeres Risiko aus, so ein Ergebnis. Viele Regierungen hätten dies erkannt und be­mühten sich seit Jahren darum, die ent­sprechenden technischen Fähigkeiten aus­zubauen. Dabei böten neue Technologien, beispielsweise Künstliche Intelligenz, auto­ritären Regimen kostengünstige Möglichkeiten, Opposition sowie eigene Regie­rungs­mitglieder zu überwachen. Häufig führe dann schon allein die Sorge davor, im digi­talen Raum überwacht zu werden, zu Angst und Selbstzensur.

Politische Entscheidungen der Unternehmen

Vor diesem Hintergrund müssen sich die Betreiber sozialer Medien damit auseinander­setzen, unter welchen Umständen sie ihre Dienste in autoritären Staaten anbieten – und in­wieweit sie bereit sind, sich den For­derungen der jeweiligen Regierungen anzu­passen. Dies ist umso wichtiger, als es in autoritären Staaten keine unabhängigen Gerichte gibt, die das Han­deln der Regierungen überprüfen und notfalls eingreifen könnten. Die Anbieter sozialer Medien müssen daher selbst entscheiden, welchen Regierungsanfragen sie Folge leisten.

Die Bevölkerungen auch autoritärer Staa­ten sind für sie zunächst eine attraktive Ziel­gruppe. Im Bewusstsein um die Skalen- und Netzwerkeffekte sozialer Medien sind deren Betreiber stets bemüht, wei­ter zu wachsen. Weil die Märkte westlicher Demo­kratien oft­mals schon weit­gehend gesättigt sind, ge­raten für US-Anbie­ter zunehmend auch nicht­westliche Gesellschaften in den Blick.

Anders als für die Konkurrenz aus China entsteht dabei für die großen Betreiber aus den USA eine konfliktgeladene Span­nung zwischen den normativen Vorgaben ihrer Heimatstaaten sowie ihrem Selbst­verständ­nis einerseits und den Begehrlichkeiten auto­ritärer Regime andererseits. In gewis­sem Maße sind global operierende Unter­nehmen seit jeher mit dieser Spannung konfrontiert, etwa wenn es um Fragen von Arbeits- und Umweltschutz geht. Die Beson­derheit sozia­ler Medien liegt darin, dass hier breite Teile der Bevölkerung betroffen sind – und dies in einem Bereich, der sehr direkt Fragen politischer Herrschaft berührt.

Bisher sind die Entscheidungen der Unter­nehmen im Wesentlichen von ihrer Unter­nehmenskultur geprägt oder, zuge­spitzt formuliert, vom politischen Selbstverständnis einzelner Führungspersönlichkeiten. Nicht frei von Ironie ist, dass Kon­zerne wie Facebook und Google in den USA und Europa auf liberale bis libertäre Rheto­rik zurückgreifen, um sich staatlicher Regu­lie­rung entgegenzustellen, gleichzeitig aber in vielen Fällen vergleichsweise geräuscharm den Begehren autoritärer Regierungen nachkommen.

Aktuelle Beispiele illustrieren dies:

  • 2017 verbannte Snapchat den Nachrichten­anbieter »Al Jazeera« auf Anfrage der Regierung Saudi-Arabiens für Nutzerinnen und Nutzer von seiner »Discover-Seite«, über die Unternehmen redaktionelle In­halte wie Videos bewerben können.

  • 2018 entschied sich Facebooks Führung, einer Aufforderung der türkischen Regie­rung zu entsprechen, die Facebook-Seite der kurdischen Volksverteidigungs­einhei­ten (YPG) für Facebook-Nutzer und ‑Nutzerinnen in der Türkei zu blo­cken. Zwischenzeitlich sind interne E‑Mails von Facebook öffentlich geworden, aus denen die Sorge der Firma her­vor­geht, dass andernfalls die türkische Regierung den Zugang zu Facebook in Gänze blockieren würde.

  • 2020 entschied Mark Zuckerberg per­sönlich, Facebook solle Anfragen der vietnamesischen Regierung nachkommen, regierungskritische Inhalte zu löschen. Auch hier war andernfalls zu befürchten, den Zugang zum vietname­sischen Markt zu verlieren.

  • 2021 folgten Apple und Google einer Auf­forderung der russischen Regierung, im Vorfeld der Parlamentswahlen in Russ­land eine App der Opposition rund um Navalny aus ihren App-Stores zu ent­fernen. Die App diente regierungskritischen Wählerinnen und Wählern zur Information. In Medienberichten werden interne E-Mails von Google zitiert, wonach für diese Entscheidung die Sicherheit der Mitarbeiter und Mitarbeiterinnen vor Ort ausschlaggebend gewesen sei.

  • Ebenfalls 2021 berichteten mehrere Medien, Apple habe auf Verlangen der chinesischen Regierung eine populäre Koran-App aus dem chinesischen App-Store entfernt. Schon seit längerem gibt es Berichte, dass Apple in China gezielt solche Apps aus dem Angebot nimmt, die Bezüge zum Tiananmen-Massaker oder zur Taiwanfrage enthalten.

Diese Beispiele geben Einblick in die Erwägungen, die den Entscheidungen der Unternehmen zugrunde liegen. Eine nach­vollziehbare Sorge gilt den eigenen Beschäf­tigten in den jeweiligen Ländern, von denen viele aus eben diesen Län­dern kommen und damit sehr direkt dem Zugriff der Regierungen ausgesetzt sind.

Immer wieder weisen Vertreter und Ver­treterinnen von Betreibern sozialer Medien auch darauf hin, dass die Folgen für die Bevölkerung möglicherweise noch schwer­wiegender wären, wenn den Anordnungen einer Regierung nicht entsprochen würde und als Konsequenz die Dienste gar nicht mehr erreichbar wären. Das Problem mit diesem Argument ist allerdings, dass man mit empirischen Annahmen und kontra­fakti­schen Vermutungen operieren muss, um eine solche Abwägung zu treffen. Weder lässt sich im Vorhinein genau erfas­sen, wie weit die negativen Folgen von illegitimen Inhalts­beschrän­kungen reichen, noch lässt sich genau beziffern, welchen Schaden es bedeuten würde, wenn eine Plattform ihre Dienst­leistungen – die als Folge früherer gefor­derter Inhaltsentfernungen bereits staat­licherseits ein­geschränkt sind – über­haupt nicht mehr anbieten könnte. Von außen wird diese Abwägung zudem dadurch schwer nach­vollziehbar, dass diese politi­schen Über­legungen im Ergebnis kaum zu tren­nen sind vom wirtschaftlichen Interesse am Markt­zugang.

In seltenen Fällen entscheiden sich Unternehmen ganz bewusst dafür, ihre Dienste in einem Land nicht mehr anzu­bieten, um sich dem Zugriff einer autoritären Regierung zu entziehen. Das lange Zeit prominen­teste Beispiel hierfür war Googles Ent­schei­dung im Jahr 2010, sich aus Fest­land­china zurückzuziehen. Hintergrund waren damals nicht nur stetig zunehmende Zensur­anfra­gen der Regierung, sondern auch ein umfangreicher Hackerangriff, den das Unter­neh­men der chinesischen Regie­rung zuschrieb. Wie schwer es sich mit dieser Entscheidung mitt­lerweile tut, zeigt eine Entwicklung aus dem Jahr 2018: Damals wurde bekannt, dass Google unter neuer Führung Gespräche mit der chinesischen Regierung aufgenommen hatte, um wieder Zugang zum chinesischen Markt zu erlangen. Unter dem Decknamen »Dragonfly« waren sogar bereits Vorarbeiten für eine Adaption der Google-Such­maschine im Gange, bei der die Zensurvorgaben der chinesischen Regie­rung integriert werden sollten. Das Bekannt­werden dieser Pläne löste massive Proteste der Google-Mitarbei­ter und ‑Mitarbeiterinnen aus, was das Pro­jekt (vor­läufig) zum Scheitern brachte.

Eine besondere Situation ist mit dem Angriff Russlands auf die Ukraine im Feb­ruar 2022 entstanden. Schon kurz nach Kriegsbeginn wurde innerhalb Russ­lands der Zugang zu Twitter und Facebook ein­geschränkt. Nach Aufforderung durch die EU ergriffen umgekehrt alle großen west­lichen Plattformen Maßnahmen, um die Ver­breitung von Informationen der russi­schen Regierung und staatsnaher Medien in der EU zu begrenzen. In einer bis dahin nicht gekannten Form haben Twitter, Google / Alphabet und Meta nur wenige Wochen nach Kriegsbeginn eine Politik der »Demone­tarisierung« etabliert (für einen detaillierten Überblick siehe eine Aufbereitung durch Human Rights Watch): Im ersten Schritt nahmen Google / Alphabet und Meta der rus­si­schen Regierung und staats­nahen Medien die Möglichkeit, Wer­bung zu schal­ten und Einnahmen über die Plattformen zu gene­rieren (Twitter hatte bereits 2019 politische Werbung verboten). Außerdem wurden die Algorithmen so an­gepasst, dass Inhalte dieser Entitäten als regierungsnah gelabelt und seltener emp­fohlen wurden. Kurz dar­auf entschieden Alphabet und Meta, über­haupt keine Werbung mehr in Russland zuzulassen; Twitter ging noch weiter und schloss auch Werbung in der Ukraine aus.

Diese Politik der Demonetarisierung war (und ist) begleitet von der Hoffnung und dem Bemü­hen, die eigenen Dienste in Russ­land wenigstens eingeschränkt weiterhin verfügbar zu halten bzw. halten zu können. Das Vorgehen der Platt­formen in Russland, genauer gesagt gegen­über russischen Regie­rungsstellen, ist nicht durch Sank­tionen der USA oder der EU not­wendig geworden; es geht sogar über diese hinaus (auch wenn die Finanzsanktionen des Westens die wirt­schaft­lichen Aktivitäten in Russland in jedem Fall erschweren).

Das globale Ausmaß des Problems von CM in autoritären Staaten

Die politischen Entscheidungen von Unter­nehmen wie zuletzt im Fall des Ukraine-Kriegs werden in der öffentlichen Debatte in der Regel als Einzelfälle wahrgenommen. Die Unternehmen selbst sind hier schon einen Schritt weiter und haben Leitlinien und Verfahrensweisen zum Umgang mit besonderen politischen Ereignissen – von Wahlen bis zu Terroranschlägen – ent­wickelt. Noch wenig Beachtung finden aller­dings die systemischen Herausforderungen, die sich den Unternehmen stellen, wenn sie ihre Dienste in autoritären Staa­ten anbieten.

Infolge des Wiedererstarkens des Autorita­rismus in den letzten rund zwei Jahrzehn­ten sind Demokratien heute weltweit in der Minderheit. Von den 193 Mitgliedstaaten der Vereinten Nationen (VN) qualifiziert etwa Freedom House für das Jahr 2020 nur 82 als »frei«; auch nach der Klassifikation von Bjørn­skov / Rode galten 2020 nur 114 der VN-Staa­ten als demokratisch – ent­spre­chend lebten rund 3,4 Milliarden Menschen in Autokratien.

Mit Ausnahme stark abgeschotteter Re­gime werden in vielen autoritären Staa­ten soziale Medien genutzt. Neben den be­kann­testen Foren wie Face­book und Twitter werden in dem vorliegenden Beitrag auch Messengerdienste wie WhatsApp und Insta­gram dazu gezählt, bei denen Inhalte oft­mals in großen Gruppen ausgetauscht wer­den. Des Weiteren entwickeln sich Gaming-Platt­formen wie Discord, Karrierenetzwerke wie LinkedIn oder Code-Repositorien wie Github zuneh­mend zu Medien, über die sozialer Aus­tausch stattfindet – und sehen sich so mit Forde­rungen nach CM konfrontiert. Nicht zuletzt vollzieht sich CM auf der Ebene von Infra­struk­tu­ren, wenn beispiels­weise App-Stores den Vertrieb be­stimmter Pro­gramme unter­sagen oder Hosting-Anbie­ter die Nutzung ihrer Server für bestimmte Dienste oder Domains verbieten.

Nach anhaltendem öffentlichem Druck geben einige der größten Betreiber sozialer Medien seit einigen Jahren Trans­parenz­berichte heraus, die auch Hinweise dazu liefern, welche Anfragen zur Entfernung von Inhalten sie von Regierungen erhalten. Die Analyse dieser Daten ist nicht einfach, weil die Unternehmen ihre Auskünfte unter­schiedlich strukturieren. Da sie etwa unter­schiedliche Kriterien für die Erfassung von Anfragen zugrunde legen und bei Twitter und YouTube nicht immer klar ist, wie viele dieser Anfragen tatsächlich umgesetzt wur­den, ist der Ver­gleich über die Dienste hin­weg nur bedingt möglich.

Bei Facebook und Twitter ist nicht genau ersichtlich, welche der Anfragen von Regie­rungen, Gerichten oder weiteren Entitäten in dem jeweiligen Staat kommen. Zudem lässt sich nur eingeschränkt nach­vollziehen, wie Regierungen es begründen, wenn sie die Entfernung von Inhal­ten ­fordern. Neben einigen eher anek­do­tischen Hin­weisen sind hier die Berichte von You­Tube am aussagekräftigsten: Auf­fällig ist, dass autoritäre Staa­ten sich bei ihren An­fragen sehr viel häufi­ger auf die Kategorien »natio­nale Sicherheit« und »Kritik an der Regie­rung« bezie­hen als demokratische Staaten; die Kategorien »Copy­right« und »Verleumdung« spielen hingegen bei den Anfragen demo­kratischer Regierungen eine größere Rolle.

Tabelle

Tatsächlich erfolgte Inhaltsbeschränkungen (Facebook) und gestellte Anfragen zur Entfernung von Inhalten (Twitter, YouTube), 2014–2020

Regimetyp

autoritär

Regimetyp
demokratisch


Summe

Facebook
(Inhaltsbeschr.)

Staatlichkeit niedrig

Staatlichkeit hoch

32.992 (11,0%)

700 (0,2%)

178.292 (59,2%)

89.096 (29,6%)

211.284 (70,2%)

89.796 (29,8%)

Summe

33.692 (11,2%)

267.388 (88,8%)

301.080 (100,0%)

Twitter
(Anfragen)

Staatlichkeit niedrig

Staatlichkeit hoch

83.209 (45,9%)

1.163 (0,6%)

20.880 (11,5%)

75.862 (41,9%)

104.089 (57,5%)

77.025 (42,5%)

Summe

84.372 (46,6%)

96.742 (53,4%)

181.114 (100,0%)

YouTube
(Anfragen)

Staatlichkeit niedrig

Staatlichkeit hoch

82.148 (84,6%)

73 (0,1%)

10.235 (10,5%)

4.600 (4,7%)

92.383 (95,2%)

4.673 (4,8%)

Summe

82.221 (84,7%)

14.835 (15,3%)

97.056 (100,0%)

Quellen: Facebook, Content Restrictions Based on Local Law; Google (YouTube), Government Requests to Remove Content; Twitter, Removal Requests. Aggregierte Werte, Prozentzahlen gerundet. Daten für den Regimetyp entnommen aus: Christian Bjørn­skov / Martin Rode, Regime Types and Regime Change: A New Dataset, v.3.2. Indikator für Staatlichkeit basierend auf der Variable »z_statehood« in Eric Stollenwerk / Jan Opper, The Governance and Limited Statehood Dataset, Berlin: Freie Universität Berlin, SFB 700, 2017. Weitere Informationen zur Datenanalyse können unter https://bit.ly/SWP22AP02FG08 abgerufen werden.

Ausgehend vom bisherigen Stand der Debatte nimmt die Tabelle in den Blick, wie sich das Verhalten autoritärer und demo­kra­tischer Regime bezüglich solcher An­fra­gen unterscheidet. Als wei­tere Differenzierung wird der Grad an Staat­lichkeit ergänzt.

Die Ergebnisse dieser quantitativen Aus­wertung auf globaler Ebene sind in man­cher­lei Hinsicht im besten Sinne über­raschend: Zunächst fällt auf, dass ein erheblicher Teil der jeweiligen Anfragen aus demo­kratischen Staaten kommt, beson­ders im Falle von Facebook. Dies muss kein Prob­lem sein, wenn man davon ausgeht, dass hier das Han­deln der Regierungen rechts­staatlich ein­ge­hegt ist. Die schiere Menge an An­fragen gibt aber dennoch zu denken; ver­tiefende Ana­lysen hierzu wären sicherlich sinnvoll.

Interessant ist, dass unter den autoritären Staaten diejenigen hervorstechen, die über ein geringes Niveau an Staatlichkeit ver­fügen. Dies steht im Widerspruch zu den bis­herigen Studien zum Thema, die vor allem auf einzelne Staaten fokussieren. Eine Erklärung hierfür könnte sein, dass Staaten, die generell durch einen niedri­gen Grad an Staatlichkeit geprägt sind, gezielt Kapa­zitä­ten zur Kont­rolle sozialer Medien auf­bauen. Eine weitere, dass autoritäre Staa­ten mit einem hohen Grad an Staatlichkeit andere Vor­gehensweisen als CM wählen, sie etwa Dienste US-amerika­ni­scher An­bie­ter voll­ständig blockieren.

In jedem Fall zeigt die quantitative Ana­lyse am Beispiel der drei großen US-Anbie­ter, dass diese mit einer substanziellen An­zahl von Anfragen autoritärer Regime kon­fron­tiert sind. Die politische Heraus­forde­rung, mit diesen Anfragen umzugehen, ist mithin keinesfalls auf Einzelfälle beschränkt, son­dern eine systemische.

In einem weiteren Schritt wurden für den vorliegenden Beitrag die globalen Daten daraufhin untersucht, welche Staaten be­son­ders her­ausstechen. Die Abbildung listet jeweils die fünf autoritären und die fünf demokratischen Länder, aus denen von 2014 bis 2020 die meisten Anfragen zur Entfer­nung von Inhalten kamen. Auf diese zehn Staaten ent­fallen 82,4% aller Anfragen bzw. erfolgten Beschränkungen des genannten Zeitraums, davon 36,6% auf die fünf auto­ritären, 45,8% auf die fünf demo­kratischen Staaten.

Abbildung

Quellen: Facebook, Content Restrictions Based on Local Law; Google (YouTube), Government Requests to Remove Content; Twitter, Removal Requests. Aggregierte Werte, Prozentzahlen gerundet. Daten für den Regimetyp entnommen aus: Christian Bjørn­skov / Martin Rode, Regime Types and Regime Change: A New Dataset, v.3.2. Weitere Informationen zur Datenanalyse können unter https://bit.ly/SWP22AP02FG08 abgerufen werden.

Diese Darstellung macht sichtbar, in welchen Ländern diese Fragen aktuell von hoher Brisanz sind. Dabei fallen unter ande­rem Indien und Mexiko auf. Sie werden in der Wissenschaft bisher als Demo­kratien klassifiziert; in beiden Ländern geraten demokratische Institutionen aber zunehmend unter Druck.

Internationaler Handlungsbedarf

Der Ruggie Report von 2008 beschreibt als Mindestanforderung an Unternehmen, dass sie vermeiden sollen, selbst zur Verletzung von Menschenrechten beizutragen. Dieser Bericht ist als solcher nicht bin­dend, formu­liert aber einen plausiblen normativen Stan­dard (dem man allenfalls vor­halten kann, er sei zu wenig ambitioniert). Auch der Europa­rat hat sich in einer Empfehlung von 2018 zur Verantwortung von »internet inter­medi­aries« dieses Ver­ständnis von den men­schen­rechtlichen Pflichten der Unter­neh­men im digitalen Raum zu eigen gemacht.

Gemessen an diesem Standard stellt es ein Fehlverhalten dar, wenn die Betreiber sozia­ler Medien sich Anforderungen von autori­tären Regimen beugen, die erkennbar im Widerspruch zu den international an­er­kann­ten Menschenrechten stehen. Ein solches Verhalten wird nicht dadurch wettgemacht, dass die wirtschaftlichen Aktivitäten der Betreiber auch positive Effekte haben kön­nen. Der Ruggie Report enthält hierzu klare Leit­linien: »Business enterprises may under­take other commitments or activities to sup­port and promote human rights, which may con­tribute to the enjoyment of rights. But this does not offset a failure to respect human rights throughout their operations.«

Anders ausgedrückt: Im Falle offenkundiger Menschenrechtsverletzungen sind die Unternehmen keineswegs mit einer kom­plexen Abwägung konfrontiert. Vielmehr ist im Grunde klar, dass sie keinen An­for­de­rungen Folge leisten dürfen, die im Wider­spruch zu den Menschenrechten stehen. Ansonsten droht ihnen, zu Kom­plizen auto­ritärer Herrscher zu werden. Sie sollten sich diesen Anforderungen wider­setzen und not­falls in Kauf nehmen, dafür den Zugang zu den entsprechenden Märkten zu verlieren.

Klärungsbedarf kann sich allerdings dann ergeben, wenn nicht eindeutig ersicht­lich ist, ob eine Regierungsanfrage im Wider­spruch zu den Menschenrechten steht. Wie man an einigen der genannten Beispiele ablesen kann, werden derlei Fälle vor allem als Einzelfallentscheidungen verstanden, die die jeweiligen Unter­nehmens­leitungen zu treffen haben. Im Lichte des systemischen Charakters dieses Pro­blems scheint es jedoch notwendig, einen systematischen Umgang mit diesen Fragen zu finden.

Viele westliche Betreiber sozialer Medien beteiligen sich bereits an Bemühungen, für diese Fragen normative Stan­dards zu ent­wickeln. Beispiele hierfür sind die Ausarbei­tung der Santa Clara Principles oder die kon­tinuierliche Kooperation im Rah­men der Global Network Initiative (GNI).

Letztlich aber sind es die jeweiligen Unter­nehmen bzw. deren Leitungen, die die kon­kreten Entscheidungen treffen (müssen). Das Problem dabei ist, dass die Unternehmen alleine nicht über die Legi­ti­mität ver­fügen, derart politisch folgen­reiche Ent­schei­dungen zu fällen. Im Prinzip wäre genau dies die Aufgabe dafür geeig­neter öffent­licher Institutionen. Auf globa­ler Ebene aber gibt es keine derartige Insti­tu­tion. Da die großen westlichen Unter­neh­men für soziale Medien zurzeit allesamt aus den USA kom­men, könnten entsprechende Vorgaben von der US-Regie­rung erlassen werden, gewisser­maßen in Anleh­nung an die Kont­rolle von Dual-Use-Gütern. Doch auch hier­mit ist derzeit nicht zu rechnen.

Einen wichtigen Zwischenschritt hin zu einer politischen Lösung könnten indes strik­tere Vorgaben für regelmäßige Human Rights Impact Assessments darstellen (vgl. hierzu die Empfehlungen des Forschungsprojektes Ranking Digital Rights). Ziel sol­cher Analysen wäre eine systematischere Ausein­andersetzung mit dem Handeln der Betrei­ber sozialer Medien in autoritären Kontexten. Nicht zu­letzt könnte eine verpflichtende Vor­gabe zu derartigen HRIAs auch den demo­kratischen Akteuren in den betroffenen Ländern helfen: Wenn diese Berichte öffent­lich zugäng­lich gemacht würden, könn­ten die Akteure vor Ort sie nutzen, um das Han­deln ihrer Regierungen zu hinterfragen.

Legt man noch einmal die obige Datenanalyse zugrunde, scheint es sinnvoll, ins­besondere jene autoritären Staaten und gefähr­deten Demokratien in den Blick zu nehmen, aus denen die US-Unternehmen die meisten Regierungsanfragen erhalten (s. Abbildung). Zumindest ex post wäre es so möglich, öffentlich eine Debatte darüber zu führen, ob die Entscheidungen der Unter­nehmen rechtfertigbar waren. Deutschland und die EU könnten international und vor allem im bilateralen Verhältnis zur US-Regie­rung auf eine solche Erweiterung der Transparenzanforderungen drängen.

Dabei reicht Transparenz alleine nicht aus. Stattdessen ist es unumgänglich, dass den HRIAs auch Taten folgen. So können zum Beispiel, basierend auf den Menschenrechtsanalysen, frühzeitig Krisenprotokolle für Länder entwickelt werden, die zunehmend autoritär werden. Anstelle von kurz­fristigem Aktivismus der Plattformen, nach­dem eine Krise schon eingetreten ist, könn­ten HRIAs wie eine Art digitales Frühwarn­system funk­tionieren – es ließe sich fest­stellen, wenn in einem Land die Regierungs­anfragen zur Entfernung von Inhalten zu­nehmen. Eine solche politische Dynamik könnte auf diese Weise rechtzeitig wahrge­nommen und entsprechende Gegenmaßnahmen eingeleitet werden, bevor sich eine Krise zuspitzt.

Paula Köhler ist Forschungsassistentin der Forschungsgruppe Sicherheitspolitik. Dr. Daniel Voelsen ist Leiter der Forschungsgruppe Globale Fragen.

© Stiftung Wissenschaft und Politik, 2022

SWP

Stiftung Wissenschaft und Politik

ISSN (Print) 1611-6364

ISSN (Online) 2747-5018