Annegret Bendiek, Matthias Schulze

Desinformation und die Wahlen zum Europäischen Parlament

SWP-Aktuell 2019/A 10, Februar 2019, 8 Seiten

doi:10.18449/2019A10

Im Mai 2019 finden Wahlen zum Europäischen Parlament (EP) statt. Politik und Exper­ten fürchten, dass der Wahlprozess mit Desinformationskampagnen und Cyber­angriffen empfindlich gestört wird. Die Europäische Kommission hat im Dezember 2018 einen Aktionsplan gegen Desinformation vorgelegt und will 5 Millio­nen Euro zur Verfügung stellen, um Wähler und Verantwortliche in der Politik für Mani­pulationen zu sensibilisieren. Es geht auch darum, die Cybersicherheit von Wahl­systemen und -pro­zes­sen zu erhöhen. Kurzfristige Selbst­regulierungsansätze der Internet­konzerne reichen dazu bei weitem nicht aus. Um mittelfristig die Integrität von Wahlen zu schützen, gilt es, unabhängige Forschung als Basis für tech­ni­sche, recht­liche und marktregulierende Reformen zu stärken. Ziel muss sein, die Funk­tions­fähigkeit von Demo­kratien und Wahlen in der Digitalisierung zu bewahren.

Vom 23. bis 26. Mai 2019 findet in den Mit­gliedstaaten der Europäischen Union die nächste Europawahl statt. Weil rechtsnatio­nalistische und europaskeptische Strömungen erstarkt sind, wird bereits von einer »Schicksalswahl« gespro­chen, welche die künftige Ausrichtung der EU maßgeblich prägen könnte. Schon jetzt vereinigen europaskeptische Parteien knapp ein Drittel der Abgeord­neten im Parlament auf sich, ein Anteil, der mit der Wahl steigen könnte.

Bisher galten die EP-Wahlen als »Wahlen zweiter Ordnung« und daher als gute Ge­legenheit für einen Denkzettel an die Regie­rung des jeweiligen Mitgliedstaats. Diese Sicht­weise ver­kennt das Mobilisierungs­potential der aktuellen Debatte über Pro und Contra der europäischen Integra­tion, über den Einfluss von Dritten und über die gewachsene Bedeutung des EP. Für die stra­te­gische Ausrichtung europäischer Integra­tion sind die Wahlen äußerst wichtig. Ein Erfolg der EU-Gegner könnte die Union an den Rand ihrer Handlungsfähigkeit drän­gen, etwa durch weitere Ausstiegsforderungen nach britischem Muster oder eine Blo­ckade des kom­plexen Entscheidungsprozesses. Die Wah­len entscheiden nicht nur über die Neubesetzung des EP, sondern auch über den Amtsantritt der neuen EU-Kom­mis­sion für die Wahlperiode 2019–2024. Das EP beeinflusst die Ernen­nung der Kom­mis­sare und kann mit Zweidrittelmehrheit die gesamte Kommission zum Rücktritt zwin­gen sowie den Mehrjährigen Finanzrahmen finanzpolitisch neu ausrichten.

Herausforderungen

Struktur und Funktionen der EU sind nicht leicht zu verstehen. Europäische Themen sind vielen unbekannt, und es ist recht ein­fach, falsche Informationen über die EU zu verbreiten. Mit Blick auf die Europawahl ermahnte der EU-Kommissar für die Sicher­heitsunion, Julian King, die Mit­glied­staaten, »die Bedrohung der demokratischen Pro­zesse und Institutionen durch Cyber­angriffe und Desinformationen« ernst zu nehmen und »nationale Pläne zur Vorbeugung« auf­zustellen. Es gelte zu verhindern, »dass staat­liche und nichtstaatliche Akteure unsere demokratischen Systeme untergraben und als Waffe gegen uns einsetzen«. Dazu gehö­ren vor allem Desinformationskampagnen sowie Cyberangriffe auf die elektronische Wahlinfrastruktur, die Vertraulichkeit, Ver­fügbarkeit und Integrität des Wahlprozesses beeinträchtigen können.

Offenbar habe Desinformation bereits Wir­kung in Europa gezeigt: Forscher der Uni­versität Edinburgh identifizierten in sozia­len Netzwerken über 400 falsche Accounts, mit denen von St. Petersburg aus bezahlte Störenfriede (Trolls) im Vorlauf des Brexit-Referendums agitier­ten. Aus sicher­heits- und verteidigungspolitischer Sicht werden Des­information und Cyberangriffe als Ele­mente hybrider Bedro­hungen defi­niert, also Handlungen Dritter, mit denen Europa oder das EU-System de­stabilisiert werden soll. Mit dem Begriff hybri­de Be­drohungen ist gewöhnlich eine Form der Kriegsführung gemeint, die unter­halb der Schwelle des Einsatzes militärischer Gewalt bleibt und so einen mili­tärischen Gegenschlag auf Basis internationaler Konventionen erschwert.

Desinformationskampagnen

Desinformation ist kein neues Phänomen. In der Sicherheitsforschung gilt sie als »schwarze« Propaganda, da sie aus dem Verborgenen die öffentliche Meinung zu beein­flussen sucht. Dazu bedient sie sich derselben Mittel wie etwa moderne Public Relations (PR) und Werbe­kampagnen.

Im Gegensatz zu PR aber will Desinformation die Stützpfeiler der Demokratie ins Wanken bringen, indem sie Parteien, ge­wählte Politiker oder die EU als politisches System angreift. Dabei bedeutet Desinformation nicht notwendig Falschinformation, da auch wahre, aus dem Kontext gerissene Aussagen für suggestive Schluss­folgerungen missbraucht werden können. Desinfor­ma­tionskampagnen können kurz­fristig an­gelegt sein, beispielsweise um Einfluss auf ein Wahl­ergebnis zu nehmen, oder lang­fristig, etwa um das Vertrauen in die EU zu untergraben. So wird versucht, einzelne Politiker zu dis­kreditieren, um ihre Wieder­wahl zu verhin­dern. Im Zuge eines »nega­tive cam­paigning« werden zum Beispiel an­geb­liche Skandale aufgedeckt oder Kor­rup­tions­vorwürfe er­hoben. Während des letzten Wahlkampfs um die Präsidentschaft in den USA verbrei­teten vermutlich russi­sche Twitter-Bots, also automatisierte Com­puter­programme, überwiegend nega­tive Berichte über Hillary Clinton und eher positive über Donald Trump. Mittelfristig sollen die gesellschaftliche Spal­tung und die Polari­sierung des öffentlichen Diskurses voran­getrieben werden.

Die Aushandlung politischer Interessen in gesellschaftlichen Diskursen ist Kernelement, aber auch Achillesferse von Demo­kratien. Mit Tak­tiken wie der Streuung zweifelhafter Behaup­tun­gen (»muddying the waters«) oder massen­haften, stetig wiederholten Falsch­informa­tionen oder Verschwörungstheorien (»fire­hose of false­hood«) sollen politische Gewiss­heiten aus­gehöhlt und ein gesellschaftlich geteiltes Konzept von Wahrheit aufgelöst werden. Ein Beispiel dafür waren Reaktionen auf den Abschuss eines malaysischen Passagierflugzeugs im Juli 2014: In sozia­len Netz­werken wurde versucht, den Unter­suchungs­bericht zu diskreditieren, dem zu­folge rus­si­sche Streitkräfte die Katastrophe herbei­geführt hatten.

IT-gestützte Desinformation

Zu unterscheiden ist zwischen digitaler und IT-gestützter Desinformation: Digitale Des­information umfasst die gesamte Band­breite digitaler Mechanismen zum Verbrei­ten von Infor­mationen. IT-unterstützte Des­information dagegen beinhaltet Hacking-Vorfälle oder Cyberangriffe, die Schutzziele von IT-Sicher­heit, also Vertraulichkeit, Ver­fügbarkeit und Integrität, beeinträchtigen. Der technische Hack ist dabei nur eines von vielen Mitteln, mit denen die Vertraulichkeit von Informationen ver­letzt wird, etwa indem sensible Infor­mationen aus den Ac­counts von Politikern, Parteien oder Amts­trägern gestohlen und dann mit schädigender Ab­sicht ver­öffentlicht werden (Doxing). Bekannte Beispiele sind die Veröffentlichung der E-Mails des Wahlkomitees der US-Demokraten (DNC) auf der Enthüllungsplattform Wikileaks 2016 und des Wahlkampfteams von Emmanuel Macron 2017.

Immer häufiger wird in autoritär regierten Ländern die Ver­füg­bar­keit technischer Systeme eingeschränkt, um Desinformation zu betreiben. Webseiten von Politikern, Par­teien und Services wie Twitter und Face­book werden zielgerichtet kurz vor Wahlen durch Distributed-Denial-of-Service-Angriffe lahmgelegt, also absichtliche Über­lastung des betreffenden Servers. Auf ähn­liche Weise lässt sich die digi­tale Wahlinfrastruk­tur mit ihren Wahl­computern und Aus­zäh­lungssystemen stören und manipulieren.

Digitale Desinformation

Digitale Desinformation hat den Vorteil geringer Kosten bei großer Wirkung: Ohne viel Ressourcenaufwand lässt sich mit maßgeschneiderten Desinformationen ein globales Publikum erreichen. Digitale Des­information bedient sich legitimer Mittel der Werbeindustrie, um Nutzer mit ihren individuellen Ver­haltensprofilen gezielt anzusprechen (was als »targeted ads« und »microtargeting« bezeichnet wird).

Die sozialen Netzwerke wie Facebook sind nicht zum Zwecke demokratischer Diskurse ent­wickelt worden, sondern um Interessen und Verhalten ihrer Nutzer zu analysieren, zu kategorisieren und diese Informationen an Dritte für Werbezwecke zu verkaufen. Gemäß ihren Ver­haltens­mustern werden Nutzern Inhalte angezeigt, die andere Nut­zer der gleichen Kategorie oder mit ähnlichem Verhaltensprofil eben­falls bevor­zugen. Algorithmen bewirken also, dass Nutzern mehr des Gleichen gezeigt wird, um ihre Aufmerksamkeit zu binden und sie so lange wie möglich auf den Plattformen zu halten. Diese sogenannten Filterblasen entstehen direkt aus dem Geschäftsmodell von Online-Plattformen, Werbung an mög­lichst viele Nutzer zu brin­gen. Werden gleiche Meinungen grup­piert und zugleich unter­schiedliche An­sichten ausgeblendet, kann eine selbst­referentielle Echo­kammer ent­stehen. In Online-Foren, die nur gleich­gesinnte Nutzer zusammenbringen, werden diese sich tendenziell lediglich in ihren Wahrnehmungen bestär­ken, weil sie keine Gegenrede erfah­ren.

Besonders polarisierend wirkt Desinformation bei bereits politisierten Gruppierungen mit starken ideologischen Ausrichtungen. Jenen Grup­pen kann man gezielt Verschwö­rungstheorien an­bieten, die zu ihrem Welt­bild passen. Ein Beispiel dafür sind Kam­pagnen gegen angebliche Ver­gewaltigung durch Asyl­suchende wie im berühmten Fall Lisa 2016. Aus dem US-Wahlkampf 2016 sind Fälle bekannt, in denen Anhän­ger der rechtsgerichteten Bewegung Alternative Right und links­gerichtete Grup­pen separat über Face­book auf­gefordert wurden, an derselben Demon­stration teil­zunehmen. Damit sollte eine gewalt­same Eskalation provoziert wer­den.

Über soziale Netz­werke können Verschwörungstheorien und Desinforma­tion schnell welt­weit geteilt werden. Basieren kann dies auf einem Mix automatisierter Accounts (»social bots«), hybrider Accounts (teils menschlich, teils automatisiert) und sogenannter Troll- oder 50-Cent-Armeen. Solche »Armeen« bestehen aus staatlich oder privat organisierten Kom­mentatoren, die in sozialen Medien oder auf Nach­rich­ten­seiten syste­matisch be­stimmte Narrative verbreiten. Häufig sind es auch Freiwillige, die un­wissentlich Desinformation streuen (»un­witting agents«). Im US-Wahlkampf 2016 verbreiteten US-Bürger Kremlpropaganda, ohne die Urheberschaft zu kennen. Aber auch die traditionelle Medienberichterstattung bleibt rele­vant, da sie immer häufiger Themen von sozialen Netzwerken aufgreift. Handelt es sich dabei um Desinfor­mation und tragen die Medien diese un­reflek­tiert weiter, ver­festigen sie auf diese Weise die darin ent­haltenen Narrative oder Falschmeldungen. Desinfor­mation wirkt kumu­lativ über län­gere Zeit­räume hinweg.

Gegenstrategien der EU

Die Abhaltung der EP-Wahl liegt in der Verantwortung der Mitgliedstaaten. Diese unternehmen einiges, um die Inte­­grität von Wah­len zu schützen. Bis jetzt han­delt es sich aber eher um einen Flicken­teppich von Maßnahmen. Es steht zu be­fürchten, dass die EP-Wahlen von Europagegnern mani­­pu­liert, gestört oder unrecht­mäßig beeinflusst werden, sei es während des Wahlkampfs, des Wahlakts oder der Stimm­aus­zählung. Einer Euro­barometer-Umfrage zufolge sor­gen sich 83 Prozent der Europäer wegen geziel­ter Desinforma­tion im Netz. Die EU geht davon aus, dass gezielte Desinforma­tionskampagnen im Wahlkampf zu beob­achten sein werden.

Desinformationsbekämpfung

Seit 2015 versucht die Europäische Kom­mission, mit außen- und innenpolitischen Maßnahmen gegen Desinformation und technisch bedingte Beeinflussungen vor­­zugehen. Zu diesem Zweck hat sie unter ande­rem die Europäische Agentur für Netz- und Informations­sicherheit (ENISA) perso­nell und finanziell aufgestockt sowie eine East StratCom Task Force im Europäischen Aus­wärtigen Dienst (EAD) gegründet. Die Task­force dokumentiert Desinformationskampagnen in den nordöstlichen Mitglieds­ländern und informiert regelmäßig darüber. 2016 folgten eine Gemeinsame Mitteilung und ein Gemeinsamer Rahmen der EU für die Bekämpfung hybrider Bedrohungen. Die Kom­mission und der EAD sind sich darin einig, dass solche Bedrohungen der EU immer stärker zu schaffen machen.

Unter hybrider Bedrohung versteht die EU »eine Vermischung mili­tärischer und ziviler Kriegsführung durch staatliche und nicht­staatliche Akteure wie verdeckte Militäroperationen, intensive Propaganda und wirt­schaftliche Drangsalierung«. Diese Aggres­sionen würden nicht nur unmittelbaren Schaden anrichten und Verwund­barkeiten ausnutzen, sondern Gesellschaften destabi­lisieren und »durch Verschleierungstaktik« die Spaltung der EU befördern. Innere und äußere Sicherheit müssten des­halb noch stärker ineinandergreifen.

Kommissionspräsident Jean-Claude Juncker schlug in seiner Rede zur Lage der Union 2018 eine Reihe konkreter Maß­nah­men vor, damit die Wahlen im Mai 2019 frei, fair und sicher ablaufen können. Unter anderem forderte er mehr Trans­parenz bei (oft verdeckter) politischer Wer­bung im Internet und die Möglichkeit von Sanktionen, wenn perso­nenbezogene Daten rechts­widrig genutzt werden, um das Ergeb­nis der Europawahl zu beeinflussen.

Auf Betrei­ben der Europä­ischen Kommis­sion haben sich Netzwerke wie Face­book, Twitter und Youtube auf einen Verhaltenskodex (»Code of Practice on Disinforma­tion«) geeinigt, um gegen Desinformation und Fake Accounts auf ihren Plattformen vor­zugehen. Im Oktober 2018 wurde dieser Kodex von Facebook, Google, Twitter und Mozilla sowie von Berufsverbän­den der Online-Plattformen und der Werbe­branche unterzeichnet.

Zwei Monate später legten die Kommission und die Hohe Ver­treterin der EU für Außen- und Sicherheitspolitik einen Ak­tions­plan gegen Desinformation vor. Mit Blick auf die Europawahlen wurde begon­nen, ein Frühwarnsystem für Desinforma­tion einzurichten. Dafür wurden 5 Millio­nen Euro und 50 Personalstellen bewilligt. Das System soll Kam­pagnen in Echt­zeit erkennen und es soll für das Pro­blem sensi­bilisieren.

Weil die EU befürchtet, auch jenseits ihrer Grenzen falsch dargestellt zu werden, beobachten weitere Teams die Verbreitung von Falschinformationen in Nordafrika, im Nahen Osten und auf dem Balkan. Ferner wurde ein Wahlnetzwerk eingerichtet, zu­dem wurden ein Leitfaden zur Anwendung des EU-Datenschutzrechts im Wahlkontext sowie Handreichungen zur Cybersicherheit erarbeitet. Ab Februar 2019 sollen die Mit­gliedstaaten in einem Planspiel üben, was bei einem Angriff zu tun wäre. Die Staaten der EU setzen auf Erfahrungs­austausch. Im Frühjahr 2019 soll es weitere Treffen geben. Die Kommission ermahnte Ende Januar 2019 die Internetunternehmen, dass die Trans­parenzinitia­tiven gegen ver­deckte Wahlwerbung nicht ausreichten, um die Inte­grität der Europawahlen zu schützen.

Cybersicherheitsmaßnahmen

Was unternimmt die EU gegen IT-gestützte Desinformation? Der Schutz kritischer Infra­strukturen ist schon länger Gegenstand von EU-Regulierung. Die Mitgliedstaaten konn­ten sich aber nicht darauf einigen, Wahl­systeme gemäß der Richtlinie zur Netz­werk- und Informationssicherheit (NIS-Richtlinie) von 2016 als kritische Infrastruktur zu defi­nie­ren. Die IT-Sicher­heit von Wahltechnologie galt als rein nationale Aufgabe. Nach­dem jedoch über angebliche Beeinflussung des Brexit-Referendums sowie von Wahlen in Frank­reich, Katalonien und Belgien be­rich­tet wor­den war, stieg die Sensibilität für die Pro­ble­ma­tik. So schlug die EU im Sep­tem­ber 2017 ein ganzes Bündel an Cyber­sicher­heits­maß­nahmen vor, unter anderem ein europa­weites Koopera­tionsnetz zwi­schen Daten­schutzbehörden, um Wissen über Methoden der Wahlbeeinflussung auszutauschen. Erst im Dezember 2018 verständigten sich die EU-Staaten auf ein Cyber­sicherheits­gesetz, das die Cybersicher­heits­agentur (ENISA) stärken und erstmals einen Zerti­fi­zierungsrahmen für den Schutz kritischer Infrastrukturen schaffen wird.

Als im selben Monat ein Hacker unter dem Pseudonym »0rbit« bei Twitter brisante Daten veröffentlichte, forderten Politiker einen »Notfallplan, um innerhalb kurzer Zeit auf den Abfluss sen­sibler Daten, digi­tale Wirt­schaftsspionage oder Sabotage re­agieren zu können«. Verlangt werden auch einheitliche gesetz­liche Mindeststandards für die Sicherheit informationstechnischer Geräte, was hieße, dass der frei­willige Zerti­fizierungsrahmen der EU durch eine euro­päische Verordnung zu ersetzen wäre. Das soll etwa für Endverbraucher-Geräte wie Mobiltelefone und Laptops gelten. Anbieter von Online-Dien­sten und Hersteller von Geräten, die mit dem Internet vernetzt sind, sollen ihre Angebote so gestalten, dass die Benutzer starke Passwörter wählen und sie regelmäßig aktualisieren.

Neben der Härtung technischer Infrastrukturen setzt die EU auf operative Cyber­sicherheits­maßnahmen. Dazu gehören die Entwicklung besserer Attributionsfähig­keiten bei Cyberangriffen, ein Informations­austausch und eine stärkere Rolle von Euro­pol in der Cyberkriminalitätsbekämpfung. Wer­den Mitgliedstaaten Ziel solcher Angrif­fe, sollen sie selbst herausfinden können, woher der Angreifer kam, welche Sicherheitslücken genutzt wurden und welche Daten betroffen waren oder ab­geflossen sind. Diskutiert werden härtere Strafen für Cyber­kriminelle und neue Straf­tatbestände, etwa für das Betreiben krimi­neller Infra­struk­turen. Mit Prin­zipien wie »security by design«, also der Entwicklung von Hard- und Software, die Schwachstellen und Mani­­pu­lationen von vornherein zu vermeiden sucht, ist in der Datenschutzgrundverordnung (DSGVO) ein wei­terer Bau­stein für das Vorgehen gegen Cyber­angriffe und Des­information angelegt. Im Januar 2019 einig­te sich die EU zudem auf Eck­daten für ein einschlägiges Gesetz. Auf sei­ner Grund­lage können künftig Geld­strafen gegen Parteien und politische Stif­tun­gen verhängt werden, wenn sie im Europawahl­kampf gegen Daten­schutz­regeln verstoßen, um Wähler zu beeinflussen. Parteien kön­nen sogar alle Ansprüche an die Parteien­finanzierung der EU verlie­ren. Anlass für diese Regelung war, dass Facebook Nutzer­daten an das bri­tische Unternehmen Cam­bridge Analytica weitergegeben hatte. Die Firma wertete die Datensätze von 220 Mil­lio­nen amerikanischen Facebook-Nutzern aus und erstellte daraus Nutzerprofile für gezielte Werbung.

Cybersicherheit bei Wahlen

Welche Maßnahmen werden ergriffen, um Vertraulichkeit, Verfügbarkeit und Integri­tät elektronischer Wahlsysteme zu gewähr­leisten? Seit berichtet wur­de, US-Wahlen seien angeblich unrechtmäßig beeinflusst worden, steht die so­genannte Venedig-Kom­mission des Europa­rats mit den Wahldurchführungs­stellen der 61 Europaratsmitglieder in engem Austausch. Die elektronischen Wahl­systeme in den Mitgliedstaaten sind sehr unterschied­lich. Elektronisch gewählt wur­de in der EU bis­her nur in Belgien, Bul­ga­rien, Estland und Frankreich. In Bel­gien verwenden vor allem flämische Kom­munen Wahlmaschinen. In Bulgarien sollen solche Maschinen bei der EP-Wahl 2019 nur in kleineren Wahllokalen ein­gesetzt werden. Und in Frankreich wurde wegen der angeb­lichen Vor­fälle bei der US-Wahl die Nutzung von Wahl­maschinen bei der Präsidentenwahl 2017 ausgesetzt. In ande­ren Staaten wie Deutschland oder Österreich gibt es nur die Wahl per Stimmzettel. Um das Wahl­ergebnis festzustellen, wird Informationstechnik eingesetzt. Bei der Ermittlung des vorläufigen Wahlergebnisses ist daher die Absicherung der IT-Systeme essentiell. Est­land ist weltweit das einzi­ge Land, das die Online-Wahl über das Internet zu­lässt.

Die tech­nische Vulne­ra­bilität elektronischer Wahlsyste­me lässt sich nicht über­grei­fend beurteilen, da EU-Staa­ten unterschiedliche Wahl­computer und -systeme nutzen. Da aber alle Wahlcomputer mani­pulierbar sind, raten Experten zu einem physischen Papierausdruck bei jeder einzelnen Abstim­mung. Gemäß Artikel 11 der NIS-Richt­linie haben Vertreter aus 20 Mit­gliedstaaten im Juli 2018 ein Kompendium zur Cybersicher­heit von Wahlen er­arbeitet. Die Mitglied­staaten wurden darin aufgefordert, gezielte Sicherheitsvorkehrun­gen zu treffen und Kontaktstellen für ein übergeordnetes euro­päisches Kooperationsnetzwerk aufzubauen.

Kommen in einzelnen Wahlbezirken Unregelmäßigkeiten beim Wahlakt oder technische Probleme bei der Stimmauszählung vor, könnten die Wahlen in einzelnen Ländern kurzfristig nachgeholt werden, ohne dass das gesamte Europäische Parla­ment noch einmal gewählt werden müsste. Ein Cyberangriff auf einen Mit­glied­staat hätte zur Folge, dass die Sitzvergabe im EP nicht sofort bestätigt werden könnte. Ge­zielte Cyberangriffe aus Drittstaaten auf einzelne Wahlen können sanktioniert wer­den, indem die EU ihren Diplomatischen Reaktionsrahmen anwendet. Ein umfassender schwerwiegender Angriff auf die Wah­len zum EP würde als Angriff auf die EU gewertet. Unter bestimmten Voraussetzungen ließe das den Rückgriff auf die Solidari­tätsklausel gemäß Artikel 222 AEUV oder sogar auf die Beistandsklausel nach Artikel 42 Absatz 7 EUV zu.

Unabhängige Forschung fördern

Die Europawahlen entscheiden über die Neubesetzung des Europäischen Parlaments, doch die Regeln für die Wahl liegen in nationaler Kompetenz. In vielen EU-Ländern sind lokale Wahlbehörden mit der Durchführung der Wahl betraut. Zwar sind sie sich der Gefahr von Desinformation und Cyberangriffen bewusst, aber technisch nicht aus­reichend darauf vorbereitet. Auf dem Spiel steht die Glaubwürdigkeit der EP-Wahl und damit auch der EU. Um Desinfor­mation zu bekämpfen und Cybersicherheitsübungen abzuhalten, greift die euro­päische Politik bevorzugt auf kurz­fristige, eher technisch ausgelegte Aktionspläne in Kooperation mit Internetunterneh­men zurück. Ursachenforschung dagegen fehlt. Daher empfiehlt es sich, die Erkenntnisse besser zu berücksichtigen, welche die unterschiedlichen wissenschaftlichen Diszi­plinen zu Desinformation, Cyberangriffen und den Bedingungen von Demokratie er­bracht haben.

Hybride Bedrohungen?

Zwischen Sicherheits- und Verteidigungs­politik auf der einen und Innenpolitik auf der anderen Seite existiert eine Konkurrenz um Zuständigkeiten und Res­sourcen. Aus verteidigungspolitischer Sicht gehört das Phänomen Desinformation in die Kategorie hybride Bedrohungen. Doch es greift zu kurz, das Thema auf diese Weise zu ver­engen. Chefs amerikanischer Geheim­dienste stellten in einer Kongressanhörung 2017 zu Recht fest, dass Desinforma­tion eine neue Normalität darstelle. Nach Auf­fassung der Nato und der Europäischen Kommission ist Russland führend bei der gezielten Verbreitung von Falschinforma­tionen, doch mehr als 30 weitere Länder betreiben eben­falls Desinforma­tion. Regie­rungen beauftragen Think-Tanks und Nicht­regierungsorganisationen, Analysen zum Thema vorzulegen, so dass es an einschlägigen Berichten nicht mangelt. Die ameri­kanische Alliance for Securing Democracy zum Beispiel oder das Digi­tal Forensic Re­search Lab, finanziert durch den Atlantic Council und Facebook, konzentrieren sich bei ihrer Arbeit vorwiegend auf Russland und China. Wichtig ist, dass Think-Tanks und politische Stiftun­gen, die sich mit Des­information befassen, Auftraggeber und Finan­ziers ihrer Projekte kenntlich machen, um nicht in den Verdacht der Parteilichkeit zu geraten.

Falschinformationen stammen aber nicht nur aus Ländern außerhalb der EU, sondern werden auch innerhalb ihrer Mit­gliedstaaten verbreitet. Min­destens genauso wichtig wie externe Versuche der Beeinflussung sind poli­tischer Aktivismus, gerade aus dem europafeindlichen Spektrum, das Vortäuschen einer Graswurzelbewegung (Astroturfing) und die Rolle der Boulevardmedien. Deren Einfluss auf den Brexit etwa wog vermutlich schwerer als jener von Twitter-Bots, die höchstens 17 Prozent der britischen Bevölkerung errei­chen können.

Die Wirksamkeit digitaler Desinforma­tion ist wissenschaftlich nicht eindeutig belegt. Jüngste Studien über die Relevanz von Filterblasen kommen zu differenzierten Ergebnissen. Empirische Daten deuten darauf hin, dass Nutzer bewusst bestimmte Formate und Inhalte wählen, die von denen der etablierten Medien abweichen. Filter­blasen des Dissenses entstehen offen­bar nicht deshalb, weil die Nutzer sich nicht bewusst sind, dass Informationen ein­seitig oder falsch sein können. Vielmehr scheint hier das ausdrückliche Inter­esse der Nutzer an abweichenden Meinungen den Ausschlag zu geben. Dies geht einher mit dem stetigen Verlust des Vertrauens demokra­tischer Gesellschaften in politische und öffentliche Insti­tutionen. Die Vorstellung, Filterblasen wür­den bewusst gebil­det und kontrolliert, wird dadurch verstärkt, dass es sich eher um kleine Gruppen zu handeln scheint, die »alter­native Fakten«, Desinformationen und offenkundig falsche Berichte beson­ders lautstark verbreiten. Daher dürf­te die Befürchtung, digitale Algorithmen könnten soziale Kommunikation in weiten Teilen zerstören, eher übertrieben sein.

IT-gestützte Desinformation

Technische Maßnahmen der EU zur Be­kämpfung von Desinformations­kampagnen und Cyberangriffen sind nur ein erster Schritt. Im Idealfall bewirken sie, dass die Mit­gliedstaaten die Europawahlen während Wahlkampf, Wahlakt und Auszählung besser zu schützen versuchen. Stetiger Aus­tausch und regelmäßige Cybersicherheitsübungen sind nötig, um Gefahren zu mini­mieren. Allerdings wurde bisher in den meisten Mitgliedstaaten versäumt, Wahlen als für die Demokratie kritische Infrastruktur zu begreifen und deshalb auf hohem Niveau zu sichern. Daher müssen Hersteller und Anbieter kritischer IT-Pro­dukte drin­gend stärker in die Pflicht genommen wer­den. Ungesicherte IT-Hard- und Software in der Wahl­technologie ist nach wie vor ein unter­schätztes Problem. Zudem muss die EU langfristig in die Lage versetzt werden, auf Wahlmanipulationsversuche strategisch, kommunikativ und technisch wir­kungsvoll zu reagieren, und dafür finan­ziell und perso­nell ausgestattet werden. Solange dieses Ziel nicht erreicht ist, können wäh­rend der Wah­len rund um die Uhr Not­fallteams ein­gesetzt werden.

Übermacht der Internetkonzerne

Fraglich ist allerdings, ob die genannten Schwächen von Demokratien in Europa mit kurzfristigen Taskforces und mittelfristigen Aktionsplänen effektiv angegangen werden können. Sprachwissenschaftliche Forschung zeigt, dass bloßes Fact-Checking eher zur unbeabsichtigten Bestärkung von Falsch­informationen führt. Überschätzt wird auch die Wirksamkeit automatisierter Systeme Künstlicher Intelligenz zur Desinformationsbekämpfung. Offenbar ist es illusorisch, Falschinformationen völlig aus der Welt schaffen zu wollen. Statt Symptome zu bekämpfen, wäre es sinnvoll, un­abhängige Forschung zu fördern, um Vor­schläge für kurzfristige technische und poli­tische Maß­nahmen zu analysieren. Sie soll­ten die Basis für grundsätzliche Reformen bilden.

Googles globaler Marktanteil von 80 Pro­zent aller Suchanfragen sowie Face­books und Youtubes Marktanteil von 70 Prozent bei den sozialen Netzwerken sind Ausdruck des beispiellosen Konzentrationsprozesses der kommunikativen Infrastrukturen. Mit der wachsenden Bedeutung digitaler Öffent­lichkeiten verlagert sich die Kommunikation in der Gesellschaft hin zu einem markt­orientierten Bereich, in dem jeder Sprechakt seinen Preis hat. Priva­te Unternehmen stellen öffentliche digitale Diskurs­räume bereit; der Zugang zu ihnen wird kontrolliert. Mitspracherecht hat nur, wer ein pri­vates Vertragsverhältnis eingeht und seinen Beitrag entweder finanziell oder in Form wirtschaftlich nutzbarer Daten leistet.

Eine bedingungslose demokratische Be­teiligung, die nur den Bürgerstatus voraus­setzt, ist in diesen für Vermarktungszwecke entwickelten sozialen Netzwerken nicht vorgesehen. Dies wäre in etwa mit einer Situation zu vergleichen, in der nicht nur das Parlamentsgebäude im Besitz eines pri­vaten Anbieters ist und der Zugang zu ihm nach wirtschaftlichen Kriterien geregelt wird, sondern auch die Lautstärke der Laut­sprecher und die Übertragung von Reden nach außen marktgerecht bewertet werden. Dieser Machtkonzentration werden die bis­herigen Regulierungsansätze der EU, zum Beispiel das Drängen auf freiwillige Selbst­verpflichtungen, nicht gerecht. Folge­richtig kritisieren Rat und Kommission den zurzeit gültigen Verhaltenskodex. Er enthalte »keine gemeinsamen Maßnahmen, keine substantiellen Ver­pflich­tungen, keine ›com­pliance‹ oder Durch­setzungsmaßnahmen«. Als im Dezember 2018 persönliche Daten zahlreicher deutscher Politiker illegal ver­öffentlicht wurden, reagierte die Online-Plattform Twitter trotz der Selbstverpflichtung des Kodexes nur schleppend. Große Platt­formenanbieter haben in Europa kaum Kon­kurrenz zu befürchten, so dass nur eine grundsätzliche Reform der Kartellgesetz­gebung bleibt. Die bisherigen Verfahren zu Bewertung und Kontrolle von Monopolen greifen oftmals zu kurz.

Ein zentrales Problem besteht in der Fusionskontrolle. Große Firmen kaufen aufkeimende, kleinere Kon­kurrenz-Start-ups, bevor diese zu einer Bedrohung des Geschäftsmodells werden können. Schla­gendes Beispiel dafür ist die Übernahme von WhatsApp und Instagram und die Zusammenführung von Nutzerdaten durch Facebook. Nicht mehr Wahlwerbung im Fernsehen oder der Stand in der Einkaufsstraße sind wahlentscheidend, sondern Technologien Künstlicher Intelligenz wie Microtargeting. Mit ihnen werden gezielt wechselbereite Wähler angesprochen, die oft das Zünglein an der Waage ausmachen. Nur die EU mit ihrer Wirtschaftskraft als Ganzes kann gegen die Macht transnatio­naler Digi­tal­konzerne angehen. In diesem Zusammenhang sind die EP-Wahlen ein historischer Wendepunkt: Europapolitik bedeutet, die großen, grundsätzlichen The­men der europäischen Kommunikationsordnung anzugehen, etwa die Kontrolle von Plattformmonopolen und übermäßiger kommunikativer Machtmacht. Im Europawahlkampf müssen Parteien und politische Organisationen sich verpflichten, Trans­parenz in ihre Kampagnentätigkeit zu brin­gen und den Einsatz von social bots zu unterbinden.

Dr. Annegret Bendiek ist stellvertretende Leiterin (a.i.) der Forschungsgruppe EU / Europa. Dr. Matthias Schulze ist Wissenschaftler in der Forschungsgruppe Sicherheitspolitik.

© Stiftung Wissenschaft und Politik, 2019

SWP

Stiftung Wissenschaft und Politik

ISSN 1611-6364

SWP-Studie

Günter Seufert
Ein Präsidialsystem »türkischer Art«

Konzentration der Macht auf Kosten politischer Gestaltungskraft


Sabine Fischer
Der Donbas-Konflikt

Widerstreitende Narrative und Interessen, schwieriger Friedensprozess