Desinformation
European Democracy Action Plan: Mechanismen statt Inhalte

Die EU-Kommission wählt die richtigen Ansätze zur Regulierung von Desinformation
Vera Jourova

Die EU-Kommissarin für Werte und Transparenz, Vera Jourova, auf einer Nachrichtenkonferenz zum neuen "European Democracy Action Plan".

© picture alliance / ASSOCIATED PRESS | Kenzo Tribouillard

Während man in Deutschland häufig das Gefühl hat, dass Desinformationen für den gesellschaftlichen Zusammenhalt und den demokratischen Diskurs keine ernstzunehmende Bedrohung darstellen, ist man auf europäischer Ebene schon deutlich weiter. Mit dem am 3. Dezember 2020 vorgestellten “European Democracy Action Plan” zeigt die EU-Kommission, insbesondere die liberale Vize-Kommissionspräsidentin Věra Jourová, dass sie die Probleme, die durch Desinformationen entstehen, nicht nur verstanden hat, sondern auch richtige Regulierungsansätze wählt.

"Wir wollen kein Wahrheitsministerium schaffen, Redefreiheit ist wesentlich", sagte  Jourová bei der Vorstellung des Action Plans und dies spiegelt sich auch bei den vorgestellten Maßnahmen gegen Desinformation wider. Dazu gehört zum einen, dass davon abgesehen wird, Inhalte zu regulieren. Etwas, das man noch zu wenig bis gar nicht in der deutschen Debatte um Maßnahmen gegen Desinformationen hört. Hier spielt sich der Diskurs unter Politiker:innen – wenn er denn überhaupt stattfindet – meist zwischen “Fake News” strafbar machen und “Inhalte löschen” ab. Beide Pole sind aber weder praktikabel, noch rechtsstaatlich vertretbar oder nachhaltig in ihrer Wirkung.

So ist es nicht nur erfreulich, dass im Action Plan konsequent von Desinformation gesprochen wird und der unscharfe Kampfbegriff “Fake News” gar nicht erst auftaucht, sondern auch, dass von einer bislang wirkungslosen Selbstregulierung auf regulierte Selbstregulierung (Co-Regulierung) umgeschwenkt wird. Dazu sieht der Action Plan beispielsweise vor, dass das Fact-Checking durch Partnerorganisationen auf den Social-Media-Plattformen deutlich transparenter und durch festgelegte Standards zu erfolgen hat. Diese Standards sollen einen Rahmen bieten, nach denen die kooperierenden Fact-Checking-Organisationen Inhalte prüfen und gegebenenfalls als “irreführend” oder “falsch” markieren. Das würde nicht nur den Plattform-Nutzer:innen dienen, sondern auch die Basis für eine bessere Zusammenarbeit zwischen Social-Media-Plattformen und Faktencheckern sorgen. Auch sollen die Maßnahmen gegen Desinformationen der Plattformen stärker überwacht und deren Wirkung nach festgelegten Erfolgsfaktoren überprüft werden. Ebenso soll die längst überfällige Bereitstellung von Daten für die Forschung unter Einhaltung der Datenschutzgrundverordnung gewährleistet werden. Dazu soll ein entsprechender Rahmen unter Einbeziehung aller relevanter Interessensgruppen entwickelt werden.

Zu begrüßen ist außerdem, dass der Action Plan die Mechanismen in den Fokus nimmt, die zur Verbreitung von Desinformation beitragen. Hier wird richtig angesetzt, indem die Akteure, beziehungsweise die Verbreitungsmechanismen adressiert werden, und nicht die eigentlichen Inhalte. Diese zu regulieren ist schlicht nicht möglich – abseits von rechtswidrigen Inhalten – und würde auf ein Wahrheitsministerium hinauslaufen. Der Action Plan schlägt vor, dass Plattformen Maßnahmen ergreifen müssen, die eine künstliche Verstärkung der Verbreitung von Desinformationen verhindern. Twitter hat dies beispielsweise schon bei den US-Präsidentschaftswahlen umgesetzt, als es nicht mehr möglich war, die als “irreführend” oder “falsch” markierten Tweets von Donald Trump mit “gefällt mir” zu markieren oder zu retweeten. Facebook verzichtete auf solche Funktionen und markierte nur – auch das erst spät – falsche Informationen des Präsidenten.

Zusätzlich sollen Plattformen dafür sorgen, dass das Geldverdienen mit Desinformationen erschwert wird. Dies adressiert vor allem die Akteure, die in Desinformationen kein Werkzeug zur Spaltung von Gesellschaften sehen, sondern als Instrument, um sich finanziell zu bereichern. Dazu sollen die Plattformen dafür sorgen, dass beispielsweise in Videos, die als “irreführend” oder “falsch” eingestuft wurden, keine Werbeanzeigen mehr eingeblendet werden. Ebenso hatten in der Vergangenheit Kriminelle “Nachrichtenportale” erstellt, die mit reißerischen, erfundenen “Nachrichten” Klicks auf Webseiten generiert haben. Durch die auf Webseiten oder in Videos eingeblendeten Werbebanner von Werbenetzwerken wurden erhebliche Summen verdient. Diese Maßnahme zielt sowohl auf die Werbenetzwerke auf den Social-Media-Plattformen ab, als auch auf Netzwerke, die Werbung auf Seiten Dritter ausspielen, wie beispielsweise Googles AdSense.  

Der vorgelegte Action Plan ist nicht mehr als ein Plan. Aber er macht Hoffnung, dass Mechanismen und Wirkweisen verstanden wurden, die zur Bedrohung von Demokratien im digitalen Raum beitragen. Er setzt an den Mechanismen an, die mit-ursächlich für die rasante digitale Verbreitung von Desinformationen auf Plattformen sind und nicht an den Inhalten. Damit schont er unsere Grund- und Bürgerrechte. Die vorgeschlagenen Maßnahmen können nur ein Anfang für eine gute Regulierung des digitalen Raums zum Schutze unserer Demokratien sein. Spannend wird dazu das Zusammenspiel mit dem Digital Services Act sein, der am 15. Dezember 2020 vorgestellt werden soll.