EN

Algorithmen sind blind

Unser Vorstand Sabine Leutheusser-Schnarrenberger über die Gefahr der geplanten Uploadfilter
Auch im Netz wollen wir eine offene, faire und gesellschaftliche Debatte

Auch im Netz wollen wir eine offene, faire und gesellschaftliche Debatte

© EU-Komission

Dieser Artikel erschien erstmals in der Printausgabe des Handelsblatt am 08. Mai 2018. Autorin: Sabine Leutheusser-Schnarrenberger. © Handelsblatt GmbH. Alle Rechte vorbehalten.

Die EU hat Pläne in der Schublade, die ein Skandal sind. Geht es nach ihr, soll es künftig Filter für Uploads geben, die von den Plattformbetreibern angewendet werden müssen. Algorithmen sollen also künftig Inhalte gegen Urheberrechtsschutzverletzungen durchforsten. Sie verhindern, dass Texte, Bilder oder Ausschnitte eines Musikstücks oder Videos hochgeladen werden. Das Problem ist aber: Algorithmen können das gar nicht leisten. Sie sind meistens blind für Nutzungsrechte. Sie können nicht erkennen, welche Inhalte eigentlich zulässig wären und durch die Meinungsfreiheit geschützt sind. Ein Beispiel ist Satire. Wie soll denn ein Filter erkennen, dass es sich um Satire handelt und daher das Material rechtmäßig genutzt wird?

Bislang müssen Plattformen und Hoster erst rechtswidrige Inhalte entfernen, nachdem sie auf diese hingewiesen worden sind (das sogenannte Notice-and-take-down-Verfahren). Wenn künftig die Betreiber für alle nutzergenerierten Inhalte haften, besteht die Gefahr, dass sie im Zweifelsfall einen Beitrag eher sperren als erlauben. Durch dieses "Overblocking" würden wahrscheinlich auch rechtmäßig eingestellte Inhalte herausgefiltert, um einer späteren Haftung zuvorzukommen. Das wiederum berührt die Meinungs- und Kunstfreiheit.

Außerdem werden Plattformbetreiber wieder einmal zu eigenen Richtern. Die EU legt nicht fest, welche Standards für den Filterprozess gelten sollen. Im Moment sieht es so aus, als ob die Betreiber ihre eigenen Richtlinien aufstellen müssen. Und völlig unklar ist, welche Verfahren nach einer Löschung gelten sollen. Oder ob gelöschte Inhalte im Fall einer unrechtmäßigen Filterung wiederhergestellt werden. Wie soll der Interessenausgleich zwischen Rechteinhaber und Nutzer gestaltet werden? Für genau solche Fälle aber ist die Justiz zuständig - nicht ein privater Betreiber.

Was so harmlos daherkommt, birgt das größte politische Potenzial seit dem EU-Versuch, eine europaweite Zensurinfrastruktur einzuführen.