September 13, 2021
Von Contraste
144 ansichten


In den letzten Jahren wurde immer hĂ€ufiger darĂŒber diskutiert, dass Inhalte oder ganze Accounts von sozialen Plattformen gelöscht wurden. Diese Praxis wirft viele Fragen zu komplexen Themen auf. Aus Österreich arbeitet der BĂŒrgerrechtsverein epicenter.works an dem Gesetzesvorschlag, der derzeit im Europa Parlament verhandelt wird. FĂŒr CONTRASTE hat Brigitte Kratzwald mit Thomas Lohninger von epicenter.works gesprochen.

CONTRASTE: Ihr habt euch intensiv mit Plattformregulierung beschÀftigt. Was sind zentrale Themen dabei und wo liegen Probleme?

Thomas Lohninger: Die zentrale Frage ist, wer haftet fĂŒr einen illegalen Inhalt. Ein Internetanbieter ist genau so wenig zur Verantwortung zu ziehen fĂŒr Inhalte, die ich ĂŒber ihn bekomme, wie ein Telefonanbieter, wenn ich eine telefonische Bombendrohung bekomme, und diese Haftungsausnahme gilt auch fĂŒr Internetplattformen. Erst sobald der Plattformbetreiber durch eine Meldung Kenntnis erhĂ€lt, muss er tĂ€tig werden. FĂŒr diesen Meldevorgang wĂŒrden wir uns zum Beispiel mehr prozedurale Fairness wĂŒnschen. Weil natĂŒrlich sowohl die Rechte desjenigen, der etwas meldet, das er als illegal empfindet, wie auch die Rechte von jemandem, der etwas gepostet hat, was vielleicht gar nicht illegal ist, zu wahren sind, das ist derzeit ein sehr asymmetrisches VerhĂ€ltnis.

Wer entscheidet, ob etwas illegal ist?

Die Plattform kann ĂŒber die IllegalitĂ€t nicht letztgĂŒltig entscheiden, unserer Meinung nach sollte immer ein Rechtsweg offen stehen, damit die KlĂ€rung der IllegalitĂ€t in rechtsstaatlicher Hand ist. Wir wollen nicht, dass das verschoben wird hin zu den Plattformen und damit zu global operierenden Unternehmen.

Dann muss man klar unterscheiden zwischen illegalen Inhalten, die auf Grund von lokalen Gesetzen eben nicht von der Meinungsfreiheit gedeckt sind und jenen legalen Inhalten, die vielleicht trotzdem unliebsam sind oder man einfach auf der Plattform nicht haben will. Das ist der Großteil des Inhalts, der moderiert wird, und hier gibt es eine enorme Freiheit der Plattformen durch die GeschĂ€ftsbedingungen. Man kann alle Katzenvideos aus dem Internet löschen, wenn man ein soziales Netzwerk fĂŒr Hunde betreibt. Ein bekanntes Beispiel dazu ist die Nippel-Policy von Facebook, die eben sehr nach den amerikanischen Moralvorstellungen gestrickt ist. Weibliche Brustnippel sind absolutes no-go, Justin Biber kann oben ohne auf der Plattform sein.

Das heißt, qualitĂ€tsvolle Inhaltsmoderation mĂŒsste durch Menschen passieren, die in der Region sind, die Sprache sprechen, die Kultur verstehen und auch eine gewisse SensibilitĂ€t fĂŒr die Rechtstradition haben und nicht wie derzeit in NiedriglohnlĂ€ndern unter schlechten Arbeitsbedingungen solche Entscheidungen treffen.

Das heißt, ein Problem ist auch, dass das Internet global ist, die Menschen aber in ihren jeweiligen regionalen Kontexten leben und auch posten?

Ja, wir haben globale Plattformen, aber sehr unterschiedliche Standards fĂŒr Meinungsfreiheit. Überall da, wo der Staat neue Durchgriffsrechte gegenĂŒber Plattformen schafft, die sie an seine rechtlichen Standards binden, dann werden auch andere Weltregionen, die nicht den demokratischen oder rechtsstaatlichen Standards von Europa genĂŒgen, das Gleiche tun. Das haben wir gesehen mit den ĂŒber 17 LĂ€ndern, die das Netzwerkdurchsetzungsgesetz aus Deutschland ĂŒbernommen haben, das erste Land war Russland. In LĂ€ndern wie Belarus, wo bereits jetzt hunderte Oppositionsseiten durch die lokalen Telekombetreiber gesperrt werden, ist es fĂŒr viele Menschen eine Drohung, wenn lokale Gerichte dann auch Facebook-Posts sperren könnten.

Aus unserer Sicht ist es auch fĂŒr die Zukunft wichtig, dass eine Plattform nicht per Gesetz dazu verpflichtet werden darf, das Verhalten ihrer Nutzer*innen immer zu ĂŒberwachen, sondern erst im Einzelfall tĂ€tig werden darf. Die Frage ist, wie wird man denn tĂ€tig, die Löschung des Inhalts ist nicht immer das richtige Mittel.

Welche Mittel können sonst angewendet werden?

Wenn das wirklich hochgradig illegale Inhalte sind, wie die Dokumentationen von sexueller Gewalt an Kindern, dann ist die Löschung auch Beweismittelvernichtung, dann wĂ€re etwa eine strafrechtliche Verfolgung das weitaus sinnvollere Mittel. Die NGO Syrian Archive hat sich dagegen gewehrt, dass YouTube seine Löschpraxis auf Videos aus dem syrischen BĂŒrgerkrieg anwendet, weil damit auch Beweismittel gegen die Kriegsverbrecher in Syrien vernichtet wurden. Andere Dinge sind auf zivilrechtlichem Weg zu klĂ€ren, Persönlichkeitsrechte etwa sollten die Beteiligten untereinander ausstreiten und die Plattform schaut nur, dass die Rechtsdurchsetzung passiert. Im Kommunikationsplattformengesetz ist es deshalb so, dass wenn ein Inhalt gelöscht wird, er von der Plattform fĂŒr 30 Tage aufbewahrt werden muss fĂŒr eine etwaige Strafverfolgung.

Manchmal wĂ€re es einfach sinnvoller, dass man diese Inhalte in ihrer Reichweite anders behandelt. Ein viel wichtigeres Problem als löschen oder nicht ist aus meiner Sicht die Frage der sogenannten algorithmischen Amplifizierung von Inhalten. Also, was wird mir denn im Newsfeed auf Facebook angezeigt, welche YouTube-Videos werden mir als NĂ€chstes empfohlen. Das macht den Großteil der gesehenen Inhalte auf diesen Plattformen aus und insofern ist diese Reihung viel wirkmĂ€chtiger. Also: Das Problem ist nicht der verschwörungstheoretische Inhalt, der unter die Meinungsfreiheit fĂ€llt, man darf Blödsinn glauben, man darf auch Verschwörungstheorien glauben, aber die Reichweite, die den Leuten gegeben wird, ist ein Problem.

Das hĂ€ngt eben wieder mit den Algorithmen zusammen, beziehungsweise mit dem GeschĂ€ftsmodell der Plattformen. Verschwörungstheorien und andere extreme Inhalte sind leider perfekt dafĂŒr geeignet, möglichst lange unsere Aufmerksamkeit zu fesseln und davon leben Facebook, YouTube und Co. Vom Wall Street Journal wurde gerade gezeigt, wie etwa der TikTok-Algorithmus seine User*innen einschĂ€tzt und in eine Bubble lenkt. Wir fordern deshalb dringend mehr Transparenz beim Einsatz von Algorithmen, damit uns Nutzenden die EntscheidungssouverĂ€nitĂ€t bleibt.

Die Inhalte werden von realen Menschen moderiert, die Reihung aber durch Algorithmen gemacht?

So genau kann man das gar nicht mehr trennen. Bei viele Inhaltsmoderationen werden auch Algorithmen angewendet. WĂ€hrend der Corona-Pandemie wurden auf mehreren sozialen Netzwerken schon durch die ErwĂ€hnung von »Covid-19« in Schrift oder Ton Maßnahmen gesetzt. Auf Facebook wurde zum Beispiel fĂŒr jeden Post mit dem Begriff »Covid-19« eine Infobox eingeblendet, die auf amtliche Information zum Virus verweist. An anderer Stelle wurden ganze Videos gelöscht, auch wenn es Ärzte waren, die auf ihrem YouTube-Kanal nur ĂŒber das Virus und wie man sich schĂŒtzen kann aufklĂ€ren wollten.

Inhaltsmoderation ist aber grundsĂ€tzlich schwierig, weil wir haben ja kein »Wahrheitsministerium«. Manchmal, etwa bei Verleumdung, muss man vor Gericht einen Wahrheitsbeweis antreten. Aber oft betrifft das Fragen, bei denen wir uns als Gesellschaft uneinig sind, die Gegenstand aktueller Auseinandersetzungen sind, und es wĂ€re vermessen, wĂŒrden wir von einem globalen, profitorientierten Unternehmen erwarten, das fĂŒr uns zu lösen. Das wĂ€re ein schlechter Zugang, wenn es darum geht, demokratischen Diskurs und ein zivilisiertes Miteinander aufrecht zu erhalten.

Du hast vorhin auch von »unliebsamen« Inhalten gesprochen, das betrifft eher autoritÀre Staaten?

Das kommt ganz drauf an. Die hauptsĂ€chliche Art, wie Inhalte aus dem Internet gefischt werden, ist wegen Copyright-Verletzungen, weil es hier schnell um viel Geld geht und der Anreiz fĂŒr die Plattformen hier am grĂ¶ĂŸten ist, die runter zu nehmen. Ob die Person, die etwas wegen eines Urheberrechtsverstoßes meldet, wirklich Rechteinhaber ist, muss oft nicht einmal belegt werden. Daher ist das Urheberrecht ein sehr effektives Tool zur Internetzensur und das betrifft sowohl die USA wie auch Europa, wobei mit der Umsetzung der EU-Urheberrechtsrichtlinie in Europa die Karten in den nĂ€chsten Monaten nochmal neu gemischt werden.

Gibt es eine Vision, wie so ein Netzwerk ausschauen könnte, wo es nicht diese Machtasymmetrien gibt?

Spannende Frage. Ich glaube schon, dass ein Internet, das wieder dezentraler ist und nicht in diesen monolithischen Datensilos organisiert ist, ein besseres und ein bunteres wĂ€re. Die Entscheidung darĂŒber, was darf man wo sagen und was nicht, das ist eine zutiefst menschliche und die sollten wir als Gesellschaft und auch in Kleingruppen treffen können und nicht, dass das ein globaler Konzern fĂŒr uns entscheidet. Also hier wĂŒrde ich mir mehr PluralitĂ€t wĂŒnschen. Bei sozialen Netzwerken ist noch viel möglich, wie man zu einem föderierten System kommen könnte und ich glaube, dass bei öffentlichen Informationen auch InteroperabilitĂ€t, das Zusammenschalten von Plattformen, ein wichtiger Bestandteil sein kann, um der Machtkonzentration entgegen zu treten.


Aktuelle gesetzliche Situation in Bezug auf Plattformregulierung

Derzeit gilt in Deutschland das Netzwerkdurchsetzungsgesetz: https://cutt.ly/5QRA1iG

EinschÀtzung durch netzpolitik.org: https://cutt.ly/jQRA9Q5

In Österreich das Kommunikationsplattformengesetz: https://cutt.ly/oQRA7CH

EinschÀtzung durch epicenter.works: https://cutt.ly/DQIXtQL

Facebook hat dagegen eine Klage eingebracht, da aus ihrer Sicht die Vorgaben gegen eine EU-Richtlinie verstoßen wĂŒrden.

Auf EU-Ebene werden derzeit der Digital Service Act und der Digital Markets Act verhandelt, wo sich wo sich Epicenter.works aktiv einbringt und VorschlĂ€ge vorgelegt habt, die sich hier – leider nur auf Englisch – finden: platformregulation.eu. Dort wird etwa eine europĂ€ische Agentur fĂŒr die Plattformregulierung, die unter anderem auch Minimalstandards fĂŒr die Transparenz der GeschĂ€ftsbedingungen und der Inhaltsmoderation entwickeln.

Das EU Gesetz wird derzeit im Europa Parlament verhandelt und soll unter französischer RatsprÀsidentschaft 2022 beschlossen werden.


Titelbild: Pixabay




Quelle: Contraste.org