Wer wacht übers Web
Staffel 1 Folge 6

Wer wacht übers Web

Triff die Menschen, die deinen Social Media Account aufräumen. What? Jetzt das Staffelfinale von aweb hören! Weiteres Material zur Sendung

Weiteres Material zur Sendung

Was sollte, wenn überhaupt, aus den Online-Medien verbannt werden? Und wer sollte gewalttätige und explizite Inhalte überprüfen, um zu entscheiden, ob sie für die Öffentlichkeit in Ordnung sind? Tausende von Menschen auf der ganzen Welt arbeiten täglich lange, schwierige Stunden als Content-Moderatoren zur Unterstützung von Websites wie Facebook, Twitter und YouTube. Sie orientieren sich an komplexen und sich verändernden Richtlinien und ihre Arbeit kann zu psychologischen Traumata führen. Aber die Praxis der Inhaltsmoderation wirft auch Fragen nach Zensur und freier Meinungsäußerung im Internet auf.

Wir hören die Geschichten von Content-Moderatoren, die auf den Philippinen arbeiten, erzählt von den beiden Regisseuren der großartigen Dokumentation “The Cleaners”, Hans Block and Moritz Riesewieck.

Wir unterhalten uns außerdem mit Elisabeth Niekrenz, politische Referentin bei dem Digitale Gesellschaft e.V, über Regulationen. Und wir reden darüber, wer hier eigentlich was entscheiden kann, soll, darf.

Hat euch die Staffel gefallen? Oder nicht so? Sagts uns hier

Transkript

Delete.

Ignore.

Delete.

Ignore.

Delete.

Ignore.

Delete.

[Das Stimmgewirr bricht abrupt ab. Stille]

[Jingle]

Anja: Hi, ich bin Anja.

Alice: Und ich bin Alice. Und ihr hört aweb, den Podcast von Firefox. Hier widmen wir uns den Themen, die das Netz bewegen – denn was das Netz bewegt, das bewegt auch den Rest. Die Grenze zwischen online und offline ist längst Geschichte. Das Virtuelle ist real. Deshalb wollen und müssen wir es ernst nehmen.

Anja: Heute geht’s hier um die Frage: Ist das, was wir im Web sehen, Videos, Social Media Posts und sowas, alles was wir sehen könnten? Und wenn nicht, wer entscheidet eigentlich, was auf sozialen Medien passieren kann– und was nicht?

Was im Netz passiert, was wir erleben und konsumieren, das beeinflusst unsere Wahrnehmung vom Rest der Welt. Das Internet ist real, und es schafft Realitäten. Aber: In wessen Realität leben wir da eigentlich? Wer sagt, wo’s lang geht und wo nicht? Aktuell sind das neben länderspezifischen Regulationen vor allem auch die großen Plattformen. Wir sprechen vielleicht von unserem Facebook-Konto, unserem Twitter-Account oder unserem Instagram – aber was da erscheinen und bleiben darf, was gesagt werden kann und was unsagbar ist, ist nicht immer so klar. Wir, als diejenigen, die diese Netzwerke mit Leben füllen, haben wenig bis nichts zu sagen. Wir sind nur zu Gast in der digitalen Realität der Plattformen. Und die kann jederzeit und ohne Vorwarnung geändert werden.

Was viele nicht wissen ist, dass die Realität der sozialen Medien bereits eine gefilterte ist. Ja, heute schon.

Wenn es um das Aussortieren von Inhalten geht, dann denken viele von euch bestimmt gleich an die Uploadfilter, die im Zuge der EU-Urheberrechtsreform eingeführt werden sollen. Gegen den umstrittenen Artikel 13 der Reform wurde massiv demonstriert. Darüber haben wir auch in unserer ersten Folge, „Das Web wählt mit“, gesprochen. Hört da ruhig nochmal rein, falls das Thema jetzt doch eher neu ist. Tatsächlich ist es aber so, dass zumindest die sozialen Medien schon lange gefiltert werden. Das nennt sich dann Content Moderation.

Alice: Das moderne Internet lebt von user-generated content, also von Bildern, Videos und Texten, die wir hochladen. Die Anzahl der Uploads steigt ständig. Einen Überblick zu behalten ist da nahezu unmöglich. So passiert es auch immer wieder, dass fragwürdige Inhalte im Netz landen, die man nicht sehen will.

Vor kurzem gingen Fotos der ermordeten Instagrammerin Bianca Devins durchs Netz. Der mutmaßliche Mörder hatte die Bilder offenbar selbst gepostet. Die Fotos der Leiche wurden vielfach geteilt und blieben auch deshalb erschreckend lange online. Selbst die Angehörigen der Ermordeten bekamen die schrecklichen Bilder zu Gesicht. Auf Facebook schrieb Biancas Stiefmutter: „Ich werde für immer diese Bilder im Kopf haben, wenn ich an sie denke. Wenn ich meine Augen schließe, verfolgen sie mich.“

Anja: Aber wie oder was kann man denn da machen? Um die Auswirkungen von schädlichem Nutzerverhalten zu mildern, beschäftigen viele Plattformen sogenannte Content Moderatoren. Manche arbeiten direkt bei der Plattform, andere extern.

Allein Facebook beschäftigt tausende Content Moderatoren. Viele arbeiten bei Sub-Unternehmen in Manila, der Hauptstadt der Philippinen. Von dort aus sorgen sie dafür, dass wir nicht alles zu Gesicht bekommen, was hochgeladen wird.

Alice: Moment? In Manila? Das heißt, da wird entschieden, wie sich unsere Social Media Realität formt?

Anja: Hans Block und Moritz Riesewieck fanden das auch total abgefahren und haben den absolut empfehlenswerten Dokumentarfilm „The Cleaners“ gemacht. Ihr Film erzählt die Geschichte einer gigantischen Schattenindustrie, in der digitale Zensur und Ideologien das bestimmen, was wir Nutzer von Sozialen Medien als Realität wahrnehmen. Es geht hierbei um viel mehr, als bloße Filterblasen.

[SOUNDBETT: Stimmgewirr vom Anfang fadet ein]

Hans Block: In den meisten Fällen sitzt so ein Mensch irgendwo im 23. Stock irgendwo über der Stadt Manila oder in einem anderen Outsourcing-Hotspot weltweit. Sitzt in einem Großraumbüro, wo diese klassischen Arbeitskabinen drin sind, die man auch so von Call-Centern kennt, und klickt sich den ganzen Tag durch tausende Bilder und Videos unterschiedlicher Art, von […] Hassrede über Pornographie, teils sehr abartige Pornographie […], Terror-Videos, Gewalt-Videos und so weiter, und muss dann immer innerhalb von wenigen Sekunden entscheiden: Darf bleiben, oder muss gelöscht werden. Das nennt sich dann „delete oder ignore“.

Das war so absurd und so abwegig für uns, dass jemand in Manila sitzend, 10.000 Kilometer entfernt von unserer Heimat, plötzlich darüber entscheidet, was hier in Deutschland ein Hass-Post ist, der gelöscht werden muss, […] oder eben nicht.

Moritz Riesewieck: Und wegen der Geschwindigkeit, mit der das zu bearbeiten ist, greifen die dann auch meist einfach zu Google Translate, haben sie uns erzählt.

Und da eh nur ein Bruchteil der Entscheidungen, die dort getroffen werden, kontrolliert wird von einem Vorarbeiter oder einer Vorarbeiterin, können die sich das auch erlauben, im Zweifel für die Geschwindigkeit zu entscheiden und dann lieber zu übersetzen durch Google Translate, statt das weiterzuleiten, wie eigentlich das Prozedere sein sollte, an einen language specialist

Alice: Um zu entscheiden, was zu löschen ist und was stehen bleiben darf, bekommen die Moderatoren von den Plattformen oft umfangreiche Regelwerke an die Hand. Die zu verinnerlichen und dann in Sekundenschnelle Entscheidungen treffen zu müssen, ist allerdings keine einfache Aufgabe.

Einige von ihnen sind aber auch echt stolz auf das, was sie tun und den Beitrag, den sie leisten. Sie sehen sich selbst als eine Art Netzpolizei. Das haben sie jedenfalls den Filmemachern gesagt.

Hans Block: Eine Moderatorin hat zu uns gesagt: Ihr könnt euch gar nicht vorstellen, wie das Internet aussähe, wenn wir nur für ein paar Stunden nicht arbeiten würden. Es wäre eine totale Hölle; es wäre ein totales Chaos, was euch da begegnen würde. […] Das hat uns überrascht, und das musste man auch erstmal begreifen in dem Moment, weil man natürlich sich vorstellen konnte, für einen so geringen Lohn so viele Stunden vor dem Rechner zu sitzen und mit einem Bildermeer voller Horror konfrontiert zu sein jeden Tag – das ist erstmal nur schlimm. Sie suchen sich aber einen Weg und füllen diese Arbeit mit einem Sinn, mit einem Inhalt, und machen das sozusagen als ‘ne Art Mission.

Anja: Mit dem, was die Moderatoren auf der Arbeit sehen, bleiben sie allein. Hans und Moritz sagen: Die Content-Moderatoren unterschreiben Schweigepflichtserklärungen, die es ihnen verbieten, selbst mit engsten Angehörigen und Freunden über das Gesehene zu sprechen. Dabei wissen viele Content-Moderatoren anfangs gar nicht, worauf sie sich einlassen. Die Firmen tun nämlich ihr möglichstes, um auch das geheim zu halten.

Moritz Riesewieck: Die geben dem Job andere Namen. […] Das heißt dann oftmals, ‘Community Operations Analytic’ oder ‘Data Analysts’ werden diese Leute genannt. Auch bei der Jobausschreibung wird das Ganze noch großzügig umschrieben, was da stattfindet. Das heißt in vielen Fällen wissen die Bewerberinnen und Bewerber um diesen Job gar nicht, worum sie sich bewerben.

Anja: Da sollen also Menschen, die tausende Kilometer von uns entfernt in einer anderen Kultur leben, darüber entscheiden, was wir hier in Europa zu Gesicht bekommen dürfen und was nicht. Das ist doch ein verantwortungsvoller und vor allem auch extrem wichtiger Job. Man sollte meinen, die Plattformen würden alles tun, um die besten Leuten dafür zu rekrutieren und ihnen die beste Ausbildung zuteil werden zu lassen. Stattdessen werden in Manila und anderen Outsourcing-Hotspots Leute auf der Straße angesprochen und mit vagen Versprechen gelockt.

Für viele Content-Moderatoren bringt der erste Tag im neuen Job ein böses Erwachen. Wenn die Neueinsteiger dann klar sehen, ist es aber oft schon zu spät.

Hans Block: Es gibt eine Szene in unserem Film, wo genau dieser Moment von einer Content-Moderatorin beschrieben wird, wo sie sagt: Und plötzlich habe ich ein Bild gesehen, auf dem ein Kind zu sehen war, dass voller Sperma bespritzt war. Und ich wusste in diesem Moment, ich ertrag’ nicht, das zu sehen; ich muss diesen Job verlassen. Und sie ist zittrig zu ihrem Vorarbeiter gegangen und hat gesagt: Ich kann das nicht, ich muss hier weg. Ich ertrage das nicht. Und die einzige Antwort, die sie zu hören bekommen hat war, dass der Teamleiter gesagt hat: Du hast einen Vertrag unterschrieben. Du musst jetzt hier weiter arbeiten. Und dann hat sie das gemacht.

Das ist das, was der Status Quo dort ist. Es sind wirklich […] sehr, sehr bedenkliche Arbeitsbedingungen.

Anja: Diese bedenklichen Arbeitsbedingungen haben für die Moderatoren schwerwiegende Folgen. Einige entwickeln posttraumatische Belastungsstörungen – so, wie zum Beispiel Soldaten nach einem Kriegseinsatz. Mit diesen Problemen bleiben viele Content-Moderatoren in Manila allein. Das hat in der Vergangenheit schon zu dramatischen Konsequenzen geführt.

Moritz Riesewieck: Wir haben von einem Suizidfall erfahren, wo ein Content Moderator […] spezialisiert war für […] Suizidtaten. Also self-harm Videos, wo Leute sich selbst verletzten oder sich selbst umbringen, musste der täglich moderieren; hat öfter darum gebeten versetzt zu werden von dieser Position, weil er es nicht mehr ertragen konnte. Dem wurde nicht nachgegeben vom Unternehmen, und schließlich hat er sich selbst erhängt in seiner Wohnung – vor einem Laptop. Und das ist kein Einzelfall, wie uns bestätigt wurde von anderen Moderatoren. Es ist ein wirklich ernstzunehmendes Problem dieser Industrie.

Alice: Eine angemessene psychologische Betreuung könnte dazu beitragen, solche Vorfälle zu verhindern. Wenn es darum geht, eine solche Betreuung für ihre Content-Moderatoren zu stellen, ziehen viele Plattformen sich aber aus der Affäre. So haben das jedenfalls Moritz und Hans am Beispiel von Facebook erlebt.

Moritz Riesewieck: Wann immer Facebook damit konfrontiert wird, dass sie ja psychologische Betreuung gewährleisten müssen für ihre outgesourcten Arbeiterinnen und Arbeiter, wann immer jemand sie darauf anspricht, verkünden sie ja, dass sie die Outsourcing-Partner darauf hingewiesen haben, dass eine solche psychologische Betreuung zu gewährleisten sei. Damit hört dann aber auch die Verantwortlichkeit Facebooks auf. […]

Anja: Wo Nutzer Content hochladen können, muss sichergestellt werden, dass es sich nicht um illegale oder schädliche Inhalte handelt – klar. Für Content-Moderatoren ist der Job aber oft zu viel. Sind automatisierte Uploadfilter also vielleicht doch eine Lösung? Könnte künstliche Intelligenz die menschlichen Moderatoren entlasten? Moritz und Hans haben sich auch mit dieser Frage beschäftigt.

Hans Block: Natürlich gibt es schon eine extrem starke Bilderkennungs-Software, die uns sagen kann: Da befindet sich Blut in dem Bild, da befindet sich ein Panzer in dem Bild, da befindet sich ein Air Strike – also ein Bombeneinschlag – in diesem Bild. Das ist machbar. Doch der Kontext dieses Bildes ist das Entscheidende, denn ein Bild kann zum Beispiel einen Nachrichtenwert haben. Also ein Bombeneinschlag kann sehr wichtig sein zu senden, weil man dann mitkommt: Da, in dieser Region, hat gerade ein Bombeneinschlag […] stattgefunden. Ein Bild kann aber auch als Propaganda-Material – was ganz, ganz ähnlich aussieht – verwendet werden, vom Islamischen Staat beispielsweise.

Und diese feinen Unterschiede […] zu erkennen, das kann mittlerweile eine Maschine noch nicht. Dafür bedarf es Menschen, die den Kontext erkennen, die das kontextualisieren, und im Zweifel genau diese sehr, sehr schwammige und graue Zone sich da durch manövrieren von hunderten von Regeln, die sie von Facebook haben, und entscheiden: Ist das jetzt erlaubt oder ist das nicht erlaubt?

Ist das nackte Kind auf dem Bild ein Urlaubsbild am Strand an der Ostsee im FKK-Bereich, was unbedenklich ist, oder ist es […] ein Kindesmissbrauchs-Video, oder kinderpornographisches Material? Diese feinen Unterschiede muss man als Mensch erkennen; das kann leider eine Maschine noch nicht leisten. Deswegen wird uns dieser Job auch in den nächsten Jahren noch sehr, sehr weiter beschäftigen, weil ja auch die Zahlen von Uploads immer größer werden. […] Das Material, was hochgeladen wird, vermehrt sich ja ungemein, und es braucht immer mehr Leute, die dafür sorgen, dass unsere sozialen Netzwerke – ich benutz’ jetzt Anführungsstriche – „hygienisch“ bleiben.

Moritz Riesewieck: Wir sehen Uploadfilter auch extrem kritisch, denn…

… diese Idee ist natürlich nachvollziehbar, indem man sagt: Ist doch besser, wenn man das gleich rausfischt, als wenn das jetzt schon die Runde gemacht hat. Führt aber ja dazu, dass wir als Öffentlichkeit gar nicht mehr mitbekommen, was alles verschwindet in jeder Sekunde. Wir können ja gar nicht mehr nachvollziehen, welche Firmen welchen Inhalt aus welchen Beweggründen rausgenommen haben.

Alice: Solange die Deutungshoheit darüber, was im Netz stattfinden darf, teilweise bei den Plattformen bleibt, bleiben wir als Nutzer auch beschränkt auf ihre Sicht der Welt. Wir haben kaum eine Möglichkeit, gegen Fehlentscheidungen vorzugehen – und Fehlentscheidungen sind nun mal vorprogrammiert, wenn die Entscheidung “delete or ignore” blitzschnell gefällt werden muss. Und das ist noch der günstigste Fall: Die bestehende Regulation ermöglicht grundsätzlich auch gezielte Zensur. Sollte eine Plattform eines Tages entscheiden, beispielsweise Content aus einer bestimmten politischen Richtung nicht mehr zu zeigen, sind wir der facto machtlos dagegen. Mit wenigen Knopfdrücken können die Plattformen unsere Realität einschneidend beschränken – heute schon.Trotzdem wird das Netz fröhlich weiter reguliert – auch seitens der Politik.

Schon seit Oktober 2017 greift in Deutschland das Netzwerkdurchsetzungsgesetz. Das reguliert den Umgang mit Hasskriminalität und anderen rechtswidrigen Inhalten auf sozialen Netzwerken. Seitdem müssen die Plattformen es ermöglichen, möglicherweise illegale Inhalte schnell und unkompliziert zu melden. Vor allem werden sie aber dazu verpflichtet, solche Inhalte nach Prüfung zeitnah zu löschen, oder zumindest den Zugang dazu zu sperren. Klingt erstmal vernünftig, birgt aber so einige Tücken. Zum Beispiel sperrte Twitter vor der Europawahl einige deutsche Satire-Accounts wegen des Verdachts auf Wahlbeeinflussung. Satire darf alles? Nur, wenn der Content Moderator den Witz versteht. Ups.

Anja: Trotzdem sprechen viele Politikerinnen und Politiker in Deutschland und auf EU-Ebene sich weiterhin für eine flächendeckende Einführung von Uploadfiltern aus. Das würde bedeuten, dass bestimmte Inhalte gar nicht mehr hochgeladen werden können, die Netz-Öffentlichkeit also nicht mehr erreichen.

Tatsächlich kommen solche Filter in einigen Teilbereichen heute schon zur Anwendung, ohne, dass viel darüber geredet wird. Auf EU-Ebene werden Uploadfilter zum Beispiel zur Bekämpfung von Terror-Propaganda benutzt. Und das könnte noch weitreichende Folgen haben, sagt Elisabeth Niekrenz. Sie arbeitet als politische Referentin bei dem Digitale Gesellschaft e.V. und hat sich ausführlich mit dem Thema beschäftigt.

Elisabeth Niekrenz: Im Zusammenhang mit dem Großwerden oder dem Aufkommen des Islamischen Staates, oder vor allem auch, als der Islamische Staat davon abgekommen ist, eigene Websites zu haben, sondern stärker Social Media genutzt hat, um groß zu werden, […] da sind Bemühungen laut geworden – international, aber auch eben in der EU – das einzudämmen. Insbesondere seit 2015 macht die EU-Kommission den Anbietern relativ starken Druck. Man hat also das sogenannte EU-Internetforum zusammengerufen. […] Zunächst waren da Microsoft, YouTube, […] Facebook und Twitter […] sozusagen dabei, und die haben nun versucht, Maßnahmen auszuarbeiten, wie man gegen terroristische Inhalte vorgehen kann. Und zwar haben sie begonnen, ‘ne elektronische Filterung einzuführen, sogenannte Uploadfilter.

Die sind aus der Urheberrechtsrichtlinie bekannt. Und diese […] Uploadfilter sollen also terroristische Inhalte wiedererkennen – vielleicht sogar erkennen – und automatisch den Upload verhindern, oder, wenn sie schon hochgeladen worden sind, sie im Nachhinein […] herausnehmen.

Anja: Noch handeln die Plattformen hier freiwillig, wenn auch mit einigem Druck. Das könnte sich aber schon bald ändern. Der sogenannte Digital Services Act soll die Anbieter künftig per Gesetz verpflichten, ihre Netzwerke strenger zu kontrollieren und zu regulieren. Das Regelwerk hierzu möchte die EU flächendeckend für alle Mitgliedstaaten vorgeben. Sollte das so passieren, wäre das Internet, wie wir es kennen, womöglich Geschichte. Elisabeth Niekrenz erklärt, warum.

Elisabeth Niekrenz: Es gibt die sogenannte EU-Commerce-Richtlinie. Das ist ein Regelwerk aus dem Anfang der 2000er-Jahre, und das enthält eine Haftungsfreistellung für Internet-Anbieter im Hinblick auf die Inhalte, die User bei ihnen hochladen. Da steht also drin, die Mitgliedstaaten dürfen Plattformen nicht dazu verpflichten, sogenannte generelle Überwachungspflichten einzuführen. […] Sie können sozusagen nur dann verpflichtet werden oder verantwortlich gemacht für Inhalte, wenn sie von denen wissen. […] Dieses Haftungsprivileg ist eigentlich ‘ne Voraussetzung für die […] user-generated-content-Plattformen, so wir sie kennen, wo alle möglichen Leute was hochladen können.

In der kommenden Legislaturperiode steht auch an, dass dieses Prinzip ganz allgemein überarbeitet werden soll.

Alice: Die Haftungsfreistellung der Plattformen steht also auf der Kippe – und damit auch das Internet, so wie wir es kennen.

Jetzt könnte man fragen: Was ist eigentlich so schlimm an Uploadfiltern? Ich will ja keine Enthauptungs-Videos sehen, und auch keine Leichen und keine Kinderpornographie. Wenn die sozialen Netzwerke das alles jetzt filtern müssen, das ist doch super. Dagegen kann doch niemand ernsthaft was haben. So argumentiert auch die Politik gern. Elisabeth Niekrenz sieht das Ganze ein bisschen anders. Sie findet sogar: An der Verordnung zur Bekämpfung von Terror-Propaganda lässt das Problem sich sehr gut erkennen.

Elisabeth Niekrenz: Das klingt auf den ersten Blick erstmal ganz vernünftig, was da drinsteht. Da geht es um so etwas wie den Aufruf zu oder die Befürwortung von terroristischen Straftaten, die Förderung von Aktivitäten von terroristischen Vereinigungen. […] Das kann man zunächst gut nachvollziehen. Das Problematische an dieser Definition ist, dass sie noch nicht sagt, was eine terroristische Straftat ist oder eine terroristische Vereinigung und dazu auf eine ältere EU-Richtlinie verweist von 2017, die ihrer Zeit erheblich kritisiert worden ist von Menschenrechtsorganisationen. Darin wird nämlich zum Beispiel das Kapern von öffentlichen Verkehrsmitteln oder Gütertransportmitteln mit dem Ziel, eine öffentliche Stelle oder internationale Organisation rechtswidrig zu einem Tun oder Unterlassen zu zwingen, als terroristische Straftat klassifiziert. Und da kann man jetzt natürlich überlegen, na ja, ich weiß nicht, wenn „Ende Gelände“ mal ‘nen Linienbus kapern sollte, sich dessen bemächtigt und damit möglicherweise ‘ne Blockade gegen die Polizei aufbaut, ist das dann wirklich Terrorismus? Und da kommen wir so’n bisschen in den Bereich, wo also durchaus auch politischer Aktionismus betroffen sein kann.

Ganz bemerkenswert ist: Wesentliche Kritiker dieser Richtlinie sind zum Beispiel drei UN-Sonderberichterstatter, die sich mit Meinungsfreiheit, Informationsfreiheit und den […] Menschenrechten im Anti-Terror-Kampf auseinandersetzen, die einen gemeinsamen Bericht verfasst haben und in diesem Bericht die EU-Institutionen explizit darauf hinweisen, dass auch solche Inhalte, die den Staat angreifen, schockieren oder stören vom Recht auf freie Meinungsäußerung umfasst sind.

Anja: Trotz kritischer Gegenstimmen und offensichtlicher Probleme will die Politik in Zukunft immer mehr auf automatische Uploadfilter setzen. Horst Seehofer etwa forderte schon 2018, dass terroristische Inhalte im Netz binnen einer Stunde erkannt und entfernt werden müssten. Er ist außerdem für eine Ausweitung der Filterung auf Kinderpornographie und alle anderen rechtswidrigen Bereiche. Wozu das führen könnte, dazu braucht es nicht viel Fantasie, meint Elisabeth Niekrenz:**

Elisabeth Niekrenz: Nehmen wir mal eines der EU-Länder, in denen es sehr stark rechtsstaatswidrige Tendenzen gibt. Sagen wir mal, die ungarische Regierung nimmt es sich vor, bestimmte kritische Inhalte aus dem Netz zu verbannen. Da haben zum Beispiel Journalisten jetzt ‘n Video, ‘ne Dokumentation erstellt, die Missstände in der ungarischen Regierung aufzeigt. […] Im schlimmsten Fall, wenn wir […] dazu kommen, dass wir sozusagen ‘ne Filter-Infrastruktur haben, die verpflichtend auf allen Plattformen gilt und für die es keine Rechtsmittel gibt, und das ist derzeit der Fall, dann könnten Ermittlungsbehörden einfach die Hashes von diesem Video in die Datenbank, die sozusagen dazu dienen soll, die Uploadfilter zu füttern oder zu bestücken, hochladen, und dann würde der Upload an allen Stellen unterbunden werden. […]

Das heißt, konkret befürchte ich, dass hier ein Instrument geschaffen wird, wo, sobald die falschen Personen an die Stellen kommen, an denen sie entscheiden können, ‘n sehr, sehr starker Missbrauch stattfinden kann, der dazu dienen kann, politischen Widerstand, politische Opposition auch, schlicht […] klein zu halten. Und das halte ich zu einem Zeitpunkt, zu dem autoritäre Regierungen an vielen Orten der Welt, auch in Europa, an Auftrieb gewinnen, für ‘ne ganz, ganz schlechte Idee.

[Outro-Jingle setzt ein]

Anja: Das Internet hat sich in den letzten Jahren massiv weiterentwickelt. Es ist jetzt ein junger Erwachsener! Es kann schon sein, dass es da neue, veränderte Regeln braucht. Wie die aussehen sollen und wer darüber entscheiden darf, ist allerdings noch offen.

Das Internet ist ein riesiger, wunderbarer Spielplatz – aber eben auch viel mehr als das. Es ist ein unverzichtbarer Teil unserer Gesellschaft geworden; ein Ort, der zugleich überall und nirgendwo existiert; ein Ort, den wir von überall her erreichen können; ein Ort, an dem alles möglich ist – noch. Politik und Plattformen sind jedoch gerade dabei, das grundlegend zu ändern.

In der ersten Staffel von aweb haben wir uns damit beschäftigt wie das Internet Wahlen beeinflusst. Wir haben über die Kinder geredet, die ganz selbstverständlich in der digitalen Welt aufwachsen und sich dort oft besser zurechtfinden als ihre Eltern. Wir haben herausgefunden, wie die Influencer-Kultur unsere Vorstellung von Ruhm und Erfolg verändert hat. Wir wollten wissen, wie düster das mysteriöse Darknet wirklich ist, und wir sind der Frage nachgegangen: Wie sieht die Zukunft des Web aus?

Die Zukunft ist nicht in Stein gemeißelt – zum Glück. Deswegen war unsere Folge zum Thema auch eher spekulativ. Aber es gibt einen klaren Trend. Der geht dahin, dass immer weniger Leute immer schneller darüber entscheiden, was wir im Netz zu sehen kriegen – und was eben nicht. Content Moderation, Uploadfilter und Co. sind nur einige Beispiele dafür. Die Absichten dahinter mögen gut sein – das Missbrauchspotential aber ist riesig. Als Netzbürgerinnen und Netzbürger stehen wir vor der Frage: Sind wir bereit, immer mehr Freiheit zu opfern für einen Anschein von Sicherheit – oder wollen wir ein anderes, ein offeneres Internet, so wie es ursprünglich gedacht war? Diese Frage muss jeder für sich selbst beantworten, und das können wir nur, wenn wir informiert sind. Wir hoffen, dass wir mit diesem Podcast ein Stück weit dazu beitragen konnten.

Alice: Damit ist die erste Staffel von aweb auch schon am Ende. Aber Firefox kämpft natürlich weiter für euch – keine Frage. Wenn dir dieser Podcast gefallen hat, dann nimm’ doch an unserer Umfrage teil und verrate uns, worüber du in Zukunft gern mehr hören würdest. Wenn der Podcast dir nicht gefallen hat – erstmal: Respekt, dass du’s bis hierhin ausgehalten hast! Nimm’ gern trotzdem an der Umfrage teil und sag’ uns, was wir besser machen können. Ihr findet die Umfrage unter www.mzl.la/awebumfrage. Den Link zur Umfrage findet ihr natürlich auch in den Shownotes. Wir würden uns freuen, an dieser Stelle schon ganz bald weiter zu machen – mit neuen Themen, die das Web bewegen. Bis dahin…

Anja/Alice: Habt eine schöne Zeit!

Wie findest du aweb? Willst du mehr?

Mach bei unsere Umfrage mit!