„Internet reparieren oder abschalten“: Ein Appell für algorithmische Transparenz

In einem Blogbeitrag analysiert Jeffrey Inscho das grundlegende Problem von Plattformen wie Facebook oder X. Er argumentiert, dass diese entgegen eigener Behauptungen wie journalistische Medien agieren, da sie durch ihre Algorithmen entscheiden, welche Inhalte Nutzer sehen. Dabei würden sie gezielt polarisierende und spaltende Beiträge bevorzugen, da diese mehr Interaktion und somit mehr Gewinn generieren. Da eine Selbstregulierung der Unternehmen gescheitert sei, sieht Inscho eine strikte Regulierung als einzige Lösung. Er fordert zwei zentrale Maßnahmen: Erstens, algorithmische Transparenz, die Unternehmen zur Offenlegung ihrer Content-Filterregeln zwingt. Zweitens, algorithmische Verantwortung, bei der Plattformen für die Verbreitung schädlicher Inhalte wie Gewaltaufrufe haftbar gemacht werden. Sein radikaler Appell lautet: Das Internet reparieren oder abschalten.

Jeffrey Inscho fasst in einem Blogbeitrag kurz aber präzise das Problem mit Plattformen wie Facebook oder X zusammen. STATICMADE

  1. Plattformen sind entgegen der eigenen Behauptungen journalistische Medien. Sie veröffentlichen zwar keine eigenen Beiträge, sie entscheiden aber, welche Beiträge Nutzer zu sehen bekommen.
  2. Plattformen zeigen keine versöhnlichen und gemeinschaftsbildenden Inhalte an. Ganz im Gegenteil verstärken sie die Sichtbarkeit von polarisierenden und spaltenden Inhalten, da diese mehr Gewinn erzielen.

„For years, these companies have hidden behind Section 230 protections while operating more like media companies than neutral platforms. They’ve used recommendation algorithms to actively shape what billions of people see every day, then claimed they bear no responsibility for the consequences. It’s like a newspaper publisher claiming they’re not responsible for what appears on their front page because they didn’t write the articles themselves.“

Niemand darf erwarten, dass die Plattformen selbst zu einer Lösung beitragen, daher gibt der Autor Vorschläge:

  1. Algorithmische Transparenz: Die Unternehmen müssen offen legen, nach welchen Regeln Nutzern Inhalte gezeigt werden.
  2. Algorithmische Verantwortung: Wenn eine Plattform Inhalte anzeigt, die zur Gewalt aufrufen, dann muss das dahinter stehende Unternehmen zur Verantwortung gezogen werden.

Inscho schließt seinen Beitrag mit einem radikalen Appell:

„Turn off the internet. Or fix it. Those are the only choices we have left. The time for hoping these companies will self-regulate is over. The time for treating algorithmic manipulation as an inevitable part of modern life is over. We know what these systems do. We know who they hurt. The only question left is whether we’re going to do something about it.“

Müller & Wulff GmbH | Digitale Produkte und Individualsoftware aus Mecklenburg-Vorpommern