Jeffrey Inscho fasst in einem Blogbeitrag kurz aber präzise das Problem mit Plattformen wie Facebook oder X zusammen. STATICMADE
- Plattformen sind entgegen der eigenen Behauptungen journalistische Medien. Sie veröffentlichen zwar keine eigenen Beiträge, sie entscheiden aber, welche Beiträge Nutzer zu sehen bekommen.
- Plattformen zeigen keine versöhnlichen und gemeinschaftsbildenden Inhalte an. Ganz im Gegenteil verstärken sie die Sichtbarkeit von polarisierenden und spaltenden Inhalten, da diese mehr Gewinn erzielen.
„For years, these companies have hidden behind Section 230 protections while operating more like media companies than neutral platforms. They’ve used recommendation algorithms to actively shape what billions of people see every day, then claimed they bear no responsibility for the consequences. It’s like a newspaper publisher claiming they’re not responsible for what appears on their front page because they didn’t write the articles themselves.“
Niemand darf erwarten, dass die Plattformen selbst zu einer Lösung beitragen, daher gibt der Autor Vorschläge:
- Algorithmische Transparenz: Die Unternehmen müssen offen legen, nach welchen Regeln Nutzern Inhalte gezeigt werden.
- Algorithmische Verantwortung: Wenn eine Plattform Inhalte anzeigt, die zur Gewalt aufrufen, dann muss das dahinter stehende Unternehmen zur Verantwortung gezogen werden.
Inscho schließt seinen Beitrag mit einem radikalen Appell:
„Turn off the internet. Or fix it. Those are the only choices we have left. The time for hoping these companies will self-regulate is over. The time for treating algorithmic manipulation as an inevitable part of modern life is over. We know what these systems do. We know who they hurt. The only question left is whether we’re going to do something about it.“