[ad_1]
New Report Suggests Instagram Has Become a Key Facilitator of Pedophile Networks
Eine neue Untersuchung von The Wall Street Journal in Zusammenarbeit mit der Stanford University und der University of Massachusetts hat schockierende Erkenntnisse ans Licht gebracht. Instagram hat sich demnach als wichtiges Werkzeug für ein „riesiges pedophiles Netzwerk“ etabliert, dessen Mitglieder ungestört illegale Inhalte in der App teilen.
Die erschreckenden Details
Laut dem Bericht hilft Instagram dabei, ein Netzwerk von Accounts zu verbinden und zu fördern, die sich offen der Begehung und des Kaufs von kinderpornografischen Inhalten widmen. Pädophile haben das Internet schon lange genutzt, aber anders als Foren und File-Transfer-Dienste, die sich an Menschen richten, die an illegalen Inhalten interessiert sind, hostet Instagram diese Aktivitäten nicht nur einfach. Seine Algorithmen fördern sie sogar. Instagram verbindet Pädophile und führt sie über Empfehlungssysteme zu Content-Verkäufern, die sich auf Nischeninteressen spezialisiert haben.
Manche Accounts laden Käufer dazu ein, bestimmte Handlungen in Auftrag zu geben. Einige Menüs beinhalten Preise für Videos, in denen Kinder sich selbst verletzen, sowie „Bilder von Minderjährigen, die sexuelle Handlungen mit Tieren ausführen“, so die Forscher. Zu einem angemessenen Preis sind Kinder sogar für persönliche Treffen verfügbar.
Das ist eine erschütternde Zusammenfassung, die ein erhebliches Problem innerhalb der App aufzeigt. Es sei jedoch darauf hingewiesen, dass auch Meta selbst in letzter Zeit eine signifikante Zunahme von Maßnahmen gegen Verstöße gegen die Community-Standards auf diesem Gebiet verzeichnet hat. Das könnte darauf hindeuten, dass das Unternehmen sich der Probleme bereits bewusst ist und mehr dagegen unternimmt.
Die Rolle von Meta
Der Bericht besagt jedoch auch, dass die Abhängigkeit von Meta von automatisierten Erkennungstools ein zentrales Hindernis für ihre Bemühungen darstellt. Außerdem fördern die Algorithmen der Plattform im Grunde genommen schädlicheres Material für interessierte Benutzer durch die Verwendung von verwandten Hashtags. Verwirrenderweise gibt es für solche Inhalte sogar ein Warn-Pop-up, anstatt sie einfach zu entfernen.
Meta hat jedoch im Zuge des Berichts angekündigt, weitere Maßnahmen zu ergreifen, um diesen und andere Netzwerke zu identifizieren und zu eliminieren. Dazu soll auch ein neues internes Taskforce eingerichtet werden.
Die Schwierigkeiten, die Instagram hat, gehen weit über die Markensicherheit hinaus. Es ist offensichtlich, dass hier wesentlich wichtigere Maßnahmen ergriffen werden müssen, um junge Nutzer zu schützen. Instagram erfreut sich großer Beliebtheit bei jungen Zielgruppen, und die Tatsache, dass zumindest einige dieser Benutzer sich buchstäblich in der App verkaufen – und dass ein kleines Team von Forschern dies entdeckt hat, während die Systeme von Meta es nicht erkannt haben – ist ein großes Problem und zeigt erhebliche Mängel in den Prozessen von Meta.
Twitter im Vergleich zu Instagram
Interessanterweise hat der Bericht auch herausgefunden, dass Twitter bei seiner Analyse deutlich weniger kinderpornografisches Material beherbergte, und dass das Team von Twitter schneller agierte, wenn Bedenken geäußert wurden.
Es bleibt jedoch zu hoffen, dass die jüngsten Daten des Community Standards Reports ein reflektierendes Element für die breiteren Bemühungen von Meta darstellen, um solche Probleme anzugehen. Doch es wird große Schritte seitens Meta erfordern, um dieses Element anzugehen.
Elon Musk als treibende Kraft
Elon Musk hat versprochen, CSAM (Child Sexual Abuse Material) als oberste Priorität anzugehen, und es scheint, dass er auf diesem Gebiet tatsächlich Fortschritte macht. Der Bericht zeigt jedoch, dass es noch viel zu tun gibt, um sicherzustellen, dass Kinder und Jugendliche auf sozialen Plattformen wirklich sicher sind.
Quelle: Originalartikel von The Wall Street Journal