Großreinemachen im Netz: Online-Plattformen löschen fast eine Milliarde Inhalte
Kinderpornografie, Hassrede, Terrorpropaganda – im vergangenen halben Jahr haben Online-Netzwerke fast 1 Mrd. problematischer Inhalte gelöscht. Allerdings nehmen die Plattformen ihre Aufgabe unterschiedlich ernst.
Amazon, Facebook, Youtube, Instagram, Pinterest, Tiktok und X (ehemals Twitter) haben in den letzten sechs Monaten mehr als 960 Mio. fragwürdige Inhalte entfernt oder eingeschränkt. Das geht aus einer neuen EU-Datenbank hervor, die im Rahmen des Digital Services Act (DSA) der EU eingerichtet wurde. Das Gesetz verpflichtet große Online-Plattformen und Suchmaschinen, solche Inhalte schnell zu entfernen. Sie müssen auch begründen, warum.
Die Plattformen listen in der Datenbank auf, warum sie bestimmte Inhalte entfernt oder weniger sichtbar gemacht haben. Die Informationen sind nach Kategorien wie Hassrede, Gewalt oder Pornografie sortiert. Bis April wurden mehr als 16 Mrd. Einträge von 16 Plattformen erfasst. Berichtspflichtig sind nicht nur soziale Netzwerke, sondern auch Dienste wie Zalando, Booking.com und verschiedene Google-Angebote.
X meldet die wenigsten Beiträge
Die Meldepraxis der Plattformen ist sehr unterschiedlich. Google Shopping meldet mit über 14 Mrd. die meisten Einträge. Das sind fast 94 % aller Meldungen seit Ende September. Bei der Suchmaschine werde sehr umfassend gemeldet, sagt Kommunikationsforscher Jakob Ohme vom Weizenbaum Institut, der umfassend zu Desinformation forscht. „Die Kommission hat schon gesagt, dass sie diesen Überhang korrigieren will.“
Aber auch bei anderen Plattformen gibt es Unterschiede. Tiktok hat fast 508 Mio. Beiträge gemeldet und über 348 Mio. gelöscht. Das sind fast 70 % aller Meldungen von Tiktok. Instagram meldete in sechs Monaten rund 19 Mio. Beiträge. Davon wurden über 6,6 Mio. gelöscht, was etwa 35 % entspricht. Die Plattform X meldete im gleichen Zeitraum etwas mehr als 832 000 Inhalte. Davon wurden bis Anfang April nur 24 gelöscht.
Spielraum erschwert Vergleiche zwischen den Plattformen
Ohme nennt für das unterschiedliche Meldeverhalten der Netzwerke verschiedene Gründe: „Erstens: Plattformen sind unterschiedlich aktiv bei der Inhaltsmoderation. Zweitens: Plattformen nehmen die Meldepflicht unterschiedlich ernst.“ So befinde sich die Plattform X gerade in einem Umbruch und sei „nicht dafür bekannt, sich an Regulierungen zu halten, die nicht auch strikt durchgesetzt werden“. Tiktok wiederum versuche „eine gute Figur zu machen“.
Digitalisierung Expertin Julia Kloiber, die für das Tech-Think-Tank Superrr Lab arbeitet, sieht ebenfalls noch Verbesserungsbedarf bei der neuen EU-Transparenzdatenbank: „Aktuell gibt es einiges an Spielraum, was Umfang, Genauigkeit und die Interpretation der Vorgaben angeht.“ Durch diesen Spielraum lassen sich die verschiedenen Dienste nur schwer vergleichen, zumal die Datensammlung nur auf Selbstauskünften der Plattformen basiert. „Die Unternehmen können in ihren Transparenzberichten viel behaupten. Wichtig ist, dass es auch eine gründliche Prüfung der Angaben gibt.“
EU-Kommission überprüft Einhaltung
Laut EU-Kommission wird die Einhaltung der Richtlinien überprüft. Es liege zwar in der Verantwortung der Plattformen, ihre Moderationsentscheidungen unverzüglich zu melden. Bei Verdacht auf Verstöße könne die EU-Kommission aber Daten anfordern, um die Transparenzregeln zu überprüfen. Das erklärte die Behörde in Brüssel. Die Unterschiede bei den Meldungen resultieren aus unterschiedlichen Strategien und Inhalten der Plattformen.
Derzeit prüft die EU, ob Plattformen wie X und Tiktok die Regeln des Digital Services Act (DSA) einhalten und aktiv gegen illegale Inhalte vorgehen. Entscheidungen oder Sanktionen stehen noch nicht fest. Sollte sich herausstellen, dass die Anbieter gegen den DSA verstoßen, könnten sie mit Bußgeldern von bis zu 6 % ihres weltweiten Jahresumsatzes belegt werden.
Wichtig für Demokratie und Gesellschaft
Kloiber bewertet die Datenbank insgesamt als „wichtigen Meilenstein“, der „Licht in die Blackbox der Onlinedienste“ bringt. „Wir haben in den letzten Jahren gesehen, welche Auswirkungen die Moderation von Inhalten auf unsere Demokratie und Gesellschaft hat – im Vorfeld von Wahlen muss sichergestellt werden, dass Desinformation und gemeldete Inhalte gut und schnell moderiert werden“, fordert Kloiber.
Auch bei der anstehenden Europawahl vom 6. bis 9. Juni 2024 ist die Beeinflussung auf Online-Plattformen eine Gefahr, wie das Europäische Parlament bereits im vergangenen Jahr warnte.
Kloiber wünscht sich, „dass durch die Transparenz ein Wetteifern zwischen den Plattformen beginnt, welche Plattform die höchsten Standards und die beste Qualität bei der Moderation von Inhalten hat“. Ohme hofft, „dass in einem Jahr schon eine genauere und auch besser durchgesetzte Datenlage existiert, die weitere Analysen und Aussagen erlaubt“.
Eins ist jedoch klar: Die Datenmenge wird weiter zunehmen. Seit dem 17. Februar sind alle Betreiber von Online-Plattformen, Suchmaschinen und anderen Onlinediensten – mit Ausnahme von Kleinunternehmen – verpflichtet, Informationen über ihre Moderationsentscheidungen zu melden. Diese Informationen sind bisher noch nicht in der Transparenzdatenbank enthalten. Die EU-Kommission plant jedoch, diese Daten zukünftig auf der Webseite der DSA-Transparenzdatenbank zugänglich zu machen. Dies werde möglich sein, sobald die technischen Voraussetzungen geschaffen seien, so ein Sprecher der Kommission. (dpa/hoc)