Wie alle Social-Media-Plattformen steht auch TikTok vor der Herausforderung, unpassende Inhalte zu löschen, ehe sie sich in der App verbreiten. In den Community-Richtlinien und Nutzungsbedingungen ist festgelegt, welche Inhalte auf der Plattform erlaubt sind und welche nicht. Im Bericht zur Durchsetzung der Community-Richtlinien für das zweite Quartal 2021 legt TikTok nun die Maßnahmen dar, die ergriffen wurden, um ungewünschte Inhalte von der Plattform zu entfernen.

81 Millionen Videos wegen problematischen Inhalten gelöscht

Zwischen April und Juni 2021, so berichtet TikTok, wurden 81.518.334 Videos entfernt, da diese gegen TikToks Vorgaben verstießen. Das entspricht weniger als einem Prozent der in dem Zeitraum hochgeladenen Videos. Wichtig ist vor allem die Zeit, die es braucht, um ein Video von der Plattform zu entfernen. TikTok ist darauf ausgerichtet, Inhalte schnell viral gehen zu lassen und sie vielen Nutzer:innen auszuspielen. Daher arbeitet das Unternehmen daran, proaktiv Inhalte zu löschen, auch bevor sie gemeldet werden. Aus dem Bericht geht hervor, dass 93 Prozent der gelöschten Videos innerhalb von 24 Stunden nach ihrer Veröffentlichung identifiziert und entfernt wurden und 94,1 Prozent bevor ein:e andere:r User das Video gemeldet hat. 87,5 Prozent der entfernten Inhalte wurden von keinen Usern der Plattform gesehen.

Die Entscheidung treffen automatisch Systeme und menschliche Moderator:innen

Sowohl in diesem Bereich als auch speziell bei der Erkennung von hasserfülltem Verhalten, Mobbing und Belästigung kann TikTok eine Steigerung im Vergleich zum ersten Quartal vorweisen. So wurden beispielsweise 73,3 Prozent der Videos zu Belästigung und Mobbing entfernt, bevor es zu einer Meldung kam ­­- verglichen mit 66,2 Prozent im ersten Quartal dieses Jahres. Zurückführen lässt sich dies, so TikTok, auf verbesserte Systeme, die proaktiv Hass-Symbole, Wörter und andere Missbrauchssignale kennzeichnen und so zur weiteren Überprüfung durch Sicherheitsteams geben. Diese werden regelmäßig geschult. Schließlich kann es ohne Kontext oft schwierig sein, beispielsweise zwischen Aneignung und Beleidigung oder Satire und Mobbing zu unterscheiden.

Jede Plattform muss einen eigenen Weg finden, um mit Content-Moderation richtig umzugehen. Nicht nur das rechtzeitige Löschen von kritischem Content stellt sich als problematisch dar. Auch das unrechtmäßige Löschen von kritischem Content, ist ein Minenfeld, das es zu navigieren gilt. So trat vor einigen Monaten der Creator Ziggi Tyler an die Öffentlichkeit, nachdem TikTok in seinem Profil das Statement „Black Lives Matter“ sperrte. Alle seine Versuche, das Wort „Black“ in seiner Bio unterzubringen, scheiterten. Wörter wie „neo nazi“ oder „white supremacy“ gingen durch. Geschichten wie die von Tyler zeigen, dass TikTok zwar Fortschritte macht, aber längst nicht nur korrekte Entscheidungen trifft. Auch andere Plattformen kämpfen stark mit der Menge an Content, die täglich hochgeladen wird. So löschte YouTube vor Kurzem zwei Videos der Kampagne #allesdichtmachen. Der Fall landete vor dem Landesgericht Köln, welches entschied, dass YouTube die Videos zu vorschnell entfernt hatte.

Mit den steigenden User-Zahlen, die vor allem TikTok vorzuweisen hat, dürfte es für die Plattform eher schwieriger als leichter werden, einen richtigen Umgang mit Inhalten zu finden, die so nicht auf der Plattform erwünscht sind. Erst Ende September knackte die App eine Milliarde aktive User.

Etail Consumer Research

Erhalte mit diesem kostenlosen, englischen Whitepaper von Treasure Data schnell umsetzbare Insights und Handlungsempfehlungen zu den Themen Empathie, Community Building und Brand Engagement.

Jetzt herunterladen

Powered by WPeMatico

Teile diesen Beitrag