Die Bezeichnung Content Moderation wird bei der Überwachung, Bewertung und Kontrolle von Inhalten im Web verwendet. Dies umfasst sowohl Textinhalte als auch andere Content-Formate wie Bilder oder Videos.
Definition Content Moderation
Content Moderation beschreibt einen Prozess oder eine Tätigkeit, bei der Webinhalte anhand rechtlicher Vorschriften oder interner Richtlinien bewertet und gegebenenfalls aussortiert werden. Entspricht der Content nicht den Vorgaben, werden die Inhalte gesperrt oder ausgeblendet. Darüber hinaus können Inhalte geordnet, ausgewertet oder gefiltert werden. Dies kann manuell erfolgen oder mithilfe von Algorithmen.
Grund für den Einsatz von Moderator*innen sind unter anderem die Vermeidung von Internetkriminalität, die thematische Fokussierung auf bestimmte Bereiche oder das Löschen unerwünschter Inhalte.
Als zu löschender Content werden meist Inhalte eingestuft, die kriminelle Handlungen wie Hasskommentare, Aufforderung zu Straftaten, Folter, Kindesmissbrauch, sexuelle Straftaten, Gewalttaten, Mord, Mobbing oder Tierquälerei enthalten.
Welche Inhalte entfernt oder gelöscht werden müssen, ist unter anderem im Netzwerkdurchsetzungsgesetz (NetzDG) geregelt.
Wo kommt Content Moderation zum Einsatz?
Diese Art der Inhaltskontrolle wird auf verschiedenen Seiten im Web verwendet. Grundsätzlich kommt der Kontrollmechanismus überall dort zum Einsatz, wo User Generated Content zum Thema wird. Mögliche Einsatzgebiete sind beispielsweise:
- Social Media Plattformen wie Facebook oder Instagram
- Blogs
- Newssites mit Kommentarfunktion
- Bewertungsplattformen
- Fotocommunitys
- Foren
- Onlineshops
Content Moderation ist auf diesen Plattformen erforderlich, um die User*innen einerseits vor gewissen Inhalten zu schützen, andererseits um die Reputation des jeweiligen Seitenbetreibenden nicht zu schädigen. Zudem sind die Seiten teilweise rechtlich dazu verpflichtet, gewisse Inhalte zu entfernen oder zu sperren.
Alternativen zu menschlichen Content Moderator*innen
Inhalte können von sogenannten Content Moderator*innen überwacht werden. Diese prüfen den Content auf seine strafrechtliche Relevanz und überwachen, ob er den internen Richtlinien entspricht. Dabei sind die Content Moderator*innen teilweise verstörenden Inhalten ausgesetzt.
Eine Alternative zur manuellen Überwachung ist der Einsatz von Algorithmen. Durch sogenannte Upload-Filtern werden unerwünschte Inhalte beispielsweise bereits beim Hochladen abgefangen und dadurch gar nicht erst veröffentlicht.
Neben Upload-Filtern kommt zunehmend künstliche Intelligenz zum Einsatz, um die hochgeladenen Inhalte zu bewerten und gegebenenfalls zu entfernen.
Bei derartigen technischen Entwicklungen besteht derzeit allerdings noch das Problem, dass diese Algorithmen Ironie und Sarkasmus nur schwer erkennen können. Bei der Content Moderation unterlaufen technischen Hilfsmitteln daher häufiger Fehler als menschlichen Moderator*innen.
Kritische Aspekte der Kontrolle
Während Content Moderation einerseits nötig ist, um unerlaubte Inhalte schnellstmöglich zu entfernen, wird andererseits die Kontrolle von Inhalten im Sinne der freien Meinungsäußerung häufig kritisch betrachtet. Durch das Löschen von Kommentaren und anderen Inhalten erfolge eine Zensur.
Widersprechen Inhalte den Ansichten der Moderator*innen, können diese entfernt werden, selbst wenn keine rechtliche Verpflichtung dazu besteht. Gerade Onlineshops oder Bewertungsportale stehen in der Kritik, negative Rezensionen zu löschen. Dadurch wird die Wahrnehmung der User gesteuert, was eine Manipulation zur Folge hat.
Quellen
- https://de.wikipedia.org/wiki/Content-Moderation