Automatisierte Tools zur Inhaltsmoderation, die nach dem 7. Oktober inmitten eines „Anstiegs gewalttätiger und grafischer Inhalte“ auf Facebook und Instagram eingesetzt wurden, gingen bei der Entfernung von Beiträgen, die die Nutzer sozialer Medien hätten sehen können, zu weit, entschied ein unabhängiges Aufsichtsgremium der Muttergesellschaft Meta am Dienstag.
Das Ergebnis wurde bei der Überprüfung von zwei Fällen erzielt, in denen menschliche Moderatoren Inhalte wiederhergestellt hatten, die von der Computermoderation entfernt worden waren. In einem Fall ging es um ein Facebook-Video, das scheinbar einen Hamas-Terroristen bei der Entführung einer Frau am 7. Oktober zeigt. Der andere Fall betraf ein Instagram-Video, das die Folgen eines Anschlags in der Nähe des Al-Shifa-Krankenhauses in Gaza zu zeigen schien.
Die Fälle waren die ersten, mit denen sich das Meta’s Oversight Board im Rahmen eines neuen beschleunigten Verfahrens befasste, das eine schnellere Reaktion auf dringende Probleme ermöglichen soll.
In beiden Fällen wurden die Beiträge entfernt, weil Meta die Messlatte dafür gesenkt hatte, wann seine Computerprogramme Inhalte über Israel und Gaza automatisch als Verstoß gegen die Unternehmensrichtlinien zu gewalttätigen und grafischen Inhalten, Hassreden, Gewalt und Aufwiegelung sowie Mobbing und Belästigung kennzeichnen würden.
„Dies bedeutete, dass Meta seine automatisierten Werkzeuge aggressiver einsetzte, um Inhalte zu entfernen, die gegen seine Richtlinien verstoßen könnten“, so der Vorstand in seiner Entscheidung. „Dies verringerte zwar die Wahrscheinlichkeit, dass Meta es versäumte, gegen die Richtlinien verstoßende Inhalte zu entfernen, die sich andernfalls der Entdeckung entziehen könnten oder bei denen die Kapazität für eine menschliche Überprüfung begrenzt war, aber es erhöhte auch die Wahrscheinlichkeit, dass Meta irrtümlich nicht gegen die Richtlinien verstoßende Inhalte im Zusammenhang mit dem Konflikt entfernte“.
Bis letzte Woche, so schrieb das Gremium, hatte das Unternehmen die „Vertrauensschwellen“ immer noch nicht auf das Niveau vor dem 7. Oktober angehoben, was bedeutet, dass das Risiko der Entfernung unangemessener Inhalte weiterhin höher ist als vor dem Angriff.
Das Aufsichtsgremium drängt Meta – wie schon in mehreren früheren Fällen – seine Systeme zu verfeinern, um zu verhindern, dass Algorithmen fälschlicherweise Beiträge entfernen, die der Aufklärung über oder der Bekämpfung von Extremismus dienen. Die versehentliche Entfernung von Bildungs- und Informationsinhalten plagt das Unternehmen schon seit Jahren, beispielsweise als Meta im Jahr 2020 die Leugnung des Holocausts verbot.
„Diese Entscheidungen waren sehr schwierig zu treffen und erforderten lange und komplexe Diskussionen innerhalb des Oversight Board“, sagte Michael McConnell, ein Vorstandsvorsitzender, in einer Erklärung. „Das Gremium konzentrierte sich darauf, das Recht auf freie Meinungsäußerung von Menschen auf allen Seiten über diese schrecklichen Ereignisse zu schützen und gleichzeitig sicherzustellen, dass keine der Aussagen zu Gewalt oder Hass aufruft. Diese Aussagen sind nicht nur für die Sprecher wichtig, sondern auch für die Nutzer auf der ganzen Welt, die aktuelle und vielfältige Informationen über bahnbrechende Ereignisse suchen, von denen einige wichtige Beweise für mögliche schwere Verletzungen der internationalen Menschenrechte und des humanitären Rechts sein könnten.“
Meta ist nicht das einzige Social-Media-Unternehmen, das wegen seines Umgangs mit Inhalten im Zusammenhang mit dem Krieg zwischen Israel und der Hamas auf dem Prüfstand steht. TikTok wurde wegen der Verbreitung von pro-palästinensischen Inhalten auf der beliebten Videoplattform kritisiert. Und am Dienstag kündigte die Europäische Union eine förmliche Untersuchung von X an, der Plattform, die früher unter dem Namen Twitter bekannt war. Sie stützt sich dabei auf neue Regulierungsbefugnisse, die ihr im letzten Jahr verliehen wurden, und auf eine erste Untersuchung der Häufung von „terroristischen und gewalttätigen Inhalten und Hassreden“ nach dem 7. Oktober.