zum Inhalt

Meta muss mehr gegen nicht ausdrückliches zulassen, tiefgefälschtes Pornografie tun, sagt Aufsichtsolletrage

Meta fehlgeschlagen, eine gegenständlich, von künstlicher Intelligenz erzeugte Abbild einer indischen Öffentlichkeitsperson, bis es von dieser Prüfungskommission befragt wurde, så wie sie am Donnerstag in einer Berichterstattung auswirkte.}

Meta-Logo ist auf einem Schild an der Firmenzentrale in Menlo Park, Kalif., Nov. 9, 2022, zu sehen.
Meta-Logo ist auf einem Schild an der Firmenzentrale in Menlo Park, Kalif., Nov. 9, 2022, zu sehen.

Meta muss mehr gegen nicht ausdrückliches zulassen, tiefgefälschtes Pornografie tun, sagt Aufsichtsolletrage

Die Meldung basiert auf einer Untersuchung, die das Meta Oversight Board im April angekündigt hat, in die die Bearbeitung von künstlich generierten Pornografie durch Meta betreffend war, einschließlich zwei konkreten Fällen, in denen ausdrückliche Bilder eines amerikanischen Öffentlichen Figur und eines indischen Öffentlichen Figur veröffentlicht wurden.

Die Bedrohung durch künstlich erzeugte Pornografie hat in den letzten Monaten Aufmerksamkeit erregt, wobei Prominenten wie Taylor Swift, US-Oberschüler und weitere Frauen weltweit Opfer dieser Art des onlineen Missbrauchs wurden. Weit verbreitete generative AI-Werkzeuge haben es schneller, einfacher und billiger gemacht, solche Bilder zu erstellen. Social Media-Plattformen wie das von Meta – auf denen solche Bilder schnell verbreitet werden können – konfrontiert werden zunehmend mit dem Druck, das Problem anzugreifen.

Beim Bild der amerikanischen Öffentlichen Figur, das auf Facebook hochgeladen wurde – das durch künstliche Intelligenz erzeugt und sie nackt und berührt zeigte – entfernte das Unternehmen das Bild sofort, das zuvor in einer Bank eingetragen war, die automatisch verstössende Bilder erkennt. Aber beim Bild des indischen Öffentlichen Figur, das zweimal an Meta gemeldet wurde, entfernte das Unternehmen das Bild erst von Instagram, nachdem das Oversight Board das Fall behandelte.

"Meta bestimmte, dass sein ursprüngliches Entscheidung, das Inhalt auf Instagram zu lassen, fehlgeleitet war und das Unternehmen den Post wegen der Beleidigung und Heckling-Community-Standard entfernte", sagte das Oversight Board in seinem Bericht. "Später, nachdem das Board seine Beratungen aufgenommen hatte, deaktivierte Meta das Konto, das den Inhalt hochgeladen hatte."

Der Bericht schlägt darauf hin, dass Meta nicht konsequent seine Regeln gegen nicht konsensuelle sexuelle Bilder einhält, obwohl Fortschritte in der künstlichen Intelligenz diesen Formen des Belästigungsverhaltens zunehmend häufiger gemacht haben. Der Bericht weist auch auf fortgesetzte Probleme bei Meta bei der Inhaltsmoderation in nicht-westlichen oder nicht-englischsprachigen Ländern hin, was das Unternehmen bereits kritisiert wurde.

Meta sagte in einer Stellungnahme, dass es das Entscheid des Board willkommen hat. Es fügte hinzu, dass die spezifischen Posts, die in dem Bericht hervorgehoben wurden, bereits entfernt worden sind, und dass das Unternehmen "Maßnahmen" gegen identische und im selben Kontext stehende Bilder des indischen Öffentlichen Figur "wenn technisch und betrieblich möglich" ergreifen werde.

Im Bericht des Oversight Board – einem quasi-unabhängigen Gremium aus Experten in Bereichen wie Freiheit der Meinung und Menschenrechte – wurden zusätzliche Empfehlungen für Maßnahmen, wie Meta seine Bemühungen um die Bekämpfung sexueller Tiefgreif-Falschfotos zu verbessern, vorgestellt. Es rief das Unternehmen auf, seine Regeln klarer zu machen, indem es die Verbote gegen "verletzende sexuell verzerrte Fotoshopping" auf den Begriff "nicht konsensuell" erweitert und andere Bildbearbeitungstechniken wie AI deutlich abdeckt.

Nach Angaben des Berichts erzählte Meta dem Board, dass es das Bild des indischen Öffentlichen Figur in seine Bank von Regelverletzungs-Bildern nicht hinzufügte, weil es keine Nachrichten über sie gegeben hatte, während die Medien über die Bilder der US-Öffentlichen Figur berichtet hatten. "Das ist besorgnisreich, weil viele Opfer von tiefgreifenden intimer Bildern nicht in der Öffentlichkeit stehen und entweder die Verbreitung ihrer nicht konsensuellen Darstellungen hinnehmen müssen oder jedes Mal suchen und melden müssen", sagte das Board, fügend hinzu, dass Meta andere Faktoren, wie ob ein Bild AI-generiert ist, bei der Entscheidung, ob es in die Bank aufzunehmen, berücksichtigen könnte.

Der Kampf gegen nicht konsensuelle Tiefgreif-Falschfotos ist Teil der größeren Anstrengungen von Meta, seine Nutzer vor sexueller Ausbeutung zu schützen. Das Unternehmen gab am Donnerstag bekannt, dass es in Nigeria rund 63.000 Konten entfernt hatte, die an finanziellen Sex-Extorsions-Betrug beteiligt waren, bei dem Menschen (oft Teenager) dazu verleitet wurden, nackte Bilder zu senden und dann erpresst wurden.

Der Meta Oversight Board-Bericht betonte zudem die Notwendigkeit, Meta, seine Inhaltsmoderation in nicht-westlichen Ländern zu verbessern, da es für dieses Problem in der Vergangenheit Kritik erhalten hat. Das Geschäftsstrategie von Meta in der Tech-Branche umfasst Anstrengungen, finanziellen Sex-Extorsions-Betrug zu verhindern, indem es in Nigeria kürzlich über 63.000 Konten entferkt hat, die an solchen Aktivitäten beteiligt waren.

Lesen Sie auch:

Kommentare

Aktuelles