Salta al contenuto

Meta deve fare di più per affrontare la pornografia non consentita, deepfake, dice Oversight Board

Meta ha fallito a rimuovere una immagine esplicita, generata da Intelligenza Artificiale, raffigurante una figura pubblica indiana fino a quando non è stata interrogata dalla sua Board Oversight, ha dichiarato venerdì in un rapporto.

Logo di Meta si vede su un cartello nella sede della società a Menlo Park, Calif., 9 Nov. 2022.
Logo di Meta si vede su un cartello nella sede della società a Menlo Park, Calif., 9 Nov. 2022.

Meta deve fare di più per affrontare la pornografia non consentita, deepfake, dice Oversight Board

Report esito di indagine annunciata dalla Meta Oversight Board a aprile su come Meta gestisce la pornografia falsa generata dall'Intelligenza Artificiale, inclusi due casi specifici in cui immagini esplicite di un personaggio pubblico americano e indiano erano state pubblicate.

La minaccia della pornografia generata dall'Intelligenza Artificiale ha ricevuto attenzione nelle ultime settimane, con celebrità come Taylor Swift, oltre a studenti liceali statunitensi e altre donne in tutto il mondo, che sono state vittime di questo tipo di abuso online. Strumenti generativi AI facilmente accessibili hanno reso più veloce, semplice e economico creare tali immagini. Piattaforme sociali come Meta's — dove tali immagini possono diffondersi rapidamente — hanno affrontato crescente pressione per affrontare la questione.

Nel caso dell'immagine dell'americano pubblico pubblicata su Facebook — che era stata generata dall'Intelligenza Artificiale e la rappresentava nuda e groppeggiata — la società ha rimosso immediatamente l'immagine, che era già presente in una banca di corrispondenza automatica che rileva immagini in violazione delle regole. Ma nel caso dell'indiano pubblico, nonostante l'immagine fosse stata richiesta due volte a Meta, la società non l'ha rimosso da Instagram fino a quando la Oversight Board ne si è occupata.

"Meta ha determinato che la sua decisione originale di lasciare il contenuto su Instagram era un errore e la società ha rimosso il post per violare la Standards di Bullismo e Harassment Community", ha dichiarato nella relazione la Oversight Board. "Dopo l'inizio delle deliberazioni della Board, Meta ha disattivato l'account che ha pubblicato il contenuto".

La relazione suggerisce che Meta non applica le sue regole in maniera consistente contro l'immagini sessuali non consentite, anche se le avanzate nell'Intelligenza Artificiale hanno reso questa forma di harassement sempre più comune. La relazione mette in evidenza inoltre problemi continuati di Meta nella moderazione del contenuto in paesi non occidentali o non parlanti inglese, che la società ha ricevuto critiche per questo argomento in precedenza.

Meta ha emesso un comunicato stampa in cui ha accolto la decisione della board. Ha aggiunto che mentre i specifici post identificati nella relazione sono già stati rimossi, la società "prenderà azione" su immagini dell'indiano pubblico "identiche e nel contesto" di quelle evidenziate dalla Oversight Board "dove tecnicamente e operativamente possibile".

Nella sua relazione, la Oversight Board — entità quasi indipendente composta di esperti in aree come la libertà di espressione e i diritti umani — ha formulato ulteriori raccomandazioni su come Meta potrebbe migliorare i suoi sforzi per combattere le deepfakes sessuali. Ha invitato la società a rendere le sue regole più chiare aggiornando la proibizione contro la fotocromia derogatoria sessuale per includere esplicitamente la parola "non consensuale" e per coprire altre tecniche di manipolazione fotografica come l'Intelligenza Artificiale.

Secondo la relazione, Meta ha riferito alla board che non aveva aggiunto l'immagine dell'indiano pubblico alla banca di corrispondenza di immagini in violazione perché non c'erano state notizie sulla stessa, mentre i media avevano trattato le immagini dell'americano pubblico. "Questo è preoccupante perché molte vittime di deepfake immagini intime non sono figure pubbliche e devono accettare la diffusione dei loro non consensuali raffigorimenti o cercare e denunciare ogni istanza", ha aggiunto la Board, aggiungendo che Meta poteva considerare altri fattori, come se un'immagine era generata dall'Intelligenza Artificiale, quando determinare se aggiungerela alla banca.

La lotta contro le deepfakes intime è solo una parte dei sforzi di Meta per prevenire lo sfruttamento sessuale dei suoi utenti. La società ha annunciato mercoledì di aver rimosso oltre 63.000 account in Nigeria che si occupavano di truffe sessuali finanziarie, dove le persone (spesso adolescenti) sono ingannate per inviare immagini nude e poi estorti.

Il rapporto della Oversight Board della Meta ha inoltre sottolineato la necessità di Meta di migliorare la moderazione del contenuto in paesi non occidentali, poiché hanno ricevuto critiche per questo argomento in passato. La strategia di affari di Meta nell'industria tecnologica include sforzi per prevenire le truffe sessuali finanziarie, avendo recentemente rimosso oltre 63.000 account in Nigeria coinvolti in tali attività.

Leggi anche:

Commenti

Più recente