Aller au contenu

L'intelligence artificielle de Google génère une fois de plus des ressemblances avec des individus, à la suite d'un incident peu flatteur.

En février, le logiciel d'intelligence artificielle de Google a respecté les directives de diversité et a produit des visuels, tels que des représentations de soldats nazis noirs. Cette fonctionnalité a été rapidement désactivée et a été récemment restaurée.

Le Logiciel Imagen 3 de Google a témoignage une interruption temporaire en raison de sa capacité...
Le Logiciel Imagen 3 de Google a témoignage une interruption temporaire en raison de sa capacité déconcertante à produire des images incohérentes.

- L'intelligence artificielle de Google génère une fois de plus des ressemblances avec des individus, à la suite d'un incident peu flatteur.

Suite à une pause de six mois après un incident impliquant des images générées par IA de soldats noirs nazis, Google reprend maintenant la fonctionnalité de création d'images à l'aide de son logiciel IA. Initialement, cette fonctionnalité sera accessible aux abonnés du chatbot AI Gemini, a annoncé Google dans un billet de blog.

Le logiciel IA de Google, Imagen 3, présente des similitudes avec des programmes concurrents qui peuvent générer des images en fonction d'instructions verbales. En février, l'option de création d'images de personnes a été temporairement désactivée en raison de l'adhésion de l'IA aux normes de diversité actuelles, ce qui a entraîné des résultats incongrus tels que des images de soldats noirs en uniforme nazi.

À l'époque, Google a reconnu qu'ils avaient omis certaines exclusions de programmation pour les situations où la diversité n'était pas appropriée. Cependant, ils ont défendu l'intégration de la diversité dans les images générées par IA, en mettant en évidence son impact positif sur les consommateurs du monde entier qui utilisent le logiciel. Quoi qu'il en soit, ils ont reconnu qu'ils avaient dépassé les bornes dans ce cas particulier.

Le manque de diversité dans l'IA reste un problème important

Dans l'ère numérique, les applications d'IA ont rencontré de nombreux défis liés aux stéréotypes et à la discrimination. Par exemple, les logiciels de reconnaissance faciale antérieurs ont eu du mal à identifier les individus à la peau plus foncée. La plupart du temps, les images générées par IA présentaient principalement des personnes blanches.

Google et autres entreprises technologiques travaillent consciemment à promouvoir la diversité. Cependant, cela présente parfois des défis, en particulier aux États-Unis où les accusations de discrimination contre les Blancs ont pris de l'ampleur, entraînant une forte opposition. Le logiciel IA de Google se concentrant uniquement sur les personnes blanches a particulièrement énervé les critiques, y compris le milliardaire de la technologie Elon Musk.

Le logiciel IA de Google ne reproduira pas les images d'individus célèbres

De plus, le logiciel IA de Google continuera également à refuser les demandes d'images photoréalistes de personnes célèbres, comme c'est le cas pour certains programmes concurrents tels que Grok de la société de Musk xAI. Cela est principalement dû aux préoccupations concernant les images générées par IA qui pourraient potentiellement manipuler l'opinion publique, en particulier pendant les élections.

Malgré les efforts de Google pour promouvoir la diversité dans les images générées par IA, les critiques persistent. Internet est devenu une plateforme pour délégitimer ces initiatives, avec des individus et des organisations partageant leurs préoccupations concernant les représentations biaisées.

Lire aussi:

commentaires

Dernier