- Die künstliche Intelligenz von Google erzeugt nach einem unglücklichen Vorfall wieder Ähnlichkeiten von Individuen.
Google setzt nach einer sechsmonatigen Pause, die auf einen Vorfall zurückzuführen ist, bei dem AI-generierte Bilder von schwarzen Nazi-Soldaten entstanden sind, nun wieder die Funktion zur Erstellung von Bildern mit seiner AI-Software fort. Zunächst wird diese Funktion nur für Abonnenten des AI-Chatbots Gemini verfügbar sein, wie Google in einem Blogbeitrag ankündigte.
Googles AI-Software Imagen 3 ähnelt rivalisierenden Programmen, die Bilder basierend auf gesprochenen Anweisungen generieren können. Im Februar wurde die Option zur Erstellung von Bildern von Menschen aufgrund der Einhaltung aktueller Diversity-Standards vorübergehend deaktiviert, was zu inkongruenten Ergebnissen wie Bildern von schwarzen Soldaten in Nazi-Uniformen führte.
Google erkannte damals, dass sie bestimmte Programm-Ausnahmen für Situationen, in denen Diversity unangemessen ist, übersehen hatten. Dennoch betonten sie die positive Auswirkung der Integration von Diversity in AI-generierten Bildern auf die weltweite Nutzerbasis. Trotzdem gaben sie zu, dass sie in diesem speziellen Fall zu weit gegangen waren.
Die mangelnde AI-Diversity bleibt ein wichtigeres Anliegen
In der digitalen Ära haben AI-Anwendungen zahlreiche Herausforderungen im Zusammenhang mit Stereotypen und Diskriminierung bewältigen müssen. So hatten frühere Gesichtserkennungssoftware beispielsweise Schwierigkeiten, Personen mit dunkleren Hauttönen zu identifizieren. Häufig waren AI-generierte Bilder überwiegend mit weißen Menschen dargestellt.
Google und andere Technologieunternehmen arbeiten bewusst daran, Diversity zu fördern. Dies birgt jedoch manchmal Herausforderungen, insbesondere in den Vereinigten Staaten, wo Vorwürfe der Diskriminierung gegen Weiße an Bedeutung gewonnen haben und zu einem erheblichen Gegenwind geführt haben. Googles AI-Software, die sich nur auf Weiße konzentriert, hat insbesondere Kritiker wie Tech-Milliardär Elon Musk aufgebracht.
Googles AI wird keine Bilder von berühmten Personen reproduzieren
Darüber hinaus wird Googles AI weiterhin Anforderungen nach fotorealistischen Bildern von bekannten Personen ablehnen, wie es bei einigen konkurrierenden Programmen wie Grok von Musk's AI-Unternehmen xAI der Fall ist. Dies ist hauptsächlich auf Bedenken wegen AI-generierter Fake-Bilder zurückzuführen, die möglicherweise die öffentliche Meinung manipulieren könnten, insbesondere während Wahlen.
Obwohl Google sich bemüht, Diversity in AI-generierten Bildern zu fördern, gibt es weiterhin Kritik. Das Internet ist zu einer Plattform geworden, auf der diese Initiativen in Frage gestellt werden, da Einzelpersonen und Organisationen ihre Bedenken bezüglich voreingenommener Darstellungen äußern.
Der Vorfall mit AI-generierten Bildern von schwarzen Nazi-Soldaten im Internet hat eine Debatte über die Notwendigkeit inclusiver AI-Praktiken ausgelöst und auf das langjährige Problem der mangelnden Diversity in AI-Anwendungen hingewiesen.