zum Inhalt

Die KI von Google hat fälschlicherweise behauptet, Obama sei ein Muslim; sie deaktiviert nun bestimmte Ergebnisse.

Google behauptete, seine neuen KI-Suchfunktionen würden "die Aufgabe für Sie erledigen" und eine schnellere und einfachere Internetsuche ermöglichen. Kurz nach ihrer Einführung hat Google jedoch damit begonnen, einige von der Technologie generierte falsche Ergebnisse zurückzuziehen.

Sundar Pichai, CEO von Alphabet, spricht auf einer Google I/O-Veranstaltung in Mountain View,...
Sundar Pichai, CEO von Alphabet, spricht auf einer Google I/O-Veranstaltung in Mountain View, Kalifornien, Dienstag, 14. Mai 2024. Das Unternehmen kündigte eine neue KI-Funktion für die Übersicht der Suchergebnisse an, die nun wegen einiger falscher Ergebnisse in die Kritik geraten ist.

Die KI von Google hat fälschlicherweise behauptet, Obama sei ein Muslim; sie deaktiviert nun bestimmte Ergebnisse.

Google hat Anfang des Monats ein neues KI-gestütztes Tool zur Zusammenfassung von Suchergebnissen eingeführt, das die Suchergebnisse verdichten soll, damit die Nutzer sich nicht durch zahlreiche Links klicken müssen, um Antworten zu finden. Diese Funktion wurde jedoch diese Woche kritisiert, nachdem sie bei einigen Nutzeranfragen falsche oder irreführende Informationen lieferte.

So teilten einige Nutzer auf Plattform X mit, dass die KI-Zusammenfassung von Google den ehemaligen US-Präsidenten Barack Obama als Muslim bezeichnet, was ein weit verbreiteter Irrtum ist. In Wirklichkeit ist Obama ein Christ. Ein anderer Nutzer teilte mit, dass die KI-Zusammenfassung von Google behauptete, "keines der 54 anerkannten Länder Afrikas beginne mit dem Buchstaben 'K'" - mit Ausnahme von Kenia.

Google bestätigte CNN am Freitag, dass die KI-Überblicke für beide Suchanfragen entfernt wurden, weil sie gegen die Unternehmensrichtlinien verstoßen.

"Die überwiegende Mehrheit der KI-Übersichten ist von hoher Qualität und enthält Links, die zu weiteren Erkenntnissen im Web führen", erklärte Google-Sprecherin Colette Garcia in einer Presseerklärung. Sie erwähnte, dass es sich bei einigen fehlerhaften Beispielen von Google AI um manipulierte Bilder zu handeln scheint. "Wir haben umfangreiche Tests durchgeführt, bevor wir diese neue Funktion eingeführt haben, und wie bei anderen Produkten, die wir in der Suche eingeführt haben, schätzen wir das Feedback. Wenn nötig, ergreifen wir entsprechend unserer Inhaltsrichtlinien schnelle Maßnahmen."

Am Ende jeder Google KI-Suchübersicht wird eingeräumt, dass die KI-generierten Zusammenfassungen experimentell sind. Google behauptet, dass es Tests durchführt, um die Aktivitäten potenzieller bösartiger Akteure zu simulieren, um falsche oder unzureichende Ergebnisse in den KI-Zusammenfassungen zu vermeiden.

Googles Suchzusammenfassungen sind Teil des umfassenderen Ziels des Unternehmens, seine KI-Technologie Gemini in alle seine Produkte zu integrieren, um mit KI-Konkurrenten wie OpenAI und Meta konkurrieren zu können. Die jüngste Panne zeigt, wie gefährlich die Integration von KI ist, da sie oft mit Sicherheit falsche Informationen liefert.

Selbst bei weniger wichtigen Anfragen scheint die KI-Übersicht von Google manchmal ungenaue oder rätselhafte Informationen zu liefern.

Als CNN beispielsweise fragte, wie viel Natrium in Gurkensaft enthalten ist, verkündete die KI-Übersicht, dass eine Portion von 8 Flüssigunzen Gurkensaft 342 Milligramm Natrium enthält, während eine kleinere Portion (3 Flüssigunzen) fast doppelt so viel Natrium (690 Milligramm) enthält. (Best Maid Gurkensaft, erhältlich bei Walmart, enthält 250 Milligramm Natrium in nur 1 Unze).

CNN suchte auch nach: "Daten, die für das Training der Google-KI verwendet werden". In der KI-Übersicht wird eingeräumt, dass unklar ist, ob Google verhindert, dass urheberrechtlich geschütztes Material in die Online-Daten einfließt, die zum Trainieren seiner KI-Modelle verwendet werden, womit indirekt eine wichtige Frage zur Funktionsweise von KI-Unternehmen angesprochen wird.

Dies ist nicht das erste Mal, dass Google die Fähigkeiten seiner KI-Tools aufgrund eines peinlichen Fehlers einschränken musste. Im Februar stellte das Unternehmen die Fähigkeit seines KI-Fotogenerators ein, Bilder von Menschen zu erstellen, weil es kritisiert wurde, dass er historisch ungenaue Bilder produzierte, auf denen überwiegend farbige statt weiße Menschen zu sehen waren.

Auf der Seite Search Labs von Google können Nutzer in Bereichen, in denen KI-Suchübersichten verfügbar sind, die Funktion ein- und ausschalten.

Lesen Sie auch:

Quelle: edition.cnn.com

Kommentare

Aktuelles