Die KI von Google stellt Obama als muslimischen Führer dar.
Googles neue KI-Übersichten sorgen in den USA für Aufregung, mit teilweise humorvollen und sogar besorgniserregenden Ergebnissen. Die Software, die direkte Antworten auf die Fragen der Nutzer geben soll, macht Fehler, die von der Empfehlung, Käse auf die Pizza zu kleben, bis zur Behauptung reichen, Barack Obama sei der erste muslimische Präsident.
Seitdem die Suchmaschine mit KI-Übersichten ausgestattet wurde, haben Nutzer eklatante Fehler in den Antworten der Software festgestellt. Ein Beispiel ist der Ratschlag, Käse mit ungiftigem Klebstoff auf einer Pizza anzubringen. Außerdem antwortete die KI, dass Hunde in der NBA und der NFL mitspielen, was zeigt, dass sie nicht in der Lage ist, zwischen Witzen und ernsthaften Informationen zu unterscheiden.
Der Hauptzweck dieser KI-Zusammenfassungen, die auch als "KI-Überblicke" bezeichnet werden, besteht darin, den Nutzern eine prägnante Antwort zu geben, anstatt sie auf eine Liste von Links zu verweisen. Mehrere Start-ups hoffen, mit dieser Strategie der Dominanz von Google bei der Websuche Konkurrenz zu machen. Google plant jedoch, diese Funktion bis zum Jahresende weltweit zu verbreiten.
Einige Website-Betreiber und Medienunternehmen befürchten, dass diese KI-generierten Zusammenfassungen die Nutzer von ihren Websites wegleiten und sich negativ auf ihr Geschäft auswirken werden. Google hingegen behauptet, dass die Informationsquellen, die in den Zusammenfassungen enthalten sind, mehr besucht werden. Unabhängig davon sind die langfristigen Auswirkungen auf andere Unternehmen ungewiss.
Die Verwechslung von Humor und Fakten durch KI
Ein unvorhergesehenes Problem bei der weit verbreiteten Integration von KI-Überblicken ist die mangelnde Fähigkeit der Software, zwischen humorvollen Aussagen und echten Informationen zu unterscheiden. So hat die KI beispielsweise fälschlicherweise Quellen für scheinbar absurde Behauptungen angegeben, wie die Empfehlung von Geologen, jeden Tag einen kleinen Stein zu essen.
Laut einem Google-Sprecher sind die Fehler in erster Linie auf "sehr ungewöhnliche Anfragen" zurückzuführen und nicht repräsentativ für die Erfahrungen der durchschnittlichen Nutzer. Die "vereinzelten Beispiele" werden genutzt, um die Leistung der KI zu verbessern. Zuvor musste sich Google online Spott gefallen lassen, weil sein KI-Programm Gemini Bilder von nicht-weißen Nazi-Soldaten und Siedlern generierte. Das Unternehmen führte diesen Fehler darauf zurück, dass es keine Ausnahmen für Szenarien programmiert hatte, in denen Vielfalt eindeutig fehl am Platz war. Daraufhin hat die Gemini-Gruppe die Erstellung von Bildern von Menschen ganz eingestellt. (Bilder von Steinen hingegen scheinen vorerst sicher zu sein.)
Im Februar wurde Google wegen der Fehltritte von Gemini öffentlich angegriffen und erntete viel Aufmerksamkeit und Kritik. Hier zeigt sich eine der Herausforderungen, mit denen Technologieunternehmen konfrontiert sind, wenn sie sich in hohem Maße auf KI verlassen: Sie müssen sicherstellen, dass sie die Nuancen zwischen Humor, Satire und tatsächlichen Fakten erkennen können.
Lesen Sie auch:
- Jahr der Klimarekorde: Extreme sind die neue Normalität
- Vorbeugende Festnahmen offenbaren die Bedrohung durch islamistischen Terror
- Die Vereinten Nationen stimmen für einen Waffenstillstand in Israel
- SPD schließt Haushaltsbeschluss vor Jahresende aus
Quelle: www.ntv.de