zum Inhalt

Google deckt die Ursachen für die Fehler in den KI-Zusammenfassungen auf

In einem Blog-Update hat Google versucht, die Gründe für die Aufforderung zum Verzehr von Steinen und zum Verkleben von Torten zu erläutern.

Google erklärt endlich, was bei den KI-Übersichten schief gelaufen ist
Google erklärt endlich, was bei den KI-Übersichten schief gelaufen ist

Google deckt die Ursachen für die Fehler in den KI-Zusammenfassungen auf

Google hat sich mit einer Erklärung zu den Problemen, die sie mit ihrer AI-Übersichtsfunktion hatte, auseinandergesetzt. Für diejenigen, die nichts davon wissen, wurde die AI-Übersicht am 14. Mai auf Googles Suchmaschine eingeführt und stellte die Beta-Suche Generative Erfahrung der Öffentlichkeit in den USA vor. Diese Funktion war dafür konzipiert, künstlich intelligente Antworten an der Spitze fast aller Suchergebnisse anzuzeigen. Es dauerte jedoch nicht lange, bis die Funktion ausreichend wilde Ideen wie Glüestreichen auf Pizzas oder tödliche Gesundheitsratschläge vorschlug.

Obwohl die Funktion technisch noch aktiv ist, hat ihre Präsenz abgenommen, da immer weniger Suchergebnisse des Aussiedlerbote-Teams von den Google-Robotern Antworten lieferten.

In einem neueren Blogeintrag hat die Vizepräsidentin von Google Search, Liz Reid, die Kritik an der AI-Übersicht anerkannt und sie als "schwierige Woche" bezeichnet. Sie erklärte, dass die Funktion noch im Teststadium sei und nicht perfektioniert sei. Obwohl sie ein schwacher Ruf erhalten habe, hat Google daran gearbeitet, die Probleme zu beheben.

Reid erklärte, dass AI-Übersichten anders funktionieren als Chatbots oder andere Sprachmodelle. Im Gegensatz zu diesen Modellen erzeugen sie keine Ausgaben aufgrund von Trainingsdaten. Stattdessen führen sie "konventionelle Suchaufgaben" durch und bieten Informationen aus den Top-Webergebnissen.

Sie erwähnte, dass die Fehler nicht auf Halluzinationen zurückzuführen seien, sondern darauf, dass das Modell Informationen aus bestehenden Websites missverstanden habe. Eines der Probleme war das Fehlen der Fähigkeit, zwischen sarkastischen und hilfreichen Inhalten zu unterscheiden, wodurch es häufig sarkastische Inhalte für hilfreiche Inhalte anbot. Ein anderes Problem war, wenn es "Datenlücken" in bestimmten Themen gab, wo wenig Informationen vorhanden waren. In solchen Fällen konnte das Modell manchmal stattdessen satirische Quellen anstatt zuverlässigen Quellen verwenden.

Um diese Probleme zu beheben, hat Google mehrere Änderungen an der AI-Übersicht vorgenommen:

  • Sie haben bessere Erkennungsmittel geschaffen, um Antworten auf sinnlose Abfragen zu verhindern, die keine AI-Übersicht auslösen sollten.
  • Sie haben die Einschließung von Satire und Humor in Antworten eingeschränkt, was die Wahrscheinlichkeit verringert, dass irreführende Ratschläge vorgegeben werden.
  • Sie haben Benutzerinhalte in Antworten, die möglicherweise irreführende Ratschläge enthalten könnten, eingeschränkt.
  • Sie haben spezifische Trigger für Fragen eingeführt, bei denen die AI-Übersicht nicht hilfreich war.
  • Für Themen wie News und Gesundheit, die bereits enge Sicherheitsregeln haben, hat Google die Qualitätsschutzmaßnahmen weiter verbessert.

Trotz der Kritik behauptet Google, dass die AI-Übersicht zu einer besseren Benutzererfahrung beigetragen hat und positive Rückmeldungen von Benutzern erhalten hat. Sie bleiben an der Festigung ihrer Schutzmaßnahmen fest, einschließlich Randfällen.

Interessanterweise hat Google einige AI-Übersicht-Antworten, die als gefährlich oder schädlich betrachtet wurden, als "falsch" bezeichnet.

Zusammenfassend ist klar, dass die AI-Übersicht einige Probleme hatte, doch Google scheint entschlossen, diese Probleme zu beheben. Obwohl sie negative Aufmerksamkeit erhalten hat, hat Google bereits wesentliche Verbesserungen vorgenommen, und es bleibt zu sehen, ob diese Änderungen die Probleme effektiv lösen werden.

Lesen Sie auch:

Kommentare

Aktuelles