zum Inhalt

OpenAI stoppt vorübergehend die Produktion der ChatGPT-Stimme, die Scarlett Johansson aus dem Film "Her" ähnelt

OpenAI erklärt einen vorübergehenden Veröffentlichungsstopp für eine neue synthetische Stimme, die mit einem Update von ChatGPT einhergeht und Vergleiche mit dem fiktiven KI-Assistenten aus dem Kinofilm "Her" mit Scarlett Johansson in der Hauptrolle hervorruft und für ihr kokettes Verhalten...

OpenAI enthüllt neues KI-Modell, GPT-4o. Clare Duffy berichtet über das neue Modell der OpenAI, das...
OpenAI enthüllt neues KI-Modell, GPT-4o. Clare Duffy berichtet über das neue Modell der OpenAI, das allen Nutzern zur Verfügung stehen wird.

OpenAI stoppt vorübergehend die Produktion der ChatGPT-Stimme, die Scarlett Johansson aus dem Film "Her" ähnelt

Eine Online-Community hat eine neue von OpenAI geschaffene KI-Stimme mit dem Namen "Sky" kritisiert, weil sie als zu vertraut und kokett empfunden wurde. Kritiker haben die Stimme mit der Fantasie einer weiblichen Entwicklerin verglichen, und sie wurde weithin verspottet. OpenAI ist auf diese Bedenken eingegangen und hat versprochen, die Verwendung von Sky zu unterbrechen, während sie die Sache untersuchen.

OpenAI hat klargestellt, dass die Stimme nicht von der Schauspielerin Scarlett Johansson stammt, wie einige spekuliert haben, sondern von einer anderen Schauspielerin, die ihre natürliche Sprechstimme verwendet. Ziel des Unternehmens ist es, eine vertrauenserweckende, ansprechende Stimme zu schaffen, die einen angenehmen Klang hat und leicht zu verstehen ist. Der ChatGPT-Sprachmodus mit Sky war noch nicht allgemein veröffentlicht worden, aber ein Video, in dem die KI bei einer Produktankündigung vorgestellt wurde, und Interviews mit OpenAI-Mitarbeitern, die sie verwendeten, erregten im Internet große Aufmerksamkeit.

Die Kritik an der Stimme von Sky spiegelt die allgemeine Besorgnis über die Voreingenommenheit von Technologien wider, die von überwiegend weißen, männlich geführten oder finanzierten Technologieunternehmen entwickelt werden. Die Enthüllung von Sky erfolgte nach dem Ausscheiden von zwei hochrangigen OpenAI-Mitgliedern, die Fragen zu Sicherheitsprotokollen und zur Ressourcenzuteilung bei der Vorbereitung auf das potenzielle Aufkommen künstlicher allgemeiner Intelligenz (AGI), die den Menschen überlisten könnte, aufwarfen.

OpenAI-CEO Sam Altman reagierte zunächst auf diese Bedenken, indem er dem ehemaligen Mitarbeiter Jan Leike für sein Engagement in Sicherheitsfragen dankte und die Notwendigkeit weiterer Maßnahmen einräumte. Das Unternehmen hat außerdem klargestellt, dass es das zuvor von Leike geleitete Team aufgelöst und seine Mitglieder in andere Forschungsabteilungen integriert hat, um die Umsetzung von Sicherheitsprotokollen zu stärken. In einem ausführlichen Blogbeitrag, der sowohl von Altman als auch von OpenAI-Präsident Greg Brockman unterzeichnet wurde, erläutert das Unternehmen seinen Ansatz für langfristige KI-Sicherheitsmaßnahmen, einschließlich der Sensibilisierung für AGI-Risiken und der Beteiligung an internationalen Governance-Diskussionen. Sie betonen auch die Bedeutung einer Feedback-Schleife, regelmäßiger Tests, der Berücksichtigung potenzieller Risiken, von Sicherheitsmaßnahmen und der Kompatibilität zwischen Sicherheit und Fähigkeiten, wenn KI zunehmend in unser tägliches Leben integriert wird.

Breitere Bedenken zur KI-Sicherheit

Die Kontroverse um Sky verweist auf die umfassenderen gesellschaftlichen Fragen, die sich im Zusammenhang mit der Entwicklung von KI in einer überwiegend von weißen Männern geführten Technologiebranche stellen.

In einem Social-Media-Beitrag von letzter Woche behauptete Jan Leike, der frühere Leiter des für die langfristige KI-Sicherheit zuständigen Teams bei OpenAI, dass die Sicherheitskultur und -prozesse des Unternehmens gegenüber "glänzenden Produkten" zweitrangig geworden seien. Er äußerte auch Bedenken hinsichtlich des Mangels an Ressourcen für die Vorbereitung von KI. CEO Altman bestätigte die Bedenken von Leike und bekundete sein Engagement, diese zu beseitigen.

OpenAI hat vor kurzem mit der Umstrukturierung von Teams begonnen, wobei Mitglieder von Leikes Team in verschiedene Forschungsabteilungen integriert wurden. Ein Sprecher bestätigte, dass diese Umstrukturierung die Fähigkeit des Unternehmens verbessern würde, sicherheitsrelevante Ziele zu erreichen.

In einem ausführlichen Beitrag vom Samstag, der sowohl von ihm selbst als auch von Altman unterzeichnet wurde, erläuterte der Präsident von OpenAI, Greg Brockman, den Ansatz des Unternehmens zur Gewährleistung der Sicherheit von KI, wobei er das Bewusstsein für und die Befürwortung von AGI-Risiken, die Erforschung der potenziellen Folgen der Skalierung von Deep-Learning-Modellen und die Bemühungen zur Bewertung von KI-Systemen im Hinblick auf katastrophale Folgen hervorhob. Er fügte hinzu, dass mit der zunehmenden Integration der Technologie in das menschliche Leben das Hauptaugenmerk auf der Aufrechterhaltung einer engen Feedback-Schleife, strengen Tests, der genauen Beobachtung potenzieller Gefahren, robuster Sicherheit und dem Streben nach Harmonie zwischen Sicherheit und Fähigkeiten liegen wird.

Lesen Sie auch:

Quelle: edition.cnn.com

Kommentare

Aktuelles