zum Inhalt

Fortgeschrittene Gespräche kommen auf ChatGPT

OpenAI hat Benutzer beeindruckt, als es Mitte dieses Jahres eine verbesserte Sprachfunktion für die fortschrittlichste Version von ChatGPT gezeigt hat.

Mit erweiterter Spracherkennung können ChatGPT-Nutzer natürliche, Echtzeit-Sprachgespräche mit dem...
Mit erweiterter Spracherkennung können ChatGPT-Nutzer natürliche, Echtzeit-Sprachgespräche mit dem Chatbot führen

Fortgeschrittene Gespräche kommen auf ChatGPT

Fernab vom typischen robotergleichen Ton, den man von digitalen Assistenten wie Alexa oder Siri kennt, klingt der ChatGPT-4o-Advanced Voice Mode erstaunlich menschlich. Er reagiert in Echtzeit, kann Unterbrechungen ausgleichen, lacht bei Witzen mit und kann den emotionalen Zustand eines Sprechers anhand seiner Stimmlage einschätzen. (In der ersten Demonstration klang es verdächtig nach Scarlett Johansson).

Ab Dienstag beginnt die Ausrollung des Advanced Voice Mode - der mit der leistungsstarken Version des Chatbots, ChatGPT-4o, funktioniert - für zahlende Nutzer. Der Advanced Voice Mode wird zunächst einer kleinen Gruppe von Abonnenten des "Plus"-Modus zur Verfügung gestellt und soll bis zum Herbst für alle Plus-Nutzer verfügbar sein.

ChatGPT verfügt bereits über eine weniger fortschrittliche Sprachmodus. Doch die Einführung eines fortgeschritteneren Voice Mode könnte einen Wendepunkt für OpenAI darstellen und den Chatbot in eine Art virtuellen, persönlichen Assistenten verwandeln, mit dem Nutzer auf natürliche, mündliche Weise sprechen können, wie sie es mit einem Freund tun würden. Die Leichtigkeit des Sprechens mit dem Advanced Voice Mode von ChatGPT könnte dazu beitragen, dass Nutzer das Tool häufiger verwenden, und eine Herausforderung für etablierte virtuelle Assistenten wie Apple und Amazon darstellen.

Doch die Einführung eines fortgeschritteneren Voice Mode für ChatGPT wirft auch große Fragen auf: Wird das Tool zuverlässig verstehen, was die Nutzer sagen, selbst wenn sie sprachliche Unterschiede aufweisen? Und werden Nutzer geneigt sein, einem menschenähnlich klingenden AI-Assistenten blind zu vertrauen, selbst wenn er sich irrt?

OpenAI hatte initially geplant, den Advanced Voice Mode im Juni einzuführen, sagte jedoch, dass es "einen Monat mehr Zeit braucht, um unsere Lancierungsgrenze zu erreichen", um die Sicherheit des Tools zu testen und sicherzustellen, dass es von Millionen von Menschen verwendet werden kann, während es immer noch Echtzeit-Antworten liefert.

Das Unternehmen sagte, dass es das AI-Modell in den letzten Monaten mit mehr als 100 Testern getestet hat, um mögliche Schwächen zu identifizieren, "die insgesamt 45 verschiedene Sprachen sprechen und aus 29 verschiedenen geografischen Regionen stammen", wie es in einer Mitteilung am Dienstag heißt.

Unter den Sicherheitsmaßnahmen wird der Voice Mode nicht in der Lage sein, Stimmen jenseits von vier vordefinierten Optionen zu verwenden, die in Zusammenarbeit mit Sprechern erstellt wurden - um Verwechslungen zu vermeiden - und wird bestimmte Anfragen blockieren, die Musik oder andere urheberrechtlich geschützte Audios erzeugen sollen. OpenAI sagt, dass das Tool auch die gleichen Schutzmechanismen wie der Textmodus von ChatGPT haben wird, um zu verhindern, dass es illegalen oder "schädlichen" Inhalt generiert.

Der Advanced Voice Mode wird auch einen wichtigen Unterschied zum Demo aufweisen, das OpenAI im Mai gezeigt hat: Nutzer werden nicht mehr auf die Stimme zugreifen können, von der viele (einschließlich der Schauspielerin selbst) glaubten, dass sie wie Johansson klingt. Während OpenAI betont hat, dass die Stimme nie so klingen sollte wie Johansson und mit Hilfe eines anderen Schauspielers erstellt wurde, setzte man die Verwendung der Stimme "aus Respekt" aus, nachdem die Schauspielerin Beschwerde eingelegt hatte.

Die Einführung des Advanced Voice Mode von ChatGPT folgt auf die Ankündigung von OpenAI letzte Woche, dass es einen Suchmaschinen-Test durchführt, der seine AI-Technologie nutzt, während das Unternehmen sein Portfolio an Consumer-facing AI-Tools weiter ausbaut. Die OpenAI-Suchmaschine könnte schließlich eine ernsthafte Wettbewerbsbedrohung für die Dominanz von Google in der Online-Suche darstellen.

Die Ausrollung des Advanced Voice Mode von ChatGPT-4 könnte mehr Geschäft für OpenAI bringen, indem sie den Chatbot in einen virtuellen Assistenten für natürliche Gespräche verwandelt. Doch die Zuverlässigkeit des Verstehens von Nutzer-Sprech mit Unterschieden und das Vertrauen in einen AI-Assistenten, der Fehler macht, sind Significant Bedenken.

Lesen Sie auch:

Kommentare

Aktuelles