Meta integriert die Stimmtöne von Judi Dench, John Cena und Keegan-Michael Key in seinen Chatbot mit künstlicher Intelligenz.
Meta, das Unternehmen hinter Meta (META), gab kürzlich bekannt, dass sie Echtzeit-Sprachgespräche und künstlerisch simulierte Prominentenstimmen in ihren künstlichen Intelligenz-Chatbot, Meta AI, integrieren. Statt nur Nachrichten mit dem Chatbot auszutauschen, können Nutzer nun in Echtzeit diskutieren und zwischen einer Reihe von computererzeugten oder Prominentenstimmen wählen.
Meta hat sich mit Cena, Dench und Schauspielern wie Kristen Bell, Awkwafina und Keegan-Michael Key zusammengetan, um den Chatbot ihre einzigartigen Stimmen nachahmen zu lassen.
Diese Aufwertung ist Teil von Metas Plan, die Wettbewerbsfähigkeit seines AI-Chatbots zu erhalten. Nutzer können mit diesem AI-Chatbot auf Facebook, Instagram, WhatsApp und Threads interagieren, wobei Meta darauf abzielt, Konkurrentenprodukte wie den fortschrittlichen Sprachmodus von ChatGPT zu übertreffen, wie Meta-CEO Mark Zuckerberg sagte. MetaAI wird voraussichtlich bis zum Jahresende der beliebteste AI-Assistent weltweit sein, angetrieben durch die enorme Nutzerbasis von über 3 Milliarden Menschen, die täglich die Anwendungen des Unternehmens nutzen, trotz Unklarheiten darüber, wie oft Nutzer mit dem Chatbot interagieren.
Metas Rivale OpenAI wurde dieses Jahr kritisiert, weil sie den eigenen Echtzeit-Sprachmodus von ChatGPT präsentiert hatte, bei dem eine Demo-Stimme der Schauspielerin Scarlett Johansson ähnelte, die sich geweigert hatte, an dem Projekt teilzunehmen, aber nie tatsächlich beteiligt war. OpenAI bestritt jede Ähnlichkeit mit Johansson, stellte jedoch dennoch die Verwendung des Stimmencharakters Sky ein. Im Gegensatz dazu scheint Meta formale Vereinbarungen mit den Schauspielern getroffen zu haben, deren Stimmen in seinem Tool verwendet wurden.
Zuckerberg stellte den Sprachmodus auf der jährlichen Meta Connect Konferenz vor, auf der er weitere AI-Fortschritte, eine aktualisierte und günstigere Version der Meta-Quest-Headsets und Verbesserungen an der Reihe von erweiterter Realität-Ray-Ban-Gläsern des Unternehmens zeigte.
Weitere wichtige Ankündigungen beinhalteten die Ermöglichung, dass Social-Media-Influencer AI-Darstellungen von sich selbst erstellen können. Vor diesem Update konnten Influencer AI nur darauf trainieren, textbasierte conversations mit ihren Followern zu führen, aber jetzt können Follower in vollem Umfang, fast wie bei Videoanrufen, mit den AI-erzeugten Versionen von Influencern interagieren, die diese Funktion verwenden.
Metas Entwicklungen in der AI-Technologie werden auch die Übersetzung und Synchronisation von ausländischen Sprach-Reels (Metas kurze Videos) für Zuschauer in ihrer bevorzugten Sprache beinhalten. Zum Beispiel wird ein englischsprachiger Nutzer, der auf ein ursprünglich auf Spanisch erstelltes Reel stößt, es so sehen, als ob es ursprünglich auf Englisch aufgenommen wurde, mit Anpassungen an den Lippen des Sprechers, um die Synchronisation realistisch wirken zu lassen.
Metas AR-Brille wird auch Echtzeit-Übersetzungsfunktionen mit künstlicher Intelligenz enthalten. Ein Nutzer kann mit Personen sprechen, die eine fremde Sprache sprechen, und innerhalb von Sekunden die Übersetzung in seiner bevorzugten Sprache durch seine Ohrhörer hören, wie Zuckerberg verriet.
Die Technologiebranche ist gespannt auf Metas neuesten Geschäftsvorstoß, bei dem Echtzeit-Sprachgespräche und Prominentenstimmen in ihren AI-Chatbot, Meta AI, integriert werden. Dieser innovative Ansatz zielt darauf ab, MetaAI von Konkurrenten wie ChatGPT im Geschäftsbereich der AI-Assistenten abzuheben.