Die Möglichkeit, dass Scarlett Johansson OpenAI verklagt, gibt Anlass zu großer Sorge.
Die Dinge könnten eine Wendung nehmen, nachdem Johansson erwähnt hat, dass OpenAI versucht hat, sie als Stimme für einen KI-Assistenten für ChatGPT zu engagieren, und als sie ablehnte, haben sie stattdessen eine ähnliche Stimme verwendet. Wenn der Mitbegründer und CEO von OpenAI, Sam Altman, in diesen Rechtsstreit verwickelt ist, könnte das erhebliche Konsequenzen haben.
Rechtsexperten gehen davon aus, dass Johansson einen dichten Rechtsanspruch haben könnte, wenn sie sich zu einer Klage entschließt, und verweisen auf zahlreiche Präzedenzfälle, die zu ernsthaften Schäden für ein prominentes KI-Unternehmen wie OpenAI führen und Fragen hinsichtlich der Bereitschaft der Branche aufwerfen könnten, sich mit den komplizierten Problemen der KI auseinanderzusetzen.
Interessanterweise schien OpenAI mit dem rechtlichen Hintergrund nicht vertraut zu sein oder ihn absichtlich zu ignorieren, was auf eine vermeintlich laxe Aufsicht in der KI-Branche hinweist. OpenAI hat noch nicht auf eine Bitte um Stellungnahme reagiert.
Die rechtlichen Bedenken von OpenAI
Nach Ansicht von Rechtsexperten könnten zwei Rechtsbereiche ins Spiel kommen, von denen jedoch aufgrund der bekannten Fakten nur einer relevant sein dürfte.
Die erste Frage könnte das Urheberrecht sein. Wenn OpenAI Johanssons Filme oder andere veröffentlichte Werke direkt gesampelt hat, um Sky, den freundlichen Sprachassistenten in einem Upgrade für ChatGPT, zu erstellen, könnte es zu einer Urheberrechtsklage kommen, wenn keine Erlaubnis eingeholt wurde.
OpenAI behauptet jedoch, niemals Johanssons tatsächliche Stimme verwendet zu haben, sondern stattdessen "eine andere professionelle Schauspielerin, die ihre eigene natürliche Sprechstimme verwendet". Dies könnte zwar ein Urheberrechtsproblem entschärfen, würde OpenAI aber wahrscheinlich nicht vor dem nächsten rechtlichen Aspekt schützen.
Tiffany Li, Juraprofessorin mit Schwerpunkt geistiges Eigentum und Technologie an der Universität von San Francisco, meint dazu: "Es spielt keine Rolle, ob OpenAI die tatsächlichen Stimmsamples von Scarlett Johansson verwendet hat. Sie hat hier immer noch einen gültigen Fall von Öffentlichkeitsrecht".
Das Konzept des Publizitätsrechts
In mehreren Bundesstaaten gibt es Gesetze zum Recht auf Öffentlichkeit, die die Identitäten oder öffentlichen Persönlichkeiten von Personen vor Missbrauch schützen, und das kalifornische Gesetz - die Heimat von Hollywood und OpenAI - gehört zu den stärksten.
Das Gesetz verbietet die unerlaubte Verwendung des "Namens, der Stimme, der Unterschrift, des Fotos oder des Bildes" einer Person zum Zweck der "Werbung oder des Verkaufs oder der Aufforderung zum Kauf von Produkten, Waren, Gütern oder Dienstleistungen".
Im Gegensatz zu einer Urheberrechtsklage, bei der es um geistiges Eigentum geht, geht es bei einer Klage wegen des Rechts auf Öffentlichkeitsarbeit um die unbefugte Nutzung der Identität oder der öffentlichen Person einer Person zu kommerziellen Zwecken. In diesem Szenario könnte Johansson OpenAI beschuldigen, sie zum Zwecke des finanziellen Gewinns missbraucht zu haben, indem sie den Nutzern vorgegaukelt hat, dass sie die Stimme von Sky ist.
OpenAI könnte versuchen, sich zu verteidigen, indem sie argumentiert, dass ihre mittlerweile viralen Videos, die die Fähigkeiten von Sky veranschaulichen, nicht als Werbung gedacht waren oder darauf abzielten, den Verkauf anzukurbeln. John Bergmayer, juristischer Direktor bei Public Knowledge, einer Verbraucherschutzorganisation, hat Zweifel an einer solchen Verteidigung: "Ich glaube, dass die Verwendung in einem stark beworbenen Werbevideo oder einer Präsentation diesen Test leicht erfüllt."
Im Gegensatz zur Urheberrechtsklage, die aufgrund der Behauptung von OpenAI, eine andere Schauspielerin verwendet zu haben, möglicherweise nicht anwendbar ist, konzentriert sich die Klage auf das Recht auf Veröffentlichung eher auf die unbefugte Nutzung der Identität oder des öffentlichen Profils einer Person zu Gewinnzwecken. In diesem Fall könnte Johansson behaupten, dass OpenAI unrechtmäßig von ihrer Identität profitiert hat, indem es NutzerInnen vorgaukelte, sie spreche Sky.
Eine mögliche Verteidigung von OpenAI ist, dass die Videos, die Skys Fähigkeiten zeigen, nicht als Werbung gedacht waren. Dieses Argument könnte jedoch wenig stichhaltig sein.
Rechtsfälle mit Parallelen
Es gibt mehrere Fälle, die auf die möglichen Probleme von OpenAI hinweisen.
Im Jahr 1988 gewann Bette Midler einen Rechtsstreit gegen die Ford Motor Company wegen eines Werbespots, in dem ihre Stimme zu hören war. Obwohl Midler die Möglichkeit, den Werbespot aufzunehmen, abgelehnt hatte, engagierte Ford stattdessen einen Sound-Imitator. Die Ähnlichkeiten zwischen der Nachbildung und dem Original waren so ausgeprägt, dass einige Leute dachten, Midler hätte in dem Werbespot mitgespielt.
Das US-Berufungsgericht für den 9. Gerichtsbezirk entschied zu Midlers Gunsten und betonte: "Die Beklagten baten Midler zu singen, wenn ihre Stimme für sie nicht von Wert war. Warum suchten sie die Dienste einer Tonimitatorin und wiesen sie an, Midler zu imitieren, wenn Midlers Stimme für sie nicht von Wert war? Was sie wollten, war ein Attribut von Midlers Identität. Sein Wert war das, was der Markt für Midler gezahlt hätte, wenn sie den Werbespot persönlich gesungen hätte".
In einem ähnlich gelagerten Fall aus dem Jahr 1992 wurde Tom Waits von Frito-Lay 2,6 Millionen Dollar Schadensersatz für eine Doritos-Werbung zugesprochen, in der Waits' markante, raue Stimme imitiert wurde. Das Gericht bekräftigte sein Urteil in der Rechtssache Midler und unterstrich, dass das kalifornische Gesetz zum Schutz der Öffentlichkeit die Stimme einer Person schützt.
Der Fall zwischen Johansson und OpenAI weist Ähnlichkeiten zu früheren Vorfällen auf. Johansson behauptet, OpenAI habe sie gebeten, die Figur Sky darzustellen, was sie ablehnte. Später stellte OpenAI eine Version von Sky vor, die Johansson sehr ähnlich sah, was sie zu der Bemerkung veranlasste, dass ihre engsten Freunde nicht zwischen ihr und der von der KI generierten Figur unterscheiden konnten.
Ob OpenAI sich gegen eine mögliche Klage wegen widerrechtlicher Aneignung verteidigen kann, könnte von ihren Absichten abhängen - wenn OpenAI beweisen kann, dass sie Johanssons Stimme nicht nachahmen wollten.
In einem kürzlich veröffentlichten Blog-Post hat OpenAI bekräftigt, dass Sky nicht als Imitation von Johansson gedacht war. Stattdessen war es ihr Ziel, eine einnehmende Stimme zu schaffen, die Vertrauen schafft und einen reichhaltigen Ton enthält.
OpenAI könnte jedoch ihre Position gefährdet haben.
"OpenAI hätte vielleicht eine Chance gehabt, wenn sie nicht die letzten zwei Wochen damit verbracht hätten, jedem zu suggerieren, dass sie gerade Samantha aus 'Her' erschaffen haben", erklärt James Grimmelmann, Rechtsprofessor an der Cornell University. "Es war allgemein bekannt, dass Sky Samantha war, und das war Absicht."
In den sozialen Medien kursierten Screenshots des Twitter-Accounts von OpenAI, die darauf hindeuteten, dass sie Sky mit Johanssons Figur aus dem Film "Her" von 2013 verglichen. Altman gab dann am Montag nach Johanssons Aussage zu, dass sie "den Synchronsprecher für Skys Stimme gecastet haben, bevor sie Frau Johansson kontaktiert haben" und entschuldigte sich dafür, dass sie nicht besser kommuniziert haben.
Trotzdem glaubt Grimmelmann, dass OpenAI immer noch gefährdet sein könnte. "OpenAI hätte einen plausiblen Fall haben können, wenn sie nicht die letzten zwei Wochen damit verbracht hätten, jedem zu verraten, dass sie gerade Samantha aus 'Her' geschaffen haben", sagte er. "Es gab eine weit verbreitete öffentliche Anerkennung, dass Sky Samantha war, und zwar absichtlich."
Diese Kontroverse zeigt die potenziellen Probleme im Zusammenhang mit Deepfakes und KI. Während das kalifornische Publizitätsgesetz jedermann schützt, schützen einige Landesgesetze nur berühmte Persönlichkeiten, und nicht alle Staaten haben diese Vorschriften.
Hinzu kommt, dass die bestehenden Gesetze zwar das Bild oder sogar die Stimme einer Person schützen, aber möglicherweise nicht alle KI-bezogenen Aktionen abdecken, wie etwa die Aufforderung an ein Modell, Kunst im Stil eines bekannten Künstlers nachzubilden.
"Diese Situation zeigt die Notwendigkeit eines Bundesgesetzes zum Recht auf Öffentlichkeit, da nicht jeder Fall notwendigerweise Kalifornien betrifft", so Bergmayer.
Einige Unternehmen haben darauf mit Gesetzesvorschlägen reagiert. Adobe, das Software einschließlich KI-Tools entwickelt, hat einen Vorschlag mit dem Namen FAIR Act vorgelegt, der ein bundesweites Verbot von KI-Imitationen vorsieht. Das Unternehmen vertritt die Auffassung, dass die Technologiebranche ein Interesse daran hat, dass ihre Kunden weiterhin von ihren Originalwerken profitieren können, ohne ihre wirtschaftliche Existenz durch KI-Imitationen zu gefährden.
Dana Rao, Chief Trust Officer und Chefsyndikus von Adobe, schloss sich den Ausführungen von Rao an: "Die Sorge, die man als Urheber hat, ist, dass die KI die eigene wirtschaftliche Existenzgrundlage verdrängen könnte, weil sie auf der Grundlage der eigenen Arbeit trainiert. Das ist die Angst in der Community. Was wir bei Adobe sagen, ist, dass wir unseren Kreativen immer die fantastischste Technologie anbieten werden, aber wir glauben auch an verantwortungsvolle Innovation."
In der Zwischenzeit arbeiten die US-Gesetzgeber an einer entsprechenden Gesetzgebung. Im Jahr 2021 stellte eine parteiübergreifende Gruppe von Senatoren den NO FAKES Act vor, einen Entwurf zum Schutz von Urhebern. Ein weiterer Gesetzesentwurf im Repräsentantenhaus trägt den Namen No AI Fraud Act.
Befürworter digitaler Rechte und Akademiker warnten jedoch, dass die entstehende Gesetzgebung möglicherweise erhebliche Grauzonen lässt.
"Es geht um die freie Meinungsäußerung, z. B. um die Frage, ob Menschen das Bildnis anderer Personen für Bildungszwecke oder andere nichtkommerzielle Zwecke verwenden dürfen", so Rothman, ein Experte für geistiges Eigentum, in einem Blogbeitrag vom Oktober über das NO FAKES-Gesetz. "Es gibt auch Fragen zu den Rechten am Bild einer Person nach ihrem Tod, was für die Nachbildung verstorbener Künstler in Filmen oder Musik wichtig ist."
Diese Debatten unterstreichen die Schwierigkeiten der Gesetzgeber, die Komplexität der KI zu bewältigen.
Lesen Sie auch:
- Telefónica plant die Einführung eines holografischen Telefons
- vzbv: Internetkonzerne betrügen trotz Verbot weiter
- Telefónica will bis 2026 holografische Telefone auf den Markt bringen
- Worldcoin-Projekt verbindet Telegram und Reddit
Quelle: edition.cnn.com