zum Inhalt

Meinung: KI kommt für die Journalisten

Der Rechtswissenschaftler Seán O'Connor schreibt über die Bedeutung der Klage, die die New York Times kürzlich vor einem Bundesgericht gegen OpenAI und Microsoft Corp. eingereicht hat und in der behauptet wird, dass die KI-Unternehmen ihre Werke ohne Erlaubnis verwenden.

.aussiedlerbote.de
.aussiedlerbote.de

Meinung: KI kommt für die Journalisten

Anmerkung des Herausgebers: Seán O'Connor ist Juraprofessor und Fakultätsleiter des Zentrums für geistiges Eigentum und Innovationspolitik an der Antonin Scalia Law School der George Mason University. Die in diesem Kommentar geäußerten Ansichten sind seine eigenen. Weitere Meinungen finden Sie bei CNN.

Seán O'Connor

Die New York Times behauptet letzteres in einer kürzlich beim Bundesgericht in Manhattan eingereichten Klage und schließt sich damit anderen Urhebern und Urheberrechtsinhabern an, die die unerlaubte Nutzung ihrer Werke durch KI-Unternehmen anfechten. Die Beklagten OpenAI und Microsoft Corp. werden mit ziemlicher Sicherheit erwidern, dass das Trainieren von ChatGPT und ähnlichen Systemen mit Millionen von urheberrechtlich geschützten Werken der Times und anderer eine "faire Nutzung" im Sinne des Gesetzes darstellt.

In der Tat hat OpenAI bereits einen Antrag auf Abweisung einer separaten Klage der Komikerin Sarah Silverman und anderer Autoren gegen Meta vor einem Bundesgericht in San Francisco im letzten Jahr gestellt, die auf einem ähnlichen Szenario basiert, in dem ChatGPT wesentliche Teile der Bücher reproduziert, nachdem es auf ihnen trainiert wurde. Auch wenn diese Klage nicht besonders erfolgreich war - der Richter hat vor kurzem Metas Antrag auf Abweisung aller Ansprüche von Silverman und anderen zugestimmt -, beruhte sie doch weitgehend auf anderen Theorien als der Fall der Times.

Einige Wissenschaftler haben eine Theorie des "fairen Lernens" aufgestellt, um die Reproduktion von urheberrechtlich geschütztem Material in generativen KI-Trainingssets zu rechtfertigen, und zwar mit der Analogie, dass dies der privaten Reproduktion urheberrechtlich geschützter Werke durch Menschen ähnelt, um sie zu studieren und von ihnen zu lernen, was im Allgemeinen als nicht verletzend oder als faire Nutzung angesehen wird. Diese KI-Ergebnisse ähneln jedoch im Wesentlichen bestimmten Artikeln der Times, heißt es in dem Papier. Diese Nutzung ist alles andere als fair.

Ohne die Fair-Use-Verteidigung sind GenAI-Firmen wahrscheinlich für Urheberrechtsverletzungen haftbar. Dies gibt der Times und anderen Verlagen sowohl das Recht, an den Gewinnen teilzuhaben, die GenAI mit dem Material der Verlage macht, als auch die Möglichkeit, "Leitplanken" dafür auszuhandeln, wie ihr Material verwendet wird oder in GenAI-Ausgaben landet.

Als Reaktion auf die Klage der Times sagte ein Sprecher von Open AI, dass das Technologieunternehmen die Rechte der Urheber und Eigentümer von Inhalten respektiere und mit ihnen zusammenarbeite, um sicherzustellen, dass sie von der KI-Technologie und neuen Erlösmodellen profitieren: "Unsere laufenden Gespräche mit der New York Times waren produktiv und haben sich konstruktiv weiterentwickelt. Wir sind zuversichtlich, dass wir einen für beide Seiten vorteilhaften Weg der Zusammenarbeit finden werden, wie wir es mit vielen anderen Verlagen tun." Microsoft reagierte nicht auf eine Anfrage nach einem Kommentar zu der Klage.

Wenn Kunststudenten die "Mona Lisa" kopieren, versuchen sie zu verstehen, wie Leonardo da Vinci seine künstlerische Vision umgesetzt hat. Ihr Ziel ist es, Werkzeuge zu entwickeln, mit denen sie ihre eigene Vision in ihrem eigenen originellen Stil ausdrücken können, und nicht den Stil eines anderen sklavisch zu kopieren.

OpenAI und Konsorten hingegen entwickeln ihre generativen KI-Systeme so, dass sie bestehende menschliche Kreationen und Stile nachahmen. Generative KI wird für Texte, Bilder und andere Ausdrucksformen verwendet, die als Reaktion auf Aufforderungen von Benutzern erstellt werden.

Ich habe dieses Geschäftsmodell im Zusammenhang mit Musik analysiert. Apps wie Jukebox und MuseNet - zwei weitere OpenAI-Projekte - werben mit ihrer Fähigkeit, "neue" Werke im Stil bestimmter Künstler und Komponisten zu schaffen. Es ist unklar, ob es sich um ein langfristiges Spiel handelt, bei dem es darum geht, einzigartige Werke zu erzeugen.

In ihren besten Zeiten propagiert die aufstrebende Industrie die Vision eines Werkzeugs, das Menschen bei der Schaffung unverwechselbarer Werke hilft. Derzeit beschränkt sich die generative KI jedoch auf Mashups bestehender Stile (was zum Teil daran liegt, dass die Systeme auf bestehendes Material trainiert werden müssen).

Eine bahnbrechende Kreativität ist nicht nur eine Umgestaltung der aktuellen stilistischen Inputs, bei der jeder erkennbar bleibt. Vielmehr handelt es sich um eine völlig neue stilistische Kreation, die ihre Einflüsse nur andeutet. "Frank Sinatra singt einen Ed Sheeran-Song", wie er von aktuellen generativen KI-Systemen erzeugt wird, würde genau so klingen, wie der Titel es beschreibt. Der Zuhörer würde hören, was wie Sinatras tatsächliche Stimme klingt, als ob er eine Coverversion eines Ed Sheeran-Songs singt - also die Art von Melodien, Akkordwechseln und Phrasierung, die für Sheerans Songs typisch sind - obwohl es sich nicht um einen tatsächlichen Sheeran-Song handelt.

Wenn menschliche Musiker dagegen ihren eigenen neuen Stil kreieren, der auf den Stilen anderer Musiker aufbaut, die sie bewundern und denen sie nacheifern, klingt das Ergebnis nicht so, als würde einer ihrer Einflüsse das Lied eines anderen Einflusses singen. Die Singer-Songwriterin Brandi Carlile hat zum Beispiel deutlich gemacht, dass ihr eigener Stil stark von früheren Künstlern wie Joni Mitchell und Elton John beeinflusst wurde. Doch mit Ausnahme der Fälle, in denen Carlile tatsächlich einen Joni- oder Elton-Song gecovert hat, klingen ihre eigenen Songs nicht direkt nach dem Vortrags- oder Kompositionsstil ihrer beiden Vorbilder. So klingt der Output erfahrener, kreativer Menschen wie etwas Neues, während der Output der KI wie eine unbeholfene Aneinanderreihung verschiedener menschlicher Arbeiten klingt, auf die sie trainiert wurde.

An ihren schlimmsten Tagen scheint die generative KI-Industrie darauf aus zu sein, die menschliche Kreativität gänzlich zu ersetzen. KI-Systeme werden nach ihren eigenen internen Vorgaben in großem Umfang neue Werke für alle Geschmäcker und Budgets hervorbringen. Kann daraus eine wertvolle Ästhetik oder ein authentischer neuer Stil entstehen?

Wenn es um Nachrichten geht, könnte man sich fragen: Sind Nachrichten nicht "nur Fakten"? Und nach dem Urheberrechtsgesetz sind Fakten nicht schützbar. Und wenn ein Text "funktional" ist, wie ein Rezept, dann ist er auch nicht schützbar. Doch selbst wenn die Nachrichtenberichterstattung lediglich faktisch und funktional ist, ist es nach der Entscheidung des Obersten Gerichtshofs der USA von 1918 in der Rechtssache International News Service gegen Associated Press immer noch eine widerrechtliche Aneignung, nicht urheberrechtlich geschützte Nachrichten unmittelbar zu reproduzieren.

Gleichzeitig besteht Journalismus nicht nur aus den Fakten. Es geht auch um das Erzählen von Geschichten. Die Leser wollen aufschlussreiche, originelle Standpunkte und Analysen, die in ansprechend gestaltete Passagen verpackt sind. In manchen Fällen kann ein Stil, der die Normen sprengt, wie Hunter S. Thompsons"Gonzo-Journalismus", den Lesern sogar eine neue Sichtweise auf das Weltgeschehen vermitteln.

Die generative KI ist absichtlich so angelegt, dass sie den Stil etablierter Journalisten nachahmt. Auf diese Weise erhält sie die Qualität, die die Leser von Nachrichten und Kommentaren erwarten. In der Praxis bedeutet dies auch, dass die generative KI nicht nur Texte im Stil bekannter Autoren ausgibt, sondern auch bereits veröffentlichte Passagen exakt reproduziert. Die Beschwerde der Times dokumentiert eine Reihe dieser Fälle.

Kann eine generative KI, die bereits veröffentlichte Nachrichten und Kommentare reproduziert, als Fair Use gelten? Ich glaube nicht. Einige Journalisten werden nicht nur deshalb mehr gelesen als andere, weil sie zuerst veröffentlichen oder bessere Erkenntnisse haben, sondern auch, weil sie ihre Ideen gut ausdrücken. Wenn generative KI auf diesen stilistischen Erfolgen herumreitet, versagt sie bei dem vierteiligen gesetzlichen Test für die faire Nutzung: Zweck und Charakter der Nutzung (z. B. kommerziell oder nicht kommerziell); Art des urheberrechtlich geschützten Werks; Umfang und Wesentlichkeit des verwendeten Teils im Vergleich zum Gesamtwerk; und Auswirkung der Nutzung auf den Markt für das Original. Die Gerichte verwenden häufig den Test der "umgestaltenden Nutzung" als Kurzform für einige oder alle dieser Faktoren. Verwendet das mutmaßlich rechtsverletzende Werk die reproduzierten Teile auf andere Weise als das Originalwerk?

Die Verwendung der generativen KI ist insofern nicht "transformativ", als sie die ursprüngliche Geschichte nicht kommentiert oder kritisiert oder sie in ein anderes Medium, einen anderen Zweck oder einen anderen Kontext verlagert. Stattdessen werden wesentliche Teile der Arbeit anderer reproduziert, um in denselben Marktkanälen wie das Original zu konkurrieren.

Erhalten Sie unseren kostenlosen wöchentlichen Newsletter

  • Melden Sie sich für den Newsletter von CNN Opinion an
  • Folgen Sie uns auf Twitter und Facebook

Noch problematischer für eine Welt, die von Fehlinformationen überschwemmt wird, ist die generative KI, die Geschichten "halluziniert" und dabei den Anschein erweckt, sie stammten aus seriösen Veröffentlichungen angesehener Nachrichtenagenturen. "Halluzinieren" nennt man es, wenn die generative KI Fakten und Geschichten fabriziert, die entweder nicht existieren oder so verändert wurden, dass sie falsch sind, diese aber auf überzeugende Weise präsentiert (z. B. ein Gerichtszitat präsentiert, das dem technischen Format entspricht, obwohl ein solcher Fall tatsächlich nicht existiert). Somit verletzt die generative KI Markenrechte und schreibt Geschichten und Ideen falsch zu.

Letztlich betreibt die generative KI genau das Gegenteil von dem, was menschliches Lernen erreichen soll. Anstatt sich die Stile anderer Experten anzueignen, um neue und bessere Stile zu entwickeln, ist sie ein sich schlängelnder Schlauch, der unkontrolliert herumfuchtelt und gedankenlose Textsequenzen ausspuckt, die nur auf Wahrscheinlichkeiten beruhen, dass ein Wort nach dem anderen in der menschlichen Ausdrucksweise kommt.

Die gedankenvollen Äußerungen qualifizierter menschlicher Schöpfer wurden in einen ungeheuerlichen Feuerschlauch der Unvernunft verwandelt, der nicht nur die Kreativwirtschaft, sondern auch die Demokratie und unseren Sinn für Wahrheit und Realität zu erschüttern droht. Auch wenn die Verletzung von Urheberrechten die geringste unserer Sorgen zu sein scheint, ist die Durchsetzung der Rechte an geistigem Eigentum der beste Anfang, um die generative KI zum Wohle der Menschheit zu zügeln.

Historische Titelseiten der Zeitschrift Sports Illustrated in der NFL-Zentrale in New York City im Januar 2005.

Lesen Sie auch:

Quelle: edition.cnn.com

Kommentare

Aktuelles