zum Inhalt

KI-Firmen wehren sich gegen Transparenz bei ihren Lernressourcen

Warnung vor übermäßiger staatlicher Beaufsichtigung

In den letzten Monaten sind KI-Entwickler mehrfach von Autoren, Musikern und Filmemachern wegen...
In den letzten Monaten sind KI-Entwickler mehrfach von Autoren, Musikern und Filmemachern wegen Urheberrechtsverletzungen verklagt worden.

KI-Firmen wehren sich gegen Transparenz bei ihren Lernressourcen

KI Entwickler sollen in Zukunft ihre Schulungsdaten für KI offenbaren, wie vorgesehen in der EU's "AI-Verordnung". Die EU-Kommission will Künstlerrechte schützen, aber viele Unternehmen sind dagegen.

In Zukunft müssen KI-Entwickler ihre Schulungsdaten für externe Prüfungen zugänglich machen, wie in der EU-"AI-Verordnung" vorgesehen. Der Gesetzgeber erfordert zudem von Entwicklern eine ausführliche Zusammenfassung der verwendeten Daten. Allerdings bleiben die Spezifika dieser Berichte unklar.

Die Europäische AI-Behörde plant, Anleitungen für diese Berichte im Frühjahr 2025 nach Gesprächen mit Interessenten zu veröffentlichen. Unternehmen wehren sich gegen diesen Schritt, argumentieren, dass Konkurrenten einen Vorsprung erlangen könnten. Die EU-Kommission erkennt die Notwendigkeit, dass KI-Entwickler ihre Geschäftsgeheimnisse wahren, aber dieses Gesetz erlaubt es Inhaltlieferern, gegen Unternehmen vor Gericht vorzugehen, die ohne Erlaubnis ihr Werk verwenden.

Auf Gigantischen Datenbanken angewiesen

Seit der Vorstellung von ChatGPT etwa ein Jahr und ein Halbjahr her ist Generative KI in den Schlagzeilen. Diese Programme können Text, Bilder oder Audiodateien auf minimalen Anweisungen basierend erzeugen. Sie benötigen große Datenbanken, die wahrscheinlich Inhalte aus dem Internet enthalten.

KI-Entwickler konnten wegen Urheberrechtsverletzungen von Autoren, Musikern oder Filmemachern verklagt werden, da ihr Werk ohne Erlaubnis für die KI-Ausbildung verwendet wurde. Auch wurden Bedenken laut, dass Meta Inhalt und Persönlichkeitsdaten aus Facebook und Instagram für diese Zwecke verwendet.

OpenAI zog die Sprachausgabe des neuesten ChatGPT-Typs nach der Beschwerde der Schauspielerin Scarlett Johansson zurück, da der "Sky"-Ton zu ähnlich ihrem eigenen klang. Sie hatte zuvor eine Angebot von der Firma abgelehnt, ihre Stimme "Sky" zu leihen.

OpenAI wurde auch dafür kritisiert, dass die CEO Mira Murati in einer Zeitungsinterview die Frage, ob die neue Video-AI "Sora" mit YouTube-Videos trainiert wurde, nicht bestätigen wollte. YouTube sieht dies als Verletzung ihrer Geschäftsbedingungen an.

Innovation vor Regulierung

Um weitere Urheberrechtsklagen zu verhindern und die wachsenden politischen Druck auszuhebeln, haben sich in den letzten Monaten mehrere Technologieunternehmen mit Verlagen, Musiklabels, Online-Plattformen und Fernsehsendern in Lizenzabkommen eingeschlossen. Allerdings waren diese Selbstverpflichtungen nicht ausreichend, wie EU-Abgeordneter Dragos Tudorache, der sich an der "AI-Verordnung" beteiligt hat, meinte.

Transparenzberichte dienen als vorgeschriebene Kontrollinstrumente, sagt Tudorache. "Sie müssen ausreichend detailliert sein, damit Scarlett Johansson, Beyoncé oder jeder andere weiß, ob ihr Werk, ihre Lieder, ihre Stimme, ihr Kunstwerk oder ihr Wissen in der Algorithmus-Ausbildung verwendet wurde."

Die französische Regierung warnt davor, übermäßig zu regulieren, Angst vor dem Verlust an zukunftsfähiger europäischer KI-Technologie. "Europe muss endlich verstehen, dass man erst Innovationen schafft, bevor man reguliert," sagte der französische Finanzminister Bruno Le Maire auf der Viva Technology Conference in Paris im Mai. "Andernfalls läuft das Risiko, Technologien zu regeln, die wir nicht beherrschen, oder sie schlecht weil wir sie nicht beherrschen."

Lesen Sie auch:

Kommentare

Aktuelles