zum Inhalt

OpenAI kann KI-Text mit 99,9% Sicherheit Wassermarkieren, aber das wird es nicht (noch)

Die Technologie ist genau, aber sie könnte den Unternehmensgewinn schaden.

OpenAI kann künstlichen Text mit '99,9% Sicherheit' watermarken, wird es aber (noch) nicht tun.
OpenAI kann künstlichen Text mit '99,9% Sicherheit' watermarken, wird es aber (noch) nicht tun.

OpenAI kann KI-Text mit 99,9% Sicherheit Wassermarkieren, aber das wird es nicht (noch)

ChatGPT-Mutterunternehmen OpenAI hat anscheinend seit über einem Jahr eine Methode zur Wasserzeichenvergabe für KI-Texten auf Eis gelegt, wie das Wall Street Journal berichtet. Eine solche Technologie würde Lehrern, Forschern und im Grunde genommen jedem, der sicherstellen möchte, dass der gelesene Text von einem echten Menschen stammt, zugutekommen, doch das Unternehmen sorgt sich, dass sie umgangen werden könnte und dies den Geschäftsbetrieb beeinträchtigen könnte.

"Eine Technologie, die mit 99,9-prozentiger Sicherheit Text erkennen kann, der von künstlicher Intelligenz geschrieben wurde, wurde intern seit zwei Jahren diskutiert", schreibt das WSJ über OpenAI und sagt, dass die Technologie im Grunde genommen bereit sei und durch Anpassung des Modells an ein erkennbares Muster funktioniere. Das Medium sagt, dass das Unternehmen nicht glaubt, dass das Wasserzeichen-Tool die Qualität von ChatGPT beeinträchtigen würde, doch es sorgt sich, dass die Erkennung und Wasserzeichenvergabe von ChatGPT-generiertem Text fast 30 Prozent der Nutzer abschrecken könnte, die angeblich OpenAI sagten, dass sie ChatGPT weniger verwenden würden, wenn der generierte Text markiert wäre.

In Reaktion auf den WSJ-Bericht hat OpenAI einen Blog-Beitrag veröffentlicht, in dem es bestätigt, dass es intern die Wasserzeichenvergabe untersucht hat, doch während sie "bei hoher Genauigkeit und sogar gegen lokale Manipulationen wie Umformulierung wirksam war", ist sie weniger hilfreich bei Texten, die übersetzt oder mit einem externen Modell neu formuliert wurden. Sie ist auch anfällig für Hacks wie das Hinzufügen und Löschen von Junk-Zeichen, was OpenAI als "triviale Umgehung durch böswillige Akteure" bezeichnet. Als Alternative untersucht das Unternehmen die Verwendung von Metadaten, um KI-generierten Text zu kennzeichnen, was es als "keine falschen Positive" bezeichnet. Das Unternehmen verwendet bereits Metadaten, um KI-generierte Bilder zu kennzeichnen, wie es in einem Beispiel in seinem Blog-Beitrag erläutert.

Egal welche Methode das Unternehmen verwendet, der Bedarf nach einer baldigen Einführung ist klar. Laut einer von WSJ in Auftrag gegebenen Umfrage unterstützen "Menschen weltweit die Idee eines KI-Erkennungstools mit einem Verhältnis von vier zu eins".

Google verwendet bereits Wasserzeichen für KI-generierten Text, wie es auf diesem Jahr's Google I/O erklärt wurde.

Die von OpenAI entwickelte KI-Wasserzeichen-Technologie könnte Lehrern und Forschern erheblich zugutekommen, indem sie bei der Überprüfung der Echtheit von Textquellen hilft. Doch das Unternehmen sorgt sich, dass Nutzer markierten Text als weniger ansprechend empfinden und die Plattform weniger nutzen könnten.

In einem ähnlichen Szenario hat Google bereits Wasserzeichen für KI-generierten Text implementiert und damit sein Potenzial in Bezug auf KI-Erkennung und Plagiatsverhinderung demonstriert.

Lesen Sie auch:

Kommentare

Aktuelles