Die Macher der Schreibsoftware ChatGPT versuchen nun, die Folgen ihrer Erfindung zu meistern. Das Entwicklungsunternehmen OpenAI hat ein Programm veröffentlicht, das erkennen kann, ob ein Text von einem Menschen oder einem Computer geschrieben wurde. ChatGPT ist so gut darin, menschliche Sprache nachzuahmen, dass Bedenken bestehen, dass es zum Betrügen oder zum Erstellen massiver Desinformationskampagnen verwendet werden könnte.
Die Erkennung ist immer noch ziemlich mittelmäßig, genau wie OpenAI Blog-Eintrag Dienstag aufgenommen. In Testläufen erkannte die Software computergeschriebenen Text in 26 Prozent der Fälle korrekt. Gleichzeitig wurden aber 9 Prozent der von Menschen erstellten Texte fälschlicherweise Maschinen zugeordnet. Daher wird vorläufig dazu geraten, sich bei der Textbewertung nicht primär auf die Bewertung des „Klassifikators“ zu verlassen.
ChatGPT ist eine auf künstlicher Intelligenz basierende Software, die mit riesigen Text- und Datenmengen trainiert wurde, um die menschliche Sprache nachzuahmen. Gleichzeitig kann das Programm völlig falsche Informationen überzeugend mit korrekten Informationen mischen. OpenAI machte ChatGPT letztes Jahr öffentlich und löste damit Bewunderung für die Fähigkeiten der Software und Bedenken hinsichtlich Betrug aus.
Auch Google arbeitet seit Jahren an Software, die wie Menschen schreiben und sprechen kann, hat sich aber bisher mit der Veröffentlichung zurückgehalten. Der Internetkonglomerat lässt Mitarbeiter einen Chatbot ähnlich wie ChatGPT testen, berichtete CNBC am späten Mittwoch. Eine interne E-Mail gab an, dass Antworten auf ChatGPT Priorität hätten. Auch Google experimentiert mit einer Frage-und-Antwort-Version seiner Internet-Suchmaschine.