Wie man erkennt, ob die KI das geschriebene Buch ist
Dieser Beitrag ist Teil der “AI enttarnt”-Serie von Lifehacker. Wir erkunden sechs verschiedene Arten von AI-generierten Medien und heben die gemeinsamen Eigenheiten, Nebenprodukte und Kennzeichen hervor, die Ihnen helfen, zwischen künstlich erzeugten und von Menschen geschriebenen Inhalten zu unterscheiden.
Seit ChatGPT dem Rest der Welt im späten 2022 die generative KI vorstellte, ist klar, dass man künftig nicht mehr davon ausgehen kann, dass etwas, das man liest, von einem Menschen geschrieben wurde. Man kann ein AI-Programm wie ChatGPT bitten, etwas – alles Mögliche – zu schreiben, und es wird es in wenigen Sekunden tun. Wie kann man also sicher sein, dass das, was man liest, aus dem Geist eines Menschen und nicht aus dem eines Algorithmus stammt?
Wenn der laufende Abbau der AI-Blase eines gezeigt hat, dann, dass die meisten Menschen KI im Allgemeinen irgendwie verabscheuen, was bedeutet, dass sie wahrscheinlich nicht begeistert sind von der Idee, dass das, was sie lesen, von einer Maschine ohne nachzudenken ausgespuckt wurde. Trotzdem haben einige die Fähigkeit von AI, realistische Texte zu generieren, vollständig angenommen, ob zum Besseren oder, häufig, zum Schlechteren. Letztes Jahr begann CNET stillschweigend AI-Inhalte neben Artikeln von Menschen zu veröffentlichen, nur um von eigenen Mitarbeitern Kritik und Gegenwehr zu ernten. Der ehemalige Lifehacker-Mutterkonzern G/O Media veröffentlichte AI-Inhalte auf seinen Seiten, wenn auch öffentlich, und erlebte denselben Gegenwind – sowohl wegen der Implementierung der Technologie ohne Mitarbeiterbeteiligung als auch wegen der schlechten Qualität des Inhalts.
Aber nicht alle AI-generierten Texte geben sich so deutlich zu erkennen. Wenn sie richtig eingesetzt wird, können AI-Programme auch überzeugende Texte erzeugen – auch wenn man immer noch Anzeichen dafür finden kann, dass ihre Quelle unnatürlich ist.
Wie AI-Schreiben funktioniert
Generative KI ist keine allwissende digitale Intelligenz, die Ihre Fragen wie ein Mensch beantworten kann. Sie ist gar nicht intelligent. Aktuelle AI-Tools werden von großen Sprachmodellen (LLMs) angetrieben, die tiefe Lernalgorithmen sind, die mit riesigen Datensätzen trainiert wurden – in diesem Fall Datensätze von Texten. Dieses Training beeinflusst alle ihre Antworten auf Benutzerabfragen. Wenn Sie ChatGPT bitten, etwas zu schreiben, bricht das AI Ihre Frage auf und identifiziert, was es für die wichtigsten Elemente hält. Es "vorhersagt" dann die richtige Abfolge von Wörtern, um Ihre Anfrage zu beantworten, basierend auf seinem Verständnis der Beziehungen zwischen Wörtern.
Mächtigere Modelle können mehr Informationen auf einmal aufnehmen und im Gegenzug längere, natürlichere Ergebnisse liefern. Außerdem ist es üblich, dass Chatbots mit individuellen Anweisungen programmiert werden, die auf alle Eingaben angewendet werden, was, wenn strategisch eingesetzt, potenziell die üblichen Anzeichen für AI-generierte Texte verschleiern kann.
Trotzdem ist das AI, egal wie man es dazu bringt, zu antworten, seinem Training unterworfen, und es wird wahrscheinlich Anzeichen dafür geben, dass ein Text von einem LLM generiert wurde. Hier sind einige Dinge, auf die Sie achten sollten.
Achten Sie auf häufig verwendete Wörter und Phrasen
Weil Chatbots darauf trainiert wurden, die Beziehungen zwischen Wörtern zu erkennen, verwenden sie bestimmte Wörter und Phrasen häufiger als ein Mensch. Es gibt keine spezifische Liste von Wörtern und Phrasen, die als rote Flaggen dienen, aber wenn Sie ein Tool wie ChatGPT häufig genug verwenden, werden Sie vielleicht beginnen, sie zu erkennen.
Zum Beispiel verwendet ChatGPT das Wort "delve" häufig, insbesondere bei Übergängen im Schreiben. (z.B. "Lassen Sie uns delve into its meaning.") Das Tool expresses auch gerne, wie eine Idee "unterstreicht" das Gesamtargument (z.B. "Diese Erfahrung unterstreicht die Bedeutung von Ausdauer..."), und wie etwas "ein Zeugnis für" etwas anderes ist. (Ich habe mit ChatGPT drei Essays für diesen Abschnitt generiert – zwei mit GPT-4o und eines mit GPT-4o mini – und "Zeugnis" kam in jedem vor.)
Ähnlich können Sie wiederholte Verwendungen von Wörtern wie "emerge", "relentless", "groundbreaking" und anderen bemerkenswerten Stammgästen sehen. Insbesondere, wenn ChatGPT eine Sammlung von etwas beschreibt, wird es es oft eine "Mosaik" oder ein "Tapestry" nennen. (z.B. "Die kulturelle Landschaft von Madrid ist ein vibrierendes Mosaik.")
Dieser Reddit-Thread von r/chatgpt listet eine Menge dieser häufig generierten auf – es ist jedoch wichtig zu beachten, dass der Beitrag 10 Monate alt ist und OpenAI seine Modelle regelmäßig aktualisiert, sodass einige davon heute möglicherweise nicht mehr relevant sind. In meinen Tests habe ich festgestellt, dass einige der am häufigsten genannten Wörter des Reddit-Threads in meinen Testessays überhaupt nicht vorkamen, während andere definitiv vorkamen, und zwar häufig.
All diese Wörter sind natürlich perfekt geeignet, wenn Sie selbst schreiben. Wenn ein Schüler "delve into" in seinem Aufsatz verwendet, beweist das nicht automatisch, dass er ihn mit ChatGPT erstellt hat. Wenn ein Mitarbeiter in einem Bericht schreibt, dass etwas "ein Zeugnis für" etwas anderes ist, bedeutet das nicht, dass er seine Arbeit an AI auslagert. Dies ist nur ein Aspekt von AI-Schreiben, auf den Sie in Zukunft achten sollten, wenn Sie Texte analysieren.
Obwohl Sie OpenAI's GPT-Modell oder Google's Gemini verwenden, hat künstliche Intelligenz die unangenehme Gewohnheit, blumige Sprache in ihren Generationen zu verwenden, als ob sie mostly an Marketing-Texten trainiert worden wäre. KI wird oft versuchen, Sie hart für alles zu gewinnen, worüber sie gerade spricht: Die Stadt, über die sie schreibt, ist oft "integral", "lebendig" und ein " cornerstone " des Landes, in dem sie sich befindet; das Analogies, das sie verwendet, "schön" hervorhebt das Argument insgesamt; eine negative Folge ist nicht nur schlecht, sondern "devastierend". Keiner dieser Beispiele ist isoliert verdammend, aber wenn Sie genug KI-Text lesen, werden Sie das Gefühl haben, als hätten Sie mit einem Thesaurus gesprochen.
Dies wird noch offensichtlicher, wenn ein Chatbot versucht, einen lockeren Ton zu verwenden. Wenn der Bot so tut, als wäre er eine reale Person, zum Beispiel, wird er oft als überschwänglich und übertrieben dargestellt und viel zu enthusiastisch, um auf das zu hören, was Sie zu sagen haben. Um fair zu sein, hat das GPT-4o-Modell von ChatGPT in meinen Tests für diesen Artikel nicht so viel davon gemacht wie früher und hat lieber knappe Antworten auf persönliche Fragen gegeben - aber Meta AIs Chatbot tut es definitiv immer noch, indem er die Rollen von bestem Freund und Therapeut übernimmt, wann immer ich ein fiktives Problem teile, das ich habe.
Wenn Sie einen Aufsatz oder einen Artikel lesen, der ein Argument exprimiert, achten Sie darauf, wie der "Autor" seine Punkte strukturiert. Jemand, der ein AI-Tool bittet, einen Aufsatz zu einem Thema zu schreiben, ohne es zu viel zu coachen, erhält oft einen Aufsatz, der nicht wirklich in die Argumente eindringt. Das AI wird wahrscheinlich kurze Absätze generieren, die nur eine oberflächliche Ebene der Punkte anbieten, die nicht viel dazu beitragen, das Argument zu vertiefen oder zur Erzählung beizutragen, indem es die oben genannten $10-Wörter und blumige Sprache verwendet. Jeder Absatz könnte eher wie eine Zusammenfassung des Arguments wirken, anstatt wie ein Versuch, zum Argument beizutragen. Denken Sie daran, ein LLM weiß nicht einmal, worüber es argumentiert; es verbindet einfach Wörter, von denen es glaubt, dass sie zusammengehören.
Wenn Sie das Gefühl haben, dass Sie nichts aus dem Stück gelernt haben, könnte das AI daran schuld sein.
Faktenüberprüfung und Korrekturlesen
LLMs sind Black Boxes. Ihr Training ist so komplex, dass wir nicht reinschauen können, um genau zu sehen, wie sie ihre Verständnis der Beziehungen zwischen Wörtern etabliert haben. Was wir wissen, ist, dass alle AI die Fähigkeit (und die Neigung) hat, Halluzinationen zu erzeugen. Mit anderen Worten, manchmal erfindet ein AI einfach Dinge. Wieder einmal, LLMs wissen nicht wirklich etwas: Sie prophezeien nur Muster von Wörtern basierend auf ihrem Training. Also wird vieles von dem, was sie ausspucken, wahrscheinlich auf der Wahrheit basieren, aber manchmal prophezeien sie falsch, und Sie könnten einige bizarre Ergebnisse am anderen Ende erhalten. Wenn Sie einen Text lesen und eine Behauptung sehen, von der Sie wissen, dass sie nicht wahr ist, insbesondere ohne Quelle, sein Sie skeptisch.
Auf der anderen Seite, betrachten Sie, wie viel Korrekturlesen des Stücks erforderlich war. Wenn es null Tippfehler und keine grammatikalischen Fehler gab, ist das auch ein AI-Signal: Diese Modelle können Dinge erfinden, aber sie geben keine Fehler wie Rechtschreibfehler aus. Natürlich könnte der Autor sicherstellen, dass er jeden "i" punktiert und jedes "t" gekreuzt hat, aber wenn Sie sowieso besorgt sind, dass der Text mit AI generiert wurde, könnte stilisierte Perfektion ein Hinweis sein.
Versuchen Sie einen AI-Text-Detektor (aber Sie können denen auch nicht trauen)
AI-Detektoren, wie LLMs, basieren auf AI-Modellen. Aber statt auf großen Mengen an allgemeiner Text trainiert zu werden, werden diese Detektoren speziell auf AI-Text trainiert. Theoretisch bedeutet das, dass sie AI-Text erkennen sollten, wenn sie ein Beispiel präsentiert bekommen. Das ist nicht immer der Fall.
Als ich letztes Jahr über AI-Detektoren schrieb, warnte ich davor, sie nicht zu verwenden, weil sie nicht so zuverlässig waren, wie sie behaupteten. Es ist schwer zu sagen, wie viel sie sich seitdem verbessert haben: Wenn ich eine meiner Geschichten durch ein Tool wie ZeroGPT führe, sagt es, dass mein Stück zu 100% von einem Menschen geschrieben wurde. (Verdammt richtig.) Wenn ich einen Aufsatz generiere, den Gemini über die Bedeutung von Harrys Elternverlust in der Harry-Potter-Serie verfasst hat, identifiziert das Tool 94,95% des Stücks als AI-generiert. (Der einzige Satz, den es für von einem Menschen geschrieben hält, ist: "Dieses persönliche Engagement im Konflikt unterscheidet Harry von anderen Charakteren und verleiht ihm einen unerschütterlichen Zweck." Stimmt.)
- Um künstlich generierten Text effektiver zu hinterfragen, ist es wichtig, sich mit den gängigen linguistischen Eigenheiten vertraut zu machen, die künstliche Intelligenz-Modelle häufig aufweisen, wie z.B. die Überverwendung bestimmter Wörter oder Phrasen.
- In der Tech-Welt besteht ein wachsender Bedarf, zwischen künstlich generiertem und von Menschen erstelltem Inhalt zu unterscheiden, insbesondere da Chatbots und andere AI-Tools stetig fortschreiten und sich verbessern.