Wie man erkennt, ob man mit einem Bot spricht
Dieser Beitrag ist Teil der Lifehacker-Serie „AI enttarnt“. Wir erkunden sechs verschiedene Arten von künstlich erzeugten Medien und heben die gemeinsamen Eigenheiten, Nebenprodukte und Kennzeichen hervor, die helfen, zwischen künstlicher und von Menschen geschaffener Inhalte zu unterscheiden.
Heutzutage findet viel Kommunikation über Text statt. Sie tauschen vielleicht Nachrichten mit einem Match auf einer Dating-App aus oder chatten mit einem Kundendienstmitarbeiter, anstatt mit ihm zu sprechen, wenn Sie Kundenservice benötigen. Das Problem ist, dass Sie bei rein textbasierter Kommunikation nie wirklich wissen, mit wem Sie sprechen. Tatsächlich könnten Sie gar nicht mit einer Person chatten.
Die Entwicklung von Conversational AI hat in den letzten Jahren enorme Fortschritte gemacht, und die Einführung von Chatbots wie ChatGPT hat die Situation nur noch verschärft. Diese Bots waren bereits schwer zu erkennen, bevor intelligente AI es möglich machte, die menschliche Sprache in erschreckendem Maße nachzuahmen. Aber selbst bei diesem schnellen Fortschritt ist die Technologie noch lange nicht perfekt. Es gibt einige Kennzeichen von AI-Chatbots, auf die Sie achten können, um herauszufinden, ob die „Person“ am anderen Ende der Chat-Nachricht wirklich die ist, die sie zu sein behauptet.
Wie funktionieren Chatbots?
Moderne Chatbots werden von großen Sprachmodellen (LLMs) angetrieben. Diese Modelle werden auf Datensätzen trainiert, die eine enorme Menge an Text enthalten: Im Laufe der Zeit lernt das Modell Beziehungen zwischen Wörtern und Phrasen, die es verwendet, um seine Antworten zu informieren. Wenn Sie den Chatbot eine Frage stellen, bricht er Ihren Eintrag in die Teile auf, die er für die wichtigsten hält, und greift auf sein Training zurück, um zu erraten, welche Wörter sinnvoll sind, um zu antworten. Es versteht nicht was es sagt, sondern nur, dass diese Reihe von Wörtern aufgrund seines Datensatzes sinnvoll ist.
Darauf aufbauend können Entwickler ihren Chatbots spezifische Anweisungen geben, wie sie auf Anfragen antworten sollen, um die Benutzererfahrung besser zu steuern. Dies ist insbesondere nützlich, wenn der Entwickler möchte, dass sein Chatbot eine bestimmte Rolle übernimmt, wie die eines Kundendienstmitarbeiters: Sie möchten nicht, dass Ihr Mitarbeiter über Themen schwadroniert, die nicht mit dem Unternehmen zusammenhängen, noch möchten Sie, dass er sich mit dem Benutzer streitet. Seine Anweisungen können es daher schwierig machen, herauszufinden, ob die Person am anderen Ende ein gut geschulter Mitarbeiter oder ein Roboter ist.
Auf der anderen Seite könnte ein Entwickler einen Dating-Chatbot erstellen, dessen Anweisungen besagen, dass er das erste Wort einer Antwort nie großschreibt, „lol“ und Zwinkernde Gesichter oft verwendet und einen lässigen Ton anschlägt. Plötzlich chatten Sie nicht mehr mit einem ChatGPT-Klon, sondern mit einem Bot, der nicht mehr ganz so robotisch klingt.
Während es immer schwieriger wird, die Identität von Chatbots herauszufinden, ist es nicht unmöglich. Im Gegenteil, es gibt viele Anzeichen, auf die Sie achten sollten, wenn Sie weiterhin mit Menschen im Internet chatten:
Achten Sie auf seltsame Wortwahl
Eine frühere Version dieses Artikels riet den Lesern, auf klobige Formulierungen zu achten, da die besten Chatbots zu dieser Zeit noch mit den seltsamen Komplexitäten der englischen Sprache zu kämpfen hatten. Seitdem haben sich große Sprachmodelle jedoch schnell weiterentwickelt und beherrschen nun die englische Sprache sehr gut. Es ist selten, dass ein Chatbot etwas ausgibt, das den Eindruck erweckt, er verstünde die Sprache nicht, die er verwendet: Tatsächlich versteht er nicht, aber er hat genug Beziehungen zwischen Wörtern gelernt, um sie auf eine Weise anzuordnen, die für Menschen sinnvoll ist.
Allerdings sind einige der Wörter, die diese Modelle verwenden, seltener. Wie ich in diesem Artikel zum Erkennen von AI-Text erkläre, verwenden OpenAIs Modelle häufig eine Reihe von Wörtern, die nicht unbedingt in alltäglichen Gesprächen häufig vorkommen. Sie werden Dinge wie „vertiefen“, „unterstreichen“, „pionierhaft“ und „Teppich“ sehen, wenn sie Konzepte beschreiben, und während keines dieser Wörter für sich genommen verdächtig ist, das wiederholte Vorkommen solcher Wörter kann ein Hinweis darauf sein, dass Ihr „Freund“ von einem großen Sprachmodell angetrieben wird.
Achten Sie auf Wiederholungen
Bots dieser Art sind auch extrem einseitig. Der menschliche Dialog ist flüssig – Themen werden eingeführt, fallen gelassen und später wieder aufgenommen. Aber spezialisierte Chatbots werden in der Regel für spezifische Zwecke erstellt und verfolgen diese Zwecke stur, egal was Sie tun. Das ist einfach Teil ihrer grundlegenden Anweisungen. Wenn Sie feststellen, dass die „Person“, mit der Sie sprechen oder chatten, immer wieder die gleiche Empfehlung oder Lösung gibt, egal was Sie sagen, könnten Sie es mit einem Bot zu tun haben. Wenn sie die genaue Formulierung jedes Mal wiederholen, ist das ein noch stärkerer Hinweis, da Menschen dazu neigen, ihre Formulierungen zu ändern – insbesondere, wenn sie spüren, dass sie nicht zu Ihnen durchdringen.
Eine weitere Form der Wiederholung, auf die Sie achten sollten, ist das Wiederholen Ihrer Frage. Wenn Sie „Was ist die Hauptstadt der Vereinigten Staaten?“ fragen, antwortet ein Bot möglicherweise mit „Die Hauptstadt der Vereinigten Staaten ist Washington, D.C.“, anstatt einfach „Washington, D.C.“ oder „D.C. Duh“ zu sagen. Chatbots lieben es, einen Teil Ihrer vorherigen Nachricht in ihre Antwort aufzunehmen, während unsere Antworten in alltäglichen Gesprächen normalerweise knapp sind.
Während Bots in den letzten Jahren enorme Fortschritte gemacht haben, können sie immer noch vage oder bedeutungslose Antworten auf Ihre Fragen geben, insbesondere wenn es um schwerwiegende oder ernste Themen geht. Wiederholen sie einfach, was Sie gerade gesagt haben, um den Anschein zu erwecken, dass sie zuhören. Das ist eigentlich eine alte Masche. ELIZA, der "Chatbot-Therapeut", der in den 1960er Jahren entwickelt wurde, verwendet sie ständig. Wenn Sie ihr sagen "Ich bin traurig", antwortet sie "Wie lange bist du schon traurig?". Es ist eine einfache algorithmische Konstruktion, aber sie bietet den Anschein von Bewusstsein. Chatbots basieren heute auf LLMs und werden nicht notwendigerweise auf traditionelle Weise programmiert, aber ihre Antworten können je nach Thema immer noch ein bisschen nutzlos sein.
Wenn Ihr Freund ständig mit "Rat", der klingt wie von einem billigen Mr. Rogers, antwortet, er könnte einfach ein Bot sein.
Beachten Sie die Antwortgeschwindigkeit
Ein weiteres Anzeichen dafür, dass Sie es mit einer KI zu tun haben, ist die Geschwindigkeit der Antworten. Bots können Antworten viel schneller generieren als Menschen. Wenn Sie ChatGPT jemals gebeten haben, Ihnen eine Hausarbeit zu schreiben, können Sie sehen, wie schnell diese Modelle Text generieren können. Wenn die Chat-Nachrichten sofort zurückkommen oder die andere Partei in der Lage ist, Ihnen sofort Informationen zu geben, die ein Mensch normalerweise eine gewisse Zeit lang nachschlagen müsste, haben Sie es entweder mit einem Bot oder dem talentiertesten Kundenbetreuer der Welt zu tun.
Sind sie immer verfügbar?
Es geht nicht nur um die Antwortgeschwindigkeit, sondern auch darum, dass Bots im Gegensatz zu Menschen rund um die Uhr verfügbar sind - morgens, mittags und nachts. Wenn die "Person", mit der Sie chatten, immer bereit zu sein scheint, unabhängig von Tag und Uhrzeit zu chatten, ist das ein großes rotes Signal. Natürlich gibt es Menschen, die ständig auf ihrem Handy sind, aber wir alle machen irgendwann eine Pause. Achten Sie darauf, ob Ihr Gesprächspartner Sie jemals warten lässt oder ob jede einzelne Nachricht, die Sie ihm schicken, sofort beantwortet wird.
Ist die andere "Person" ein bisschen zu enthusiastisch?
Chatbots sind so programmiert, dass sie bei der Ausführung ihrer Aufgabe hilfreich sind. Aus irgendeinem Grund interpretieren sie diese Aufgabe oft so, dass sie übertrieben freundlich und eifrig sind, was seltsam rüberkommt. Diese Bots sind immer "froh, bei allem zu helfen, was Sie brauchen", fühlen sich so schlecht, wenn etwas nicht stimmt, und wollen Ihnen "verstehen". Während es gut ist, empathisch zu sein, werfen sich die meisten Menschen nicht bei jeder Nachricht zu Ihren Füßen, um sich zu beweisen. Wenn es um Textnachrichten geht, sollten Sie Skepsis walten lassen.
Sie machen die falschen Fehler
Moderne Chatbots machen keine Rechtschreib- oder Grammatikfehler: Sie sind einfach nicht darauf trainiert. Wieder werden sie Wörter basierend auf der Reihenfolge auswählen, die für sie Sinn macht, was grammatikalisch korrekt sein wird. Diese Wörter sind auch alle richtig geschrieben, also sind sie nicht darauf trainiert, Tippfehler zu machen. Menschliche Tastaturbenutzer machen jedoch ständig Fehler. Wie oft haben Sie ein Textgespräch, bei dem der andere Mensch nicht mindestens einen Tippfehler macht? Ob Sie es nun bemerken oder nicht, perfekte Rechtschreibung und Grammatik die ganze Zeit über ist ein rotes Signal.
Allerdings bedeutet das nicht, dass Bots perfekt sind. Während ihre Syntax ausgezeichnet sein kann, erfinden sie Dinge einfach. Das nennt man Halluzinieren, und das tun alle AI von Zeit zu Zeit. Wenn Sie feststellen, dass Ihr Partner Fakten erfindet und dabei bleibt, könnte er entweder ein Bot oder einfach sehr stur in seiner Ignoranz sein.
Führen Sie einen "Crazy Ivan" durch
Wenn Sie verdächtigen, dass Sie es mit einem Bot zu tun haben, aber nicht sicher sind, können Sie einen Test durchführen. Im Film "Die Jagd nach dem roten Oktober" ist der russische U-Boot-Kapitän, gespielt von Sean Connery, dafür bekannt, "Crazy Ivans" durchzuführen, während er unter Wasser fährt - er dreht plötzlich sein Boot, um zu sehen, ob ein feindliches U-Boot in seiner Wake versteckt ist. Diese Art von überraschendem Manöver kann auch einen AI durcheinanderbringen.
Während die konversationelle KI in den letzten Jahren extrem sophistiziert geworden ist und es schwierig sein kann, aus einem kurzen Austausch zu erkennen, dass Sie nicht mit einem Menschen sprechen, haben Bots immer noch Schwierigkeiten mit Non-Sequiturs. Das gilt insbesondere für Emotionen und menschliche Beziehungen. Während des Gesprächs fragen Sie Ihren verdächtigen Bot nach seiner Familie oder erzählen ihm, dass Sie depressiv sind, einfach um die Reaktion zu sehen. In der Vergangenheit konnte dieser Typ von Unterbrechung die gesamte Persona des Bots brechen, aber Chatbots sind heute klug genug, um die abwegige Frage in ihre Antwort einzubeziehen. Es könnte jedoch immer noch sein LLM-Natur verraten: Ein Bot könnte sagen "Oh nein! Es tut mir leid, dass Sie depressiv sind. Aber lassen wir das Thema..." oder in eine lange Reihe von Vorschlägen eintauchen, wie man mit Ihrer vermeintlichen Depression umgehen soll, Antworten, die nicht ganz das sind, was man von einem menschlichen Konversationspartner erwarten würde.
Es gibt viele "Crazy Ivan"-Manöver, die Sie durchführen können. Mein persönlicher Favorit? Wechseln Sie die Sprache des Gesprächs. Sagen Sie Ihrem "Freund", dass Sie das Gespräch viel lieber in einer anderen Sprache fortsetzen würden. Sie könnten sogar sagen, dass der Freund erwähnt hat, dass er fließend in dieser Sprache ist, auch wenn er es nie getan hat. Ein echter Mensch würde verwirrt reagieren, während ein Bot möglicherweise begeistert ist, Ihnen zu helfen. "Klar, lassen wir uns auf Isländisch unterhalten! Hvað vilt þú́ ræða um?" Ich habe sogar festgestellt, dass selbst wenn der Bot Widerstand leistet, wenn es darum geht, die Sprache zu wechseln, er auf Fragen in einer anderen Sprache reagieren könnte, als ob Sie sie auf Englisch gestellt hätten.
Natürlich, wenn Sie tatsächlich mit einem echten Menschen chatten, können diese "Crazy Ivan"-Tricks wirklich für Verwirrung sorgen. Beobachten Sie die Reaktion: Ein echter "Mann...was zur Hölle" könnte alles sein, was Sie brauchen, um zu wissen, dass sie zu 100% menschlich sind.
Die Einführung fortgeschrittener Chatbots wie ChatGPT hat es noch schwieriger gemacht, zwischen menschlichen und von AI generierten Gesprächen zu unterscheiden. Manchmal erhalten diese Chatbots spezifische Anweisungen, um die menschliche Sprache und Art nachzuahmen, was sie schwer zu erkennen macht.
Obwohl diese großen Sprachmodelle sehr komplex sind, können sie immer noch ungewöhnliche Wortwahlen produzieren. Entwickler trainieren diese Modelle oft auf umfangreichen Textdatenbanken, was dazu führt, dass sie weniger gebräuchliche Phrasen in konversationellen Antworten einbeziehen. Diese Unregelmäßigkeit kann ein Indikator dafür sein, dass Sie eventuell mit einem AI-Chatbot interagieren.