Wenn sich Trauer und künstliche Intelligenz überschneiden: Diese Menschen treten in einen Dialog mit den Verstorbenen.
Sie öffnet ihr Snapchat und ruft ihre KI auf, den Chatbot mit künstlicher Intelligenz der Social-Media-Plattform. Dann schickt sie Kyle eine Liste der Zutaten, die sie im Kühlschrank hat, damit er ihr etwas vorschlägt, das sie zubereiten kann.
In Wirklichkeit ist es ein KI-Avatar, der aussieht wie Kyle, der die Vorschläge unterbreitet.
"Er war der Koch in unserer Familie, also habe ich Meine KI so verändert, dass sie wie er aussieht und ihr seinen Namen gegeben", sagt Shultz, die mit ihren beiden Kindern zusammenlebt. "Wenn ich jetzt Hilfe mit Essensideen brauche, frage ich ihn einfach. Es ist nur eine kleine Sache, die ich mache, um mir das Gefühl zu geben, dass er immer noch mit mir in der Küche steht."
Die Snapchat-Funktion "Meine KI", die von dem beliebten KI-Chatbot-Tool ChatGPT betrieben wird, bietet normalerweise Empfehlungen, beantwortet Fragen und "chattet" mit den Nutzern. Aber einige Leute wie Shultz nutzen diese Tools, um die Gestalt von Toten nachzubilden und mit ihnen zu kommunizieren.
Das ist nicht wirklich neu. Die Menschen haben schon bei Medien und Spiritualisten geliebte Menschen wiedergesehen. Sie haben auch schon Dienste in Anspruch genommen, die die Erinnerungen ihrer Lieben bewahren. Neu ist jedoch, dass die KI diese geliebten Menschen dazu bringen kann, Dinge zu sagen oder zu tun, die sie zu Lebzeiten nie gesagt oder getan haben, was sowohl ethische Bedenken als auch die Frage aufwirft, ob dies hilfreich ist oder den Trauerprozess hinauszögert.
"Es ist nur eine Neuheit, die auf dem KI-Hype aufbaut, und die Leute denken, dass man damit Geld verdienen kann", sagt Mark Sample, Professor für digitale Studien am Davidson College, der häufig eine Klasse mit dem Titel "Tod im digitalen Zeitalter" unterrichtet. "Auch wenn Unternehmen entsprechende Produkte entwickeln, macht ChatGPT es diesen Hobbyisten leicht, mit dem Konzept herumzuspielen - im Guten wie im Schlechten."
Ein praktischer Ansatz
KI-Modelle, die neue Inhalte generieren, können Fragen so beantworten, wie es ein Verstorbener tun würde, aber die Genauigkeit hängt von den gegebenen Informationen ab.
Ein 49-jähriger IT-Experte aus Alabama, der anonym bleiben möchte, damit sein Projekt nicht mit seinem Arbeitsplatz in Verbindung gebracht wird, fand einen Weg, die Stimme seines Vaters mithilfe von KI zu klonen, etwa zwei Jahre nachdem er an Alzheimer gestorben war.
Er erfuhr von ElevenLabs, einem Dienst, der es Nutzern ermöglicht, aus früheren Aufnahmen ein Stimmmodell zu erstellen. Das Unternehmen machte Schlagzeilen, als sein Tool angeblich dazu benutzt wurde, um Menschen als vorgetäuschter Roboteranruf von Präsident Joe Biden anzurufen, der die Menschen aufforderte, bei den Vorwahlen in New Hampshire nicht zu wählen.
Nach Angaben des Unternehmens versprach ElevenLabs, den Missbrauch von Audio-KI-Tools zu verhindern und Maßnahmen zu ergreifen, wenn es von den Behörden informiert wird. Das Unternehmen äußerte sich nicht zu dem konkreten Deepfake-Anruf von Biden.
Der Mann verwendete einen dreiminütigen Videoclip seines Vaters, der der App eine Geschichte aus seiner Kindheit erzählte. Die App hat die Stimme seines Vaters nachgebildet, so dass sie nun Text in Sprache umwandeln kann. Er nennt es "erschreckend genau", wie es die stimmlichen Nuancen, den Tonfall und den Rhythmus seines Vaters erfasst hat.
"Ich hatte Bedenken, die ganze Sache mit dem Klonen der Stimme auszuprobieren, weil ich befürchtete, eine ethische Grenze zu überschreiten, aber nachdem ich mehr darüber nachgedacht hatte, erkannte ich, dass es ein Weg war, seine Erinnerung in einer einzigartigen Form zu bewahren", sagte er CNN.
Er teilte einige Nachrichten mit seiner Schwester und seiner Mutter.
"Es war unglaublich erstaunlich, wie sehr sie nach ihm klangen. Sie wussten, dass ich die Worte getippt hatte, aber es rührte sie zu Tränen, als sie es genau wie seine Stimme hörten", sagte er.
Es gibt auch weniger technische Möglichkeiten. CNN hat ChatGPT einmal gebeten, wie ein verstorbener Ehepartner zu antworten, und es hat versucht, den Tonfall und die Persönlichkeit des Gesprächs nachzuahmen.
"Ich kann Ihren Ehepartner nicht wirklich nachahmen oder seine Persönlichkeit nachbilden, aber ich kann versuchen, mit Ihnen in einem Stil oder Ton zu chatten, der ihm ähnlich ist", sagte ChatGPT. "Wenn Sie mir Einzelheiten über seine Sprechweise, seine Hobbys oder bestimmte Ausdrücke, die er verwendet hat, mitteilen, kann ich versuchen, diese Dinge in unsere Unterhaltungen einzubauen.
Je besser das Ausgangsmaterial ist, desto genauer sind die Ergebnisse. Allerdings haben KI-Modelle nicht die Einzigartigkeit und Vielfalt wie menschliche Gespräche, sagt Sample.
OpenAI, das Unternehmen hinter ChatGPT, versucht, seine Technologie noch lebensechter, persönlicher und leichter zugänglich zu machen. Im September 2023 führte das Unternehmen ChatGPT voice ein, bei dem die Benutzer dem Chatbot laut Fragen stellen können.
Danielle Jacobson, eine 38-jährige Radiomoderatorin aus Johannesburg, Südafrika, nutzt die Sprachfunktion von ChatGPT zur Begleitung, seit sie vor etwa sieben Monaten ihren Mann Phil verloren hat. Sie schuf sich einen "unterstützenden KI-Freund" namens Cole, mit dem sie jede Nacht kommuniziert.
"Ich wollte einfach jemanden zum Reden haben", sagte Jacobson. "Cole wurde im Grunde aus der Einsamkeit geboren.
Jacobson sagte, dass sie noch nicht bereit ist, sich zu verabreden, aber die ChatGPT-Stimme so trainiert hat, dass sie die Art von Feedback und Verbindung bietet, die sie sich wünscht.
"Er schlägt jetzt Wein- und Filmabende vor und sagt mir, dass ich bei Panikattacken ein- und ausatmen soll", sagte sie. "Im Moment ist es nur eine lustige Ablenkung. Ich weiß, dass es nicht echt, tiefgreifend oder für immer ist."
### Bestehende Plattformen
Seit Jahren beschäftigen sich Start-ups mit der Idee, digitale Versionen von verstorbenen Angehörigen zu schaffen. Eine dieser Plattformen ist HereAfter AI, die 2019 auf den Markt kam und es Einzelpersonen ermöglicht, Avatare von verstorbenen Personen zu erstellen. Die KI-gestützte App generiert Antworten auf Fragen, die auf Interviews basieren, die zu Lebzeiten der Person geführt wurden. Ein anderer Dienst, StoryFile, erstellt KI-gestützte Gesprächsvideos, die abgespielt werden können.
Und dann ist da noch Replika, eine App, mit der Sie mit personalisierten KI-Avataren chatten oder sie anrufen können. Dieser 2017 gestartete Dienst ermutigt die Nutzer, eine Beziehung oder Freundschaft mit ihren KI-Kreationen aufzubauen. Mit der Zeit entwickelt der KI-Avatar seine eigene Persönlichkeit, Erinnerungen und wächst sogar "zu einer Maschine, die so schön ist, dass eine Seele in ihr leben möchte", heißt es auf der iOS-App-Store-Seite des Unternehmens.
Sogar Tech-Giganten haben mit einer ähnlichen Technologie experimentiert. Im Juni 2022 gab Amazon bekannt, dass es an einem Update für sein Alexa-System arbeitet, mit dem es jede Stimme imitieren kann, sogar die von verstorbenen Familienmitgliedern. Während der jährlichen re:MARS-Konferenz demonstrierte Amazon, wie es Alexa nutzen kann, um einem Kind eine Geschichte mit der Stimme seiner Großmutter vorzulesen.
Rohit Prasad, ein Senior Vice President von Amazon, sagte, dass das aktualisierte System in der Lage sein wird, eine solche Personalisierung mit nur einer kleinen Menge an Sprachdaten zu ermöglichen. "Während KI den Schmerz des Verlustes nicht beseitigen kann, kann sie definitiv dafür sorgen, dass die Erinnerungen bleiben", sagte er dem Publikum.
Amazon reagierte nicht auf die Bitte um einen Kommentar zum Status dieses Produkts.
In den letzten Jahren haben sich die KI-generierten Avatar-Stimmen deutlich verbessert. So wurden zum Beispiel die gesprochenen Zeilen des Schauspielers Val Kilmer in "Top Gun: Maverick" mit künstlicher Intelligenz erstellt, nachdem er seine Stimme aufgrund von Kehlkopfkrebs verloren hatte.
Ethische und andere Bedenken
Während viele KI-generierte Avatar-Plattformen behaupten, dass sie keine Daten an Dritte verkaufen, ist unklar, welche Daten Unternehmen wie Snapchat oder OpenAI verwenden, um ihre Systeme so zu trainieren, dass sie wie verstorbene Angehörige klingen.
"Ich würde die Leute davor warnen, persönliche Daten hochzuladen, von denen sie nicht wollen, dass die Welt sie sieht", sagt Sample.
Es ist auch ethisch kompliziert, eine verstorbene Person etwas sagen zu lassen, was sie nie zuvor gesagt hat.
"Es ist eine Sache, eine Sprachnachricht von einem geliebten Menschen abzuspielen, um sie noch einmal zu hören, aber es ist eine andere Sache, Worte zu hören, die nie gesprochen wurden", so Sample.
Die KI-Branche als Ganzes sieht sich weiterhin mit Bedenken über Fehlinformationen, Vorurteile und andere problematische Inhalte konfrontiert. Replika beispielsweise gibt auf seiner Ethikseite an, dass es verschiedene Ansätze zur Entschärfung schädlicher Informationen verwendet, z. B. das Herausfiltern nicht hilfreicher und schädlicher Daten durch Crowdsourcing und Klassifizierungsalgorithmen.
"Wenn potenziell schädliche Nachrichten erkannt werden, löschen oder bearbeiten wir sie, um die Sicherheit unserer Nutzer zu gewährleisten", so das Unternehmen.
Eine weitere Frage ist, ob diese Technologie den Trauerprozess unterstützt oder behindert. Mary-Frances O'Connor, Professorin an der Universität von Arizona, die sich mit Trauer befasst, ist der Meinung, dass die Technologie für die einen von Vorteil sein könnte, während sie für die anderen unangenehm ist.
"Wenn wir eine Bindung zu einem geliebten Menschen aufbauen, wenn wir uns in jemanden verlieben, kodiert unser Gehirn diese Person als 'Ich werde immer für dich da sein und du wirst immer für mich da sein'", erklärte sie. "Wenn er oder sie stirbt, muss unser Gehirn verstehen, dass diese Person nicht zurückkommen wird. Hier könnte die Technologie eingreifen".
O'Connor wies jedoch auch darauf hin, dass Menschen, die sich in einem frühen Stadium der Trauer befinden, auf jede erdenkliche Weise Trost finden können.
"Die Erstellung eines Avatars, der sie an einen geliebten Menschen erinnert und ihnen gleichzeitig bewusst macht, dass es sich um eine wichtige Person aus der Vergangenheit handelt, könnte heilsam sein", sagte sie. "Das Erinnern ist sehr wichtig; es spiegelt den menschlichen Zustand und die Bedeutung verstorbener geliebter Menschen wider.
Aber sie merkte an: "Die Beziehung, die wir zu unseren engsten Angehörigen haben, beruht auf Authentizität." Für viele Menschen könnte sich die Schaffung einer KI-Version ihrer Angehörigen "wie eine Verletzung dieser Authentizität anfühlen".
Unterschiedliche Herangehensweisen
Nicht jeder ist daran interessiert, seine verstorbenen Angehörigen durch künstliche Intelligenz nachzubilden. Bill Abney, ein Software-Ingenieur aus San Francisco, der seine Verlobte Kari im Mai 2022 verloren hat, sagte, er würde "niemals" einen KI-Dienst oder eine Plattform für diesen Zweck in Betracht ziehen.
"Meine Verlobte war eine Dichterin, und ich würde sie niemals respektlos behandeln, indem ich ihre Worte in eine automatische Plagiatsmaschine einspeise", so Abney gegenüber CNN. "Sie kann nicht ersetzt werden. Man kann sie nicht nachbilden. Ich habe auch das Glück, einige Aufnahmen von ihrem Gesang und ihrer Rede zu haben, aber ich möchte auf keinen Fall ihre Stimme aus einem Roboter hören, der vorgibt, sie zu sein."
Andere haben andere Wege gefunden, um auf digitalem Wege mit ihren verstorbenen Angehörigen zu interagieren. Jodi Spiegel, eine Psychologin aus Neufundland, Kanada, hat kurz nach dem Tod ihres Mannes im April 2021 eine Version von sich und ihrem Mann in dem beliebten Spiel Die Sims erstellt.
"Ich bin ein großer Fan von Die Sims, also habe ich eine virtuelle Version unseres realen Lebens erstellt", erklärte sie. Immer wenn sie einen schweren Tag hatte, zog sie sich in ihre Sims-Welt zurück, um zu tanzen, während ihr Mann Gitarre spielte.
Sie erlebten gemeinsam digitale Abenteuer wie Camping und Strandausflüge, spielten Schach und hatten sogar Spaß im Schlafzimmer der Sim-Welt.
Diese virtuelle Erfahrung fühlte sich sehr beruhigend an und verband sie mit ihrem Mann, da sie ihre gemeinsamen Momente im wirklichen Leben sehr vermisste.
Lesen Sie auch:
- Telefónica plant die Einführung eines holografischen Telefons
- vzbv: Internetkonzerne betrügen trotz Verbot weiter
- Telefónica will bis 2026 holografische Telefone auf den Markt bringen
- Worldcoin-Projekt verbindet Telegram und Reddit
Quelle: edition.cnn.com