zum Inhalt

Marken sollten sich von diesem beliebten Begriff abwenden.

Eine in der Journal of Hospitality of Marketing & Management veröffentlichte Studie ergibt, dass Verbraucher_MESSAGE_HIDDEN_by Produkte, die als 'künstlich intelligent poder' bezeichnet werden, stark abgeturnt werden.

Marken sollten sich von diesem beliebten Begriff abwenden.

Ein im Journal of Hospitality Marketing & Management im Juni veröffentlichtes Studium hat ergeben, dass die Beschreibung eines Produkts als "AI" das Kaufinteresse eines Kunden verringert. Die Forscher sammelten Teilnehmer aus verschiedenen Altersgruppen und zeigten ihnen dieselben Produkte - der einzige Unterschied bestand darin, dass eines als "high tech" und das andere als "AI" oder künstliche Intelligenz beschrieben wurde.

"Wir haben Staubsauger, Fernseher, Verbraucherdienste und Gesundheitsdienste betrachtet", sagte Dogan Gursoy, einer der Studienautoren und Taco Bell Distinguished Professor für Gastgewerbemanagement an der Washington State University, in einem Interview mit CNN. "In jedem einzelnen Fall war das Kauf- oder Benutzungsinteresse für das Produkt oder den Dienst deutlich niedriger, wenn wir AI in der Produktbeschreibung erwähnten."

Obwohl AI in den letzten Monaten rasant fortgeschritten ist, betont die Studie die Zurückhaltung der Verbraucher, AI in ihren Alltag zu integrieren - ein deutlicher Gegensatz zur Euphorie, die Innovationen in der großen Technologie antreibt.

Die Rolle des Vertrauens...

Die Studie umfasste auch eine Untersuchung, wie Teilnehmer Produkte betrachteten, die als "niedrig risikobehaftet" galten, darunter Haushaltsgeräte, die AI verwenden, und "hoch risikobehaftet", darunter selbstfahrende Autos, AI-gestützte Investitionsentscheidungsdienste und medizinische Diagnosedienste.

Während die Anzahl der Personen, die die Gegenstände ablehnten, in der hoch risikobehafteten Gruppe größer war, waren Nicht-Käufer in beiden Produktgruppen in der Mehrheit.

Die Studie zeigt, dass zwei Arten von Vertrauen eine Rolle bei der weniger rosigen Wahrnehmung von Produkten spielen, die sich als "AI-gestützt" beschreiben.

Die erste Art, kognitive Vertrauenswürdigkeit, bezieht sich auf den höheren Standard, den Menschen an AI legen, von dem sie erwarten, dass es frei von menschlichen Fehlern ist. Daher kann das Vertrauen schnell erschüttert werden, wenn AI versagt.

Nehmen Sie zum Beispiel Googles AI-generiertes Suchergebnis-Übersichtstool, das Suchergebnisse für Benutzer zusammenfasst und sie oben auf der Seite präsentiert. Menschen kritisierten das Unternehmen Anfang dieses Jahres schnell für die Bereitstellung verwirrender und sogar offenkundig falscher Informationen auf die Fragen der Benutzer, was Google dazu zwang, einige der Fähigkeiten des Features zurückzuschrauben.

Gursoy sagt, dass das begrenzte Wissen und Verständnis über die Funktionsweise von AI dazu führt, dass Verbraucher auf emotionales Vertrauen zurückgreifen und eigene subjektive Urteile über die Technologie fällen.

"Einer der Gründe, warum Menschen nicht bereit sind, AI-Geräte oder -Technologien zu verwenden, ist die Angst vor dem Unbekannten", sagte er. "Bevor ChatGPT eingeführt wurde, hatte nicht viele Menschen eine Vorstellung von AI, aber AI hat seit Jahren im Hintergrund gelaufen und ist nichts Neues."

Sogar bevor der Chatbot ChatGPT im Jahr 2022 in das öffentliche Bewusstsein trat, wurde künstliche Intelligenz in der Technologie hinter vertrauten digitalen Diensten verwendet, von der Autokorrektur Ihres Telefons bis hin zum Netflix-Algorithmus für die Empfehlung von Filmen.

Und die Art und Weise, wie AI in der Popkultur dargestellt wird, trägt auch nicht dazu bei, das Vertrauen in die Technologie zu stärken. Gursoy fügte hinzu, dass Hollywood-Wissenschaftsfilme, die Roboter als Schurken darstellen, einen größeren Einfluss auf die öffentliche Wahrnehmung von AI haben könnten, als man denken würde.

"Schon lange bevor die Menschen etwas von AI gehört hatten, haben diese Filme die Wahrnehmung der Menschen davon geformt, was Roboter, die von AI gesteuert werden, der Menschheit antun können", sagte er.

...und mangelnde Transparenz

Ein weiterer Faktor, der Kunden beeinflusst, ist das wahrgenommene Risiko rund um AI - insbesondere, wie es die persönlichen Daten der Benutzer behandelt.

Bedenken darüber, wie Unternehmen die Daten ihrer Kunden verwalten, haben die Aufregung um Werkzeuge gedämpft, die dazu bestimmt sind, die Benutzererfahrung zu optimieren, zu einer Zeit, in der die Regierung noch nach einem Standbein für die Regulierung von AI sucht.

"Die Menschen haben Bedenken bezüglich des Datenschutzes. Sie wissen nicht, was im Hintergrund vor sich geht, die Algorithmen, wie sie laufen, das raises some concern", sagte Gursoy.

Dieser Mangel an Transparenz ist etwas, vor dem Gursoy warnt, da er das Potenzial hat, das Vertrauen der Kunden in Marken zu beeinträchtigen, denen sie bereits vertrauen. Aus diesem Grund warnt er Unternehmen davor, den "AI"-Stempel als Buzzword zu verwenden, ohne seine Fähigkeiten zu erläutern.

"Das vernünftigste, was sie tun können, ist, die richtige Botschaft zu vermitteln", sagte er. "Statt einfach 'AI-gestützt' oder 'von AI gesteuert' zu sagen, ihnen zu sagen, wie das ihnen helfen kann, wird die Ängste der Verbraucher mildern."

Die Ergebnisse deuten darauf hin, dass die Einbeziehung von 'AI' in Produktbeschreibungen, wie 'AI-gestützte Investmententscheidungsdienste', das Kauf- oder Benutzungsinteresse eines Kunden verringern kann, da Verbraucher oft einen höheren Standard für AI haben und aufgrund mangelnder Transparenz misstrauisch sein können. Die Studie betont auch, dass die Rolle des emotionalen Vertrauens bei der AI-Nutzung von Bedeutung ist, da Verbraucher aufgrund ihres begrenzten Verständnisses der Technologie subjektive Urteile fällen.

Lesen Sie auch:

Kommentare

Aktuelles