Aller au contenu

Les marques devraient éviter ce terme populaire.

Une étude publiée dans la revue Hospitality of Marketing & Management indique que les consommateurs sont largement découragés par les produits qui se disent « alimentés par l'IA »

Les marques devraient éviter ce terme populaire.

Une étude publiée dans le Journal of Hospitality Marketing & Management en juin a montré que décrire un produit comme utilisant l'IA diminue l'intention d'un client d'acheter celui-ci. Les chercheurs ont soumis des participants de différents groupes d'âge à des produits identiques - la seule différence étant que l'un était décrit comme "haute technologie" et l'autre comme utilisant l'IA, ou l'intelligence artificielle.

"Nous avons examiné des aspirateurs, des téléviseurs, des services pour les consommateurs, des services de santé", a déclaré Dogan Gursoy, l'un des auteurs de l'étude et le professeur Taco Bell de gestion des affaires hospitalières à l'Université d'État de Washington, lors d'un entretien avec CNN. "Dans chaque cas, l'intention d'acheter ou d'utiliser le produit ou le service était significativement plus faible chaque fois que nous mentionnions l'IA dans la description du produit."

Malgré les récents progrès de l'IA, l'étude met en évidence la réticence des consommateurs à intégrer l'IA dans leur vie quotidienne - une divergence marquée par rapport à l'enthousiasme qui entoure les innovations dans la tech.

Le rôle de la confiance...

L'étude a inclus une analyse de la façon dont les participants percevaient les produits considérés comme "à faible risque", qui comprenaient des appareils ménagers utilisant l'IA, et "à haut risque", qui comprenaient des voitures autonomes, des services de prise de décision en matière d'investissement alimentés par l'IA et des services de diagnostic médical.

Bien que le pourcentage de personnes rejetant les articles soit plus élevé dans le groupe à haut risque, les non-acheteurs étaientmajoritaires dans les deux groupes de produits.

L'étude indique qu'il y a deux types de confiance qui jouent un rôle dans la perception moins favorable des consommateurs envers les produits qui se décrivent comme "alimentés par l'IA".

Le premier type, la confiance cognitive, a trait à l'exigence plus élevée que les gens ont envers l'IA en tant que machine qu'ils s'attendent à être libre d'erreurs humaines. Ainsi, lorsque l'IA commet une erreur, cette confiance peut être rapidement érodée.

Prenez par exemple l'outil de résumé des résultats de recherche de Google, généré par l'IA, qui résume les résultats de recherche pour les utilisateurs et les présente en haut de la page. Les gens ont rapidement critiqué l'entreprise plus tôt cette année pour avoir fourni des informations confuses et même manifestement fausses aux questions des utilisateurs, contraignant Google à réduire certaines des capacités de l'outil.

Gursoy déclare que la connaissance et la compréhension limitées du fonctionnement interne de l'IA contraignent les consommateurs à se fier à leur jugement subjectif sur la technologie.

"L'une des raisons pour lesquelles les gens ne sont pas disposés à utiliser les dispositifs ou les technologies de l'IA est la peur de l'inconnu", a-t-il déclaré. "Avant l'introduction de ChatGPT, peu de gens avaient une idée de ce qu'était l'IA, mais l'IA a fonctionné en coulisses depuis des années et ce n'est pas nouveau."

Même avant que ChatGPT n'entre dans la conscience publique en 2022, l'intelligence artificielle était utilisée dans la technologiederrière des services numériques familiers, de l'autocorrection de votre téléphone aux algorithmes de Netflix pour recommander des films.

Et la façon dont l'IA est présentée dans la culture populaire n'aide pas non plus à renforcer la confiance dans la technologie. Gursoy a ajouté que les films de science-fiction hollywoodiens représentant les robots comme des méchants avaient un impact plus important sur la perception du public envers l'IA qu'on ne pourrait le penser.

"Bien avant que les gens n'entendent parler de l'IA, ces films ont façonné la perception des gens de ce que les robots qui fonctionnent à l'IA peuvent faire à l'humanité", a-t-il déclaré.

...et un manque de transparence

Un autre élément de l'équation influençant les clients est le risque perçu autour de l'IA - en particulier en ce qui concerne la manière dont elle traite les données personnelles des utilisateurs.

Les inquiétudes concernant la manière dont les entreprises gèrent les données des clients ont tempéré l'enthousiasme autour des outils destinés à fluidifier l'expérience utilisateur à une époque où le gouvernement cherche encore à trouver ses marques en matière de réglementation de l'IA.

"Les gens ont des soucis concernant la confidentialité. Ils ne savent pas ce qui se passe en arrière-plan, les algorithmes, comment ils fonctionnent, cela suscite certaines préoccupations", a déclaré Gursoy.

Ce manque de transparence est quelque chose que Gursoy met en garde, car il a le potentiel d'aigrir la perception des clients envers les marques qu'ils ont déjà appris à connaître. C'est pourquoi il met en garde les entreprises contre l'utilisation du terme "IA" comme un simple mot à la mode sans élaborer sur ses capacités.

"La chose la plus judicieuse pour eux à faire est de trouver le bon message", a-t-il déclaré. "Plutôt que de simplement mettre 'alimenté par l'IA' ou 'fonctionne avec l'IA', expliquer aux gens comment cela peut les aider atténuera les peurs des consommateurs."

Les conclusions de l'étude suggèrent que l'inclusion de l'expression "IA" dans les descriptions de produits, comme les "services de prise de décision en matière d'investissement alimentés par l'IA", peut réduire l'intention d'un client d'utiliser ou d'acheter le produit, car les consommateurs ont souvent une exigence plus élevée envers l'IA et peuvent être méfiants en raison d'un manque de transparence. L'étude met également en évidence le rôle important de la confiance émotionnelle dans l'utilisation de l'IA, car la compréhension limitée de la technologie peut amener les consommateurs à former des jugements subjectifs.

Lire aussi:

commentaires

Dernier