I marchi dovrebbero evitare questo termine popolare.
Uno studio pubblicato sulla rivista Journal of Hospitality Marketing & Management a giugno ha rilevato che descrivere un prodotto come che utilizza l'IA abbassa l'intenzione di un cliente di acquistarlo. I ricercatori hanno selezionato partecipanti di diverse fasce d'età e li hanno mostrato gli stessi prodotti - l'unica differenza tra di loro era che uno era descritto come "alta tecnologia" e l'altro come che utilizzava l'IA, o intelligenza artificiale.
"Abbiamo esaminato aspirapolvere, televisori, servizi per i consumatori, servizi sanitari", ha detto Dogan Gursoy, uno degli autori dello studio e professore distaccato di gestione delle imprese turistiche all'Università statale di Washington, in un'intervista a CNN. "In ogni singolo caso, l'intenzione di acquistare o utilizzare il prodotto o il servizio era significativamente più bassa ogni volta che menzionavamo l'IA nella descrizione del prodotto".
Malgrado i recenti progressi dell'IA, lo studio evidenzia la riluttanza dei consumatori ad integrare l'IA nella loro vita quotidiana - un netto contrasto con l'entusiasmo che spinge le innovazioni nel campo della grande tecnologia.
Il ruolo della fiducia...
Lo studio ha incluso un'analisi di come i partecipanti hanno visto i prodotti considerati "a basso rischio", che includevano elettrodomestici che utilizzano l'IA, e "ad alto rischio", che includevano automobili a guida autonoma, servizi di decisione degli investimenti alimentati dall'IA e servizi di diagnosi medica.
Mentre la percentuale di persone che respingevano gli articoli era maggiore nel gruppo ad alto rischio, i non acquirenti erano la maggioranza in entrambi i gruppi di prodotti.
Ci sono due tipi di fiducia che lo studio dice che giocano un ruolo nella percezione dei consumatori non proprio rosea dei prodotti che si descrivono come "alimentati dall'IA".
Il primo tipo, la fiducia cognitiva, ha a che fare con lo standard più elevato che le persone si aspettano che l'IA raggiunga come macchina che si aspetta di essere libera dagli errori umani. Pertanto, quando l'IA sbaglia, quella fiducia può essere rapidamente erosa.
Prendiamo ad esempio l'strumento di riassunto dei risultati di ricerca di Google, che riassume i risultati di ricerca per gli utenti e li presenta in cima alla pagina. Le persone sono state rapide a criticare l'azienda all'inizio di quest'anno per aver fornito informazioni confuse e addirittura chiaramente false alle domande degli utenti, costringendo Google a ridurre alcune delle capacità delle funzionalità.
Gursoy dice che la conoscenza e la comprensione limitate del funzionamento interno dell'IA costringono i consumatori a fare affidamento sulla fiducia emotiva e a fare giudizi soggettivi sulla tecnologia.
"Uno dei motivi per cui le persone non sono disposte ad utilizzare i dispositivi o le tecnologie dell'IA è la paura dell'ignoto", ha detto. "Prima dell'introduzione di ChatGPT, non molte persone avevano idea dell'IA, ma l'IA è stata in esecuzione in background per anni e non è nulla di nuovo".
Anche prima che ChatGPT esplodesse nella coscienza pubblica nel 2022, l'intelligenza artificiale era utilizzata nella tecnologia dietro i servizi digitali familiari, dall'autocorrezione del telefono all'algoritmo di Netflix per consigliare film.
E il modo in cui l'IA viene presentata nella cultura popolare non sta aiutando a migliorare la fiducia nella tecnologia. Gursoy ha aggiunto che i film di fantascienza di Hollywood che rappresentano i robot come villain hanno avuto un maggiore impatto sulla formazione della percezione pubblica dell'IA di quanto si possa pensare.
"Molto prima che le persone sentissero parlare dell'IA, quei film hanno influenzato la percezione delle persone su ciò che i robot che funzionano con l'IA possono fare per l'umanità", ha detto.
...e una mancanza di trasparenza
Un'altra parte dell'equazione che influisce sui clienti è il rischio percepito intorno all'IA - in particolare su come gestisce i dati degli utenti.
Le preoccupazioni su come le aziende gestiscono i dati dei clienti hanno frenato l'entusiasmo per gli strumenti destinati a semplificare l'esperienza dell'utente in un momento in cui il governo sta ancora cercando di trovare la sua strada nella regolamentazione dell'IA.
"Le persone hanno preoccupazioni sulla privacy. Non sanno cosa succede in background, gli algoritmi, come funzionano, questo fa sorgere qualche preoccupazione", ha detto Gursoy.
Questa mancanza di trasparenza è qualcosa che Gursoy avverte potrebbe guastare la percezione dei clienti verso i marchi che potrebbero già aver guadagnato la loro fiducia. È per questo motivo che lui consiglia alle aziende di non appiccicare l'etichetta "IA" come parola d'ordine senza approfondire le sue capacità.
"La cosa più consigliabile che possono fare è creare il messaggio giusto", ha detto. "Invece di simply putting 'powered by AI' o 'run by AI', spiegare alle persone come questo può aiutarli allevierà le paure del consumatore".
I risultati suggeriscono che l'inclusione di 'IA' nelle descrizioni dei prodotti, come 'servizi di decisione degli investimenti alimentati dall'IA', può abbassare l'intenzione di un cliente di utilizzare o acquistare il prodotto, poiché i consumatori spesso hanno uno standard più elevato per l'IA e possono essere guardinghi a causa della mancanza di trasparenza. Inoltre, lo studio evidenzia che il ruolo della fiducia emotiva nell'uso dell'IA è significativo, poiché la limitata comprensione dei consumatori della tecnologia può portarli a formare giudizi soggettivi.