Cosa succede agli stereotipi razziali quando entra in gioco l’intelligenza artificiale? Quello che non ti aspetti

Con l’intelligenza artificiale gli stereotipi razziali sono stati stravolti. Uno studio ha infatti rilevato che i bot neri sono stati considerati più competenti e più umani dei bot bianchi o asiatici. I risultati sono andati in netto contrasto con i classici stereotipi delle interazioni tra esseri umani.

Gli stereotipi razziali sono stati stravolti durante un recente studio che ha coinvolto l’intelligenza artificiale. Una nuova ricerca dell’Università della Georgia ha infatti rilevato che i bot neri sono stati considerati più competenti e più umani dei bot bianchi o asiatici utilizzati nello stesso studio. Ciò contrasta con le ricerche passate sulle interazioni tra esseri umani.

La ricercatrice Nicole Davis, dottoranda al terzo anno del Terry College of Business dell’UGA ha dichiarato:

Abbiamo scoperto che nello spazio digitale, poiché l’intelligenza artificiale nera è così insolita, gli stereotipi si sono amplificati nella direzione opposta. I bot neri non sono stati visti solo come competenti, ma davvero competenti, più dei bot bianchi o asiatici. Comprendere come gli stereotipi razziali interagiscono con l’intelligenza artificiale è un passo importante verso l’uso etico dell’IA.

Come si è svolta la ricerca

Con l’aumento della popolarità dell’IA e dei bot, infatti, le aziende devono comprendere queste sfumature non solo per sostenere i loro profitti, ma anche per gestire la diminuzione dei pregiudizi razziali. Lo studio ha analizzato anche le percezioni di competenza e umanità. Secondo Davis, si tratta di fattori importanti nello spazio digitale, in quanto possono influenzare il modo in cui un cliente percepisce e vive un’azienda.

Per valutare le opinioni preesistenti, è stato chiesto ai partecipanti quali fossero gli stereotipi comuni per i gruppi razziali bianco, nero e asiatico. Molte risposte sono state in linea con le ricerche precedenti: i neri erano percepiti come meno competenti dei bianchi, mentre gli asiatici erano considerati più competenti.

In seguito, i partecipanti sono stati assegnati in modo casuale a un bot che appariva bianco, nero o asiatico e hanno negoziato con il bot per ridurre il costo di una casa vacanza. I partecipanti potevano terminare le trattative in qualsiasi momento e, in seguito, sono stati interrogati sulla competenza, il calore e l’umanità del bot.

La teoria della violazione delle aspettative

Davis ha spiegato:

Indipendentemente dal modo in cui i partecipanti si sono identificati o dal bot con cui hanno interagito, abbiamo riscontrato che le persone di colore erano generalmente percepite come meno competenti rispetto alle persone bianche o asiatiche. Ma poi, quando abbiamo chiesto del bot, abbiamo visto che le percezioni cambiavano.

La ragione di questa differenza è nota come teoria della violazione delle aspettative. Questa teoria propone che se le aspettative sono basse – a causa di qualcosa come gli stereotipi – ma l’esperienza è positiva, le persone riflettono sulla loro esperienza come eccessivamente positiva.

Secondo Davis:

Le loro aspettative sono state superate e le loro risposte positive sono state amplificate. Ed è per questo che troviamo che i bot neri sono percepiti come più competenti e più umani rispetto ai bot bianchi o asiatici. Questi risultati sono un indicatore del fatto che gli stereotipi applicati nelle interazioni umane possono funzionare diversamente negli spazi digitali. Questo è molto importante nel momento in cui gli esperti di marketing progettano bot antropomorfi altamente dinamici che fungano da porta d’ingresso per la loro azienda o attività.

Infine ha precisato che questo studio è solo l’inizio, in quanto c’è bisogno di ulteriori ricerche sull’IA per capire quale sia il suo impatto sulla percezione dei consumatori e quando possa essere d’aiuto rispetto a quando possa essere dannosa.

Seguici su Telegram Instagram | Facebook TikTok Youtube

Fonte: Università della Georgia

Ti potrebbe interessare anche: 

Condividi su Whatsapp Condividi su Linkedin
Iscriviti alla newsletter settimanale
Seguici su Facebook