L’Intelligenza Artificiale può davvero combattere la disinformazione?

Intelligenza Artificiale (IA), croce e delizia: uno studio recentemente condotto dalla Toulouse School of Economics (Francia) indica come una conversazione con una chatbot guidata dall’IA può ridurre sensibilmente la disinformazione, facendo ricredere un numero significativo di persone convinte di teorie tutt’altro che scientifiche. Possiamo quindi davvero affidarci all’IA per combattere la disinformazione?

L’Intelligenza Artificiale (IA) pur con i suoi limiti, può avere impatti positivi sull’informazione: lo dimostra uno studio recentemente condotto dalla Toulouse School of Economics (Francia), che indica come una conversazione con una chatbot guidata dall’IA può ridurre sensibilmente la disinformazione, facendo ricredere un numero significativo di persone convinte di teorie tutt’altro che scientifiche.

L’IA è uno strumento potente ma potenzialmente pericoloso, una tecnologia davvero croce e delizia. La sua diffusione sta diventando sempre più ampia, con impatti di varia natura, purtroppo anche molto negativi.

Leggi anche: L’intelligenza artificiale rende ancora più pericoloso condividere le foto dei nostri figli, il video che tutti dovrebbero vedere

E anche per l’informazione può essere un problema, se gestita e usata male: nel suo Global Risks Report del 2024,il World Economic Forum ha classificato la disinformazione amplificata dall’IA come uno dei rischi più gravi che il mondo attualmente sta affrontando.

Ma non è tutto così male, anzi: la tecnologia si è dimostrata un valido supporto in molti campi, dalla previsione di incidenti, alle diagnosi precoci, ma anche per l’individuazione di frodi alimentari.

Leggi anche: Così l’intelligenza artificiale può salvare la fauna selvatica in pericolo dal rischio collisioni

Lo studio, da poco pubblicato su Science, indica anche un ruolo importante, e positivo, per l’informazione: gli autori hanno infatti reclutato più di 2000 credenti in teorie del complotto, dimostrando che una conversazione breve ma personalizzata con una chatbot guidata dall’IA potrebbe ridurre in modo duraturo le convinzioni disinformate dei soggetti della ricerca del 20% in media. L’effetto, inoltre, è persistito per almeno 2 mesi dopo la chat ed è stato osservato in un’ampia gamma di teorie del complotto.

I risultati sfidano la saggezza convenzionale sulle convinzioni cospirative – scrivono gli scienziati – e dimostrano che è possibile contrastare anche opinioni profondamente radicate con prove sufficientemente convincenti

Ma noi, i fruitori dell’IA, siamo sempre essere umani

Un altro recente studio, guidato dalla George Mason University (Usa) e condotto con altri obbiettivi, ha indagato invece sulla nostra percezione delle bugie, in particolare se, in generale, possiamo accettare che i robot non dicano la verità.

In questo lavoro, recentemente pubblicato su Frontiers in Robotics and AI, gli scienziati hanno chiesto a quasi 500 partecipanti di valutare e giustificare diversi tipi di inganno dei robot.

Volevo esplorare un aspetto poco studiato dell’etica dei robot – spiega Andres Rosero, primo autore della ricerca – per contribuire alla nostra comprensione della sfiducia verso le tecnologie emergenti e i loro sviluppatori

In particolare, sono stati selezionati tre scenari che riflettevano situazioni in cui i robot già lavorano e tre diversi comportamenti di inganno: nel primo un robot che lavora come custode per una donna con Alzheimer mente dicendo che il suo defunto marito tornerà presto a casa, nel secondo, una donna visita una casa dove un robot addetto alle pulizie sta pulendo, ignara che il robot sta anche filmando, nel terzo, un robot che lavora in un negozio si lamenta, mentendo, di provare dolore mentre sposta i mobili, spingendo un umano a chiedere a qualcun altro di prendere il posto del robot.

Le reazioni sono state molto diverse: il primo caso, definito inganno esterno, è stato largamente approvato, mentre il secondo, un inganno nascosto e il terzo, un inganno superficiale, sono stati significativamente criticati (anche se qualcuno ha giustificato l’inganno nascosto con possibili motivazioni legate alla sicurezza).

Lo studio può essere letto in due modi: da un lato, è bene preoccuparsi – come sostengono gli scienziati – di qualsiasi tecnologia in grado di nascondere la vera natura delle sue capacità, perché potrebbe portare gli utenti a essere manipolati da quella tecnologia; dall’altro però ci ricorda come siamo sempre noi a “filtrare” la tecnologia.

A volte nel male, ma altre volte – fortunatamente – nel bene.

Non vuoi perdere le nostre notizie?

Fonti: Science / EurekAlert /  Frontiers in Robotics and AI

Leggi anche:

Condividi su Whatsapp Condividi su Linkedin
Iscriviti alla newsletter settimanale
Seguici su Facebook