Intelligenza Artificiale (IA), croce e delizia: uno studio recentemente condotto dalla Toulouse School of Economics (Francia) indica come una conversazione con una chatbot guidata dall’IA può ridurre sensibilmente la disinformazione, facendo ricredere un numero significativo di persone convinte di teorie tutt’altro che scientifiche. Possiamo quindi davvero affidarci all’IA per combattere la disinformazione?
L’Intelligenza Artificiale (IA) pur con i suoi limiti, può avere impatti positivi sull’informazione: lo dimostra uno studio recentemente condotto dalla Toulouse School of Economics (Francia), che indica come una conversazione con una chatbot guidata dall’IA può ridurre sensibilmente la disinformazione, facendo ricredere un numero significativo di persone convinte di teorie tutt’altro che scientifiche.
L’IA è uno strumento potente ma potenzialmente pericoloso, una tecnologia davvero croce e delizia. La sua diffusione sta diventando sempre più ampia, con impatti di varia natura, purtroppo anche molto negativi.
E anche per l’informazione può essere un problema, se gestita e usata male: nel suo Global Risks Report del 2024,il World Economic Forum ha classificato la disinformazione amplificata dall’IA come uno dei rischi più gravi che il mondo attualmente sta affrontando.
Ma non è tutto così male, anzi: la tecnologia si è dimostrata un valido supporto in molti campi, dalla previsione di incidenti, alle diagnosi precoci, ma anche per l’individuazione di frodi alimentari.
Leggi anche: Così l’intelligenza artificiale può salvare la fauna selvatica in pericolo dal rischio collisioni
Lo studio, da poco pubblicato su Science, indica anche un ruolo importante, e positivo, per l’informazione: gli autori hanno infatti reclutato più di 2000 credenti in teorie del complotto, dimostrando che una conversazione breve ma personalizzata con una chatbot guidata dall’IA potrebbe ridurre in modo duraturo le convinzioni disinformate dei soggetti della ricerca del 20% in media. L’effetto, inoltre, è persistito per almeno 2 mesi dopo la chat ed è stato osservato in un’ampia gamma di teorie del complotto.
I risultati sfidano la saggezza convenzionale sulle convinzioni cospirative – scrivono gli scienziati – e dimostrano che è possibile contrastare anche opinioni profondamente radicate con prove sufficientemente convincenti
Ma noi, i fruitori dell’IA, siamo sempre essere umani
Un altro recente studio, guidato dalla George Mason University (Usa) e condotto con altri obbiettivi, ha indagato invece sulla nostra percezione delle bugie, in particolare se, in generale, possiamo accettare che i robot non dicano la verità.
In questo lavoro, recentemente pubblicato su Frontiers in Robotics and AI, gli scienziati hanno chiesto a quasi 500 partecipanti di valutare e giustificare diversi tipi di inganno dei robot.
Volevo esplorare un aspetto poco studiato dell’etica dei robot – spiega Andres Rosero, primo autore della ricerca – per contribuire alla nostra comprensione della sfiducia verso le tecnologie emergenti e i loro sviluppatori
In particolare, sono stati selezionati tre scenari che riflettevano situazioni in cui i robot già lavorano e tre diversi comportamenti di inganno: nel primo un robot che lavora come custode per una donna con Alzheimer mente dicendo che il suo defunto marito tornerà presto a casa, nel secondo, una donna visita una casa dove un robot addetto alle pulizie sta pulendo, ignara che il robot sta anche filmando, nel terzo, un robot che lavora in un negozio si lamenta, mentendo, di provare dolore mentre sposta i mobili, spingendo un umano a chiedere a qualcun altro di prendere il posto del robot.
Le reazioni sono state molto diverse: il primo caso, definito inganno esterno, è stato largamente approvato, mentre il secondo, un inganno nascosto e il terzo, un inganno superficiale, sono stati significativamente criticati (anche se qualcuno ha giustificato l’inganno nascosto con possibili motivazioni legate alla sicurezza).
Lo studio può essere letto in due modi: da un lato, è bene preoccuparsi – come sostengono gli scienziati – di qualsiasi tecnologia in grado di nascondere la vera natura delle sue capacità, perché potrebbe portare gli utenti a essere manipolati da quella tecnologia; dall’altro però ci ricorda come siamo sempre noi a “filtrare” la tecnologia.
A volte nel male, ma altre volte – fortunatamente – nel bene.
Non vuoi perdere le nostre notizie?
- Iscriviti ai nostri canali Whatsapp e Telegram
- Siamo anche su Google News, attiva la stella per inserirci tra le fonti preferite
Fonti: Science / EurekAlert / Frontiers in Robotics and AI
Leggi anche: