Boom di foto e video creati con l’Intelligenza Artificiale: i consigli per smascherare i deepfake

Recentemente siamo bombardati da immagini generate con software che sfruttano l'Intelligenza Artificiale. Mentre gli algoritmi si fanno via via più sofisticati per gli utenti distinguere il vero dal falso diventa un'operazione pù complessa. Come possiamo evitare di cadere nella trappola dei deepfake? Ecco alcuni consigli da tenere bene in mente

Negli ultimi mesi sui social stanno rimbalzando immagini che ritraggono personaggi noti in situazioni alquanto improbabili. Chi non si è imbattuto nella foto di Papa Francesco con addosso in piumino bianco da trapper o nella serie di immagini che mostrano Donald Trump durante l’arresto e successivamente dietro le sbarre di una prigione?

Tutti contenuti che a prima vista potrebbero essere scambiati per veri, ma che in realtà non sono altro che immagini realizzate grazie (o forse dovremmo dire “a causa”) all’Intelligenza Artificiale.

https://www.facebook.com/robert.steele.12914/posts/pfbid0Anh5M9vwcwCbM5Myf6Qu2LFNMM5i1kwoTNUPtJz78BTJnGMmgJtrwYYALtqePw3nl

Più tecnicamente si tratta di deepfake. Questa tecnologia consente di combinare e sovrapporre alla perfezione immagini, con un risultato sorprendentemente realistico. I software che offrono la possibilità di dar vita a dei deepfake sono in aumento e i suoi sviluppatori stanno lavorando per renderli sempre più sofisticati. Uno dei più celebri è indubbiamente Midjourney, usato per creare la foto del Papa col giubbotto alla moda, divenuto virale in pochi giorni.

Oggi distinguere ciò che reale da ciò che invece è stato manipolato sta diventando sempre più difficile e ciò sta contribuendo a creare ulteriore disinformazione online. Se fino a poco tempo fa ad esempio Midjourney non era in grado di riprodurre fedelmente i dettagli delle mani, generando dita di troppo, adesso questo problema è stato risolto.

Le strategie per riuscire a riconoscere i deepfake

Di fronte a tutto questo non resta che chiedersi: come possiamo riuscire a riconoscere delle immagini manipolate ad hoc e non cadere nelle trappole?

Sull’argomento è intervenuto anche il Garante della privacy, mettendo in guardia sulle conseguenze del fenomeno:

Un deepfake può ricostruire contesti e situazioni mai effettivamente avvenuti e, se ciò non è voluto dai diretti interessati, può
rappresentare una grave minaccia per la riservatezza e la dignità delle persone.

Un primo utile consiglio per capire se si è di fronte a un contenuto generato dall’IA arriva proprio dal GDPD, che ha diffuso un vademecum in cui spiega:

Ci sono elementi che aiutano: l’immagine può appare pixellata (cioè un pò “sgranata” o sfocata); gli occhi delle persone possono muoversi a volte in modo innaturale; la bocca può apparire deformata o troppo grande mentre la persona dice alcune cose; la luce e le ombre sul viso possono apparire anormali.

Un altro dettaglio a cui fare attenzione è l’attaccatura dei capelli, in cui si possono notare strane macchie o ombre e la pelle eccessivamente levigata e priva di imperfezioni, oltre che un eccessivo stacco tra il soggetto presentato in primo piano e lo sfondo.

Ad esempio nel caso della foto di Papa Francesco col giubbotto bianco basta cogliere alcuni indizi per accorgersi che si tratta di una foto manipolata: la sua palpebra destra è deformata e sembra fondersi con la lente dell’occhiale, mentre il crocifisso appeso al collo presenta solo metà catenella; infine, la sua mano destra tiene in modo del tutto irreale – serrando le dita in un pugno – quella che sembra una tazza di caffè da asporto.

papa-feepfake

@Elaborazione su immagine creata da
Eliot Higgins

Anche l’immagine di Donald Trump rinchiuso in prigione mostra degli elementi che ci fanno capire che si tratta di un contenuto manipolato. A insospettire è la mano sinistra – molto sfocata – che tiene la sbarra, l’attaccatura dei capelli e la chioma estremamente lucida e levigata, oltre che l’eccessivo stacco fra il primo piano e lo sfondo.

trump deepfake

@Elaborazione su immagine creata da
Eliot Higgins

Inoltre, esistono delle piattaforme che possono aiutarci a stanare i contenuti manipolati. Uno  strumento abbastanza noto è il rilevatore gratuito di immagini AI, presente sul sito AI Hugging Face. Basta caricare la foto per avere il “verdetto”. Tuttavia, non sempre riesce ad essere preciso. Quindi non è il caso di fidarsi ciecamente.

Decisamente più affidabile il FakeCatcher lanciato dall’azienda Intel, che riesce a rilevare i filmati falsi in tempo reale e con una precisione del 96%.

Seguici su Telegram Instagram | Facebook TikTok Youtube

Fonti: GDPD/Twitter/Intel

Leggi anche:

 

Condividi su Whatsapp Condividi su Linkedin
Iscriviti alla newsletter settimanale
Seguici su Facebook