L’Intelligenza Artificiale è pericolosa: Elon Musk firma un appello per mettere in pausa il suo sviluppo, ma è davvero così?

I sottoscrittori della lettera hanno messo in dubbio la presenza di sufficienti sistemi di controllo e hanno definito lo sviluppo dell’intelligenza artificiale “un profondo rischio per l’umanità”. Questa richiesta di uno stop potrebbe però celare una mossa strategica da parte di Elon Musk?

Il fondatore e miliardario proprietario di Tesla Elon Musk ha invitato più di 1.000 altri ricercatori tecnologici a sospendere lo sviluppo di intelligenze artificiali avanzate per almeno sei mesi, al fine di fermare quella che hanno definito “una pericolosa corsa che sta portando allo sviluppo di modelli sempre più imprevedibili e con capacità sempre maggiori”.

La lettera, promossa dal Future of Life Institute – un’organizzazione no-profit creata per monitorare il modo in cui la tecnologia viene sviluppata e in gran parte finanziata dallo stesso Musk – ha ricevuto più di 1.100 firme in poche ore.

Per questo motivo, a fronte dell’enorme afflusso di richieste, la registrazione è stata bloccata temporaneamente. Oltre a Musk, si sono candidati nomi importanti nel campo della tecnologia come il cofondatore di Apple Steve Wozniak, Jaan Tallin, cofondatore di Skype, e ingegneri di Meta e Microsoft.

Un rischio profondo per la società e l’umanità

Ma vediamo cosa sostiene il documento, consultabile al link futureoflife.org:

I sistemi di intelligenza artificiale possono rappresentare un rischio profondo per la società e l’umanità. Sfortunatamente, non vengono sviluppati con l’adeguato livello di pianificazione e attenzione. C’è stata una corsa incontrollata allo sviluppo di sistemi sempre più potenti che nessuno, nemmeno i loro creatori, capisce, prevede o può controllare in modo affidabile.

Negli ultimi mesi, infatti, organizzazioni come OpenAI con la sua Chat GPT hanno dimostrato le potenziali capacità dell’IA. I giganti della tecnologia, in particolare Alphabet, Baidu, Meta e Microsoft, hanno intensificato le loro scommesse su questa tecnologia.

Per questo, si legge:

Chiediamo quindi a tutti i laboratori di intelligenza artificiale di mettere immediatamente in pausa gli sviluppi più potenti del GPT-4 per almeno sei mesi. Questa pausa deve essere pubblica e verificabile e deve includere tutti gli attori chiave. Se questa pausa non arriva rapidamente, i governi dovrebbero intervenire e farla rispettare.

La richiesta di protocolli di sicurezza

L’organizzazione ha tenuto a precisare che non chiede l’interruzione della ricerca sull’IA, ma piuttosto che venga svolta in modo diverso da quello attuale:

I laboratori di IA e gli esperti indipendenti dovrebbero approfittare della pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza per i progetti più avanzati, verificati e garantiti da esperti indipendenti.

Inoltre, si invitano i governi ad accelerare “drasticamente” i quadri normativi in grado di monitorare lo sviluppo di questi sistemi e di istituire protocolli per rimediare ai danni che potrebbero causare.

L’Artificial Intelligence Act

Effettivamente l’Unione Europea sta preparando un regolamento sull’intelligenza artificiale noto come Artificial Intelligence Act che si basa su un sistema di scale di rischio. A basso rischio sarebbero, ad esempio, le IA dei videogiochi, che potrebbero operare con pochissimi requisiti normativi.

Dall’altra parte della scala ci sono le IA “inaccettabilmente rischiose”. Tra queste figurano i sistemi di social scoring o i sistemi di identificazione biometrica in tempo reale negli spazi pubblici, che verrebbero vietati.

I sistemi “ad alto rischio”, invece, sono consentiti, ma gli sviluppatori dovranno attenersi a regolamenti che li sottopongono a una sorveglianza “rigorosa”. Questa categoria ad alto rischio comprende veicoli autonomi, dispositivi medici e macchinari per infrastrutture critiche.

La legge sull’intelligenza artificiale è stata proposta per la prima volta dalla Commissione europea nell’aprile 2021. Il Consiglio europeo ha adottato una posizione comune alla fine del 2022 e la legislazione è attualmente in discussione al Parlamento europeo.

Musk potrebbe essere indietro nello sviluppo dell’IA?

E Musk in tutto ciò? Ora sembra essersi messo sulla difensiva eppure, pur avvertendo dei suoi pericoli, le aziende di Elon Musk hanno lavorato intensamente allo sviluppo dell’intelligenza artificiale.

Hanno lavorato su sistemi di guida autonoma e sulla creazione di robot umanoidi. Musk è stato co-fondatore di OpenAI, l’azienda dietro il successo di ChatGPT, ma nel 2018 ha lasciato l’organizzazione e nel tempo è diventato sempre più critico nei suoi confronti.

Ma cosa potrebbe nascondere questa ulteriore marcia indietro da parte del CEO di Tesla? Musk è veramente preoccupato da una possibile degenerazione dell’intelligenza artificiale che potrebbe renderla incontrollabile oppure c’è altro?

Il magnate milionario non ha mai lasciato nulla al caso e si è sempre dimostrato pioniere nello sviluppo di nuove tecnologie, spesso ignorando i rischi che questa sempre maggiore “interferenza” nella nostra vita avrebbero potuto portare con sé.

Questa richiesta di uno stop potrebbe dunque celare il fatto di essersi reso conto di essere indietro con le proprie conoscenze rispetto ad altri potenziali concorrenti? Musk potrebbe cercare di usare questa pausa per recuperare il terreno perso? I dubbi sono tanti e solo il tempo ci darà una visione chiara di quanto sta succedendo.

Seguici su Telegram Instagram | Facebook TikTok Youtube

Ti potrebbe interessare anche: 

Condividi su Whatsapp Condividi su Linkedin
Iscriviti alla newsletter settimanale
Seguici su Facebook