Priyanjali Gupta ha fatto fruttare le sue conoscenze per creare un modello di intelligenza artificiale basato su deep learning addestrato a riconoscere sei segni della lingua dei segni americana e tradurli in lingua inglese in tempo reale
Priyanjali Gupta, studentessa del terzo anno di informatica con specializzazione in scienza dei dati presso il Vellore Institute of Technology, ha fatto notevoli progressi nel campo dell’intelligenza artificiale, con un focus sull’inclusività.
La sua principale innovazione è un modello di intelligenza artificiale in grado di tradurre la lingua dei segni americana (ASL) in inglese in tempo reale, dimostrando come la tecnologia possa contribuire a colmare il divario comunicativo tra persone sorde o con problemi di udito e chi non conosce la lingua dei segni.
L’ispirazione per questo progetto è venuta da una sfida lanciata dalla madre di Gupta, che l’ha esortata a utilizzare le sue competenze in ingegneria per creare qualcosa di concreto e utile. Questo stimolo ha portato Priyanjali a riflettere su come potesse usare le sue conoscenze per aiutare la comunità dei non udenti.
Vuole addestrare il modello non solo su fotogrammi singoli, ma anche su video
Dopo un anno di intenso lavoro, ha sviluppato il suo modello basato sul deep learning, utilizzando l’API di rilevamento degli oggetti di TensorFlow e applicando tecniche di transfer learning attraverso il modello pre-addestrato ssd_mobilenet.
Il modello è stato addestrato a riconoscere sei segni ASL fondamentali: “Ciao”, “Ti amo”, “Grazie”, “Per favore”, “Sì” e “No”. Utilizzando una semplice webcam collegata al computer, il sistema riconosce questi segni e li traduce immediatamente in testo inglese, consentendo una comunicazione più fluida tra chi usa la lingua dei segni e chi non la conosce.
Nonostante l’ampio successo del progetto, che ha raccolto oltre 58.000 reazioni positive su LinkedIn, Gupta è consapevole delle sfide legate allo sviluppo di un sistema di intelligenza artificiale complesso come questo.
Per il futuro, Gupta prevede di migliorare il modello, addestrandolo non solo su fotogrammi singoli, ma anche su video, utilizzando reti LSTM (Long-Short Term Memory) per migliorare la precisione e consentire il riconoscimento di sequenze di segni in movimento. Questo approccio potrebbe rappresentare un importante passo avanti per il rilevamento della lingua dei segni in tempo reale.
L’invenzione di Priyanjali ha suscitato grande interesse nella comunità tecnologica e ha dimostrato come l’intelligenza artificiale possa essere utilizzata per promuovere l’inclusività. Se spesso viene bistrattata perché può togliere posti di lavoro, in questo caso (e in molti altri) si è rivelata davvero utile per abbattere le barriere con un grande impatto positivo sulla società.
Non vuoi perdere le nostre notizie?
- Iscriviti ai nostri canali Whatsapp e Telegram
- Siamo anche su Google News, attiva la stella per inserirci tra le fonti preferite
Fonte: GitHub
Ti potrebbe interessare anche:
- Questo bar è il primo gestito interamente da persone sorde (e le ordinazioni si fanno nella lingua dei segni)
- La Lingua dei Segni diventa materia nelle scuole siciliane: il progetto che tutte le classi italiane dovrebbero adottare
- Il fattorino è sordo e la bambina impara la lingua dei segni per comunicare con lui