Cerca
Close this search box.

Il magazine dedicato alla sicurezza e all'innovazione tecnologica

Cerca
Close this search box.

di:  

Un avatar che parla la lingua dei segni

L’AI ha imparato la lingua dei segni, ecco l’avatar che aiuta l’inclusione

La notizia è di questi giorni e sta facendo parecchio parlare di sì: è nato il primo avatar, o meglio il primo “virtual human”, in Italia capace di comprendere e produrre la LIS, ovvero la Lingua dei Segni Italiana, grazie all’utilizzo dell’intelligenza artificiale.

Dietro al lancio di questa innovazione c’è QuestIT, company toscana nata come spin-off dell’Università di Siena e specializzata nella realizzazione di tecnologie proprietarie d’intelligenza artificiale, che per l’occasione ha stretto una partnership strategica con il Santa Chiara Fab Lab proprio dell’Ateneo senese, l’Istituto di Scienze e Tecnologie della Cognizione del Consiglio Nazionale delle Ricerche e il Gruppo per lo studio e l’informazione della Lingua dei Segni Italiana.

“Per innovare il presente serve tanta ricerca e, soprattutto, la tecnologia giusta – afferma Ernesto Di Iorio, CEO di QuestIT – Per questo motivo abbiamo sfruttato le incredibili potenzialità dell’intelligenza artificiale per strutturare un assistente virtuale di ultima generazione che conosce alla perfezione la Lingua dei Segni Italiana. Grazie ad esso, potenziamo la «digital accessibility» e diamo l’opportunità ai cittadini sordi di accedere autonomamente ad informazioni e servizi offerti da enti e realtà del territorio come la Pubblica Amministrazione e le banche, ma i potenziali campi di applicazione sono innumerevoli: dall’organizzazione degli appuntamenti negli ospedali alla spiegazione di mostre o eventi culturali nei musei fino al chiarimento di materie o singoli concetti nelle scuole o nelle aule universitarie”.

Dott. Di Iorio, come siete arrivati a questo risultato?

Ricerca, collaborazione e visione sono le 3 parole che ci hanno portato verso questo risultato. La ricerca è uno dei capisaldi di QuestIT, senza la quale non potremmo portare sul mercato innovazioni di rilievo come questa. La collaborazione, con il Santa Chiara Fab Lab dell’Università di Siena e il CNR, ci ha permesso di mettere insieme risorse e menti e di poter lavorare con le persone a cui questo servizio si rivolge, le persone sorde, dalle quali abbiamo appreso le informazioni necessarie per modellare il progetto sulla base delle loro reali necessità. Infine la visione, quella che ci contraddistingue, la voglia di creare un mondo dove informazioni e servizi possano essere accessibili a tutti, nessuno escluso.

Ha affermato che grazie a questa innovazione aumenta la digital accessability, come funziona in pratica?

Le persone sorde potranno accedere ai servizi del proprio Comune, della propria banca etc accedendo ai loro portali e attivando la telecamera oppure direttamente nei punti fisici avvicinandosi ai totem interattivi. In questo modo potranno iniziare a segnare e fare le loro richieste, l’Assistente Virtuale comprenderà e produrrà una risposta adeguata in LIS, in tempo reale.

In quali ambiti pensate possa avere un ruolo più strategico il vostro “assistente virtuale”?

In prima istanza sicuramente vorremmo dare una svolta agli enti pubblici e alle banche, per favorire un accesso immediato alle informazioni di cui ogni persona ha necessità nella propria quotidianità, ma senza dubbio estenderemo la possibilità a qualsiasi settore voglia contribuire a rendere i propri servizi più inclusivi.

Quale è stata la scintilla che vi ha fatto iniziare a lavorare in questo senso e quali sono stati gli aspetti più critici che avete dovuto affrontare nel corso della sperimentazione che vi ha portato alla realizzazione di questo avatar avveniristico?

La collaborazione continua con l’Università di Siena ci permette di mettere insieme ricerca e tecnologia per trovare le soluzioni che possano rendere le tecnologie un valido supporto per le persone. In questo caso abbiamo voluto concentrarci proprio su una tipologia specifica di utenti, le persone sorde, per le quale le difficoltà di accesso alle informazioni sono ancora tante. Così abbiamo coinvolto il CNR e gruppi di persone sorde che ci hanno aiutato a sviluppare una tecnologia che davvero può fare la differenza. Sicuramente gli

aspetti più critici sono stati quelli iniziali perché abbiamo dovuto creare da zero i dataset della Lingua dei Segni Italiana su cui la nostra IA è stata addestrata, abbiamo poi lavorato molto per rendere i movimenti dei nostri avatar quanto più precisi possibili così da replicare ciò che avviene realmente tra due persone sorde. Abbiamo cercato di dar vita ad una tecnologia che potesse, oltre ad essere un grande aiuto, mettere a proprio agio le persone durante l’utilizzo.

Prevedete di sviluppare ulteriormente l’umanoide che avete elaborato in futuro?

Sì, lavoreremo, come già facciamo, per migliorare costantemente la tecnologia così da renderla sempre più precisa e affidabile.

Si parla tanto di intelligenza artificiale, soprattutto in questo periodo in cui ChapGPT ha dimostrato quanto possa essere efficace nella realizzazione di testi facendo però anche nascere dei timori sul fatto che l’AI possa “sostituire” l’uomo in alcune attività. Voi che fate un ampio ricorso all’AI, come vi immaginate il futuro in cui necessariamente ci dovrà essere un’interazione sempre maggiore fra tecnologia e persone?

L’avanzare dell’evoluzione tecnologica dell’Intelligenza Artificiale avrà come conseguenza la necessità di una piena collaborazione “uomo-macchina”, dove la tecnologia supporterà attivamente nel lavoro ma non sostituendo l’apporto essenziale della persona. L’IA è un aiuto, un supporto che solleva da attività ripetitive, che rende più precise e veloci le analisi ma che deve essere sempre perfezionata e monitorata dalle persone.

CONDIVI QUESTO ARTICOLO!

Iscriviti alla newsletter

    La tua email *

    Numero di cellulare

    Nome *

    Cognome *

    *

    *

    Inserisci sotto il seguente codice: captcha