Un Avatar virtuale dalle sembianze umane capace di comunicare nella lingua dei segni: una rivoluzione in termini di accessibilità digitale e di servizi al prossimo, che potrebbe rivoluzionare il modo di intendere portali e servizi online.
A presentarla a Milano è QuestIT, company toscana nata come spin-off dell’Università di Siena e specializzata nella realizzazione di tecnologie proprietarie d’intelligenza artificiale, che per l’occasione ha stretto una partnership strategica con il Santa Chiara Fab Lab proprio dell’ateneo senese, l’Istituto di scienze e tecnologie della cognizione del Consiglio nazionale delle ricerche e il Gruppo per lo studio e l’informazione della Lingua dei segni italiana.
Come funziona l’Avatar
Ma come funziona questo Avatar? Sullo schermo di un device digitale un uomo porta il pugno davanti alla bocca, poi incrocia le mani con due dita alzate. E’ il suo saluto: “Buongiorno”. Risponde una donna, abito nero, orecchini, capelli raccolti in una coda. “Serve qualcosa?“, dice con i gesti delle sue mani. La conversazione è tutta in Lis, la lingua dei segni. E uno dei due protagonisti del dialogo silenzioso non è un umano in carne e ossa, ma un’umana virtuale, la prima “made in Italy” capace di produrre e di comprendere la lingua italiana dei segni, grazie all’intelligenza artificiale.
La lingua dei segni è un sistema di comunicazione basato sull’uso delle mani, dei gesti e dell’espressione facciale per trasmettere informazioni. Esistono diverse lingue dei segni in tutto il mondo, come la lingua dei segni americana (ASL) e la lingua dei segni italiana (LIS). La lingua dei segni è utilizzata da molte comunità di sordi e sorde e diventa una lingua materna per molti di loro: è riconosciuta come una lingua vera e propria, con una propria grammatica, vocabolario e sintassi. Esistono anche corsi di lingua dei segni per coloro che vogliono imparare a comunicare con le persone sorde o per diventare interpreti di lingua dei segni.
Ed è proprio in questo contesto che si inserisce questo assistente virtuale empatico e avveniristico, un avatar in grado di superare le barriere del linguaggio, utile a promuovere un’accessibilità per tutti i cittadini.
L’IA al servizio dell’accessibilità
Nel video di presentazione si può vedere l’avatar-assistente – Algho è il suo nome – in azione “sul campo”: l’utente ha bisogno di sapere dove si trova l’anagrafe, l’assistente virtuale comprende la sua richiesta e risponde comunicandogli l’indirizzo in Lis.
“La ricerca è la base dell’innovazione e l’intelligenza artificiale sarà la freccia più potente al nostro arco in vista dei prossimi anni“, sottolinea Ernesto Di Iorio, Ceo di QuestIT. “Per innovare il presente – aggiunge – serve la tecnologia giusta. Per questo motivo abbiamo sfruttato le potenzialità dell’intelligenza artificiale per strutturare un assistente virtuale di ultima generazione che conosce alla perfezione la Lingua dei segni italiana. Potenziamo così la ‘digital accessibility’ e diamo l’opportunità ai cittadini sordi di accedere autonomamente a informazioni e servizi offerti da enti e realtà del territorio come la Pubblica amministrazione e le banche”.
“Ma i potenziali campi di applicazione sono innumerevoli – evidenzia Di Iorio – dall’organizzazione degli appuntamenti negli ospedali alla spiegazione di mostre o eventi culturali nei musei, fino al chiarimento di materie o singoli concetti nelle scuole o nelle aule universitarie”.
Attualmente, spiegano gli esperti, la tecnologia, in qualità di virtual assistant, può essere inserita all’interno di siti web, applicazioni, sistemi proprietari e persino totem interattivi.
Ma è di facile utilizzo l’avatar?
Una volta che la persona si presenta davanti allo schermo e inizia a interagire ‘a suon’ di segni, l’avatar analizza le espressioni facciali del singolo, oltre ai suoi movimenti, e risponde utilizzando la Lis. In questo modo è in grado di offrire consulenze mirate, a seconda del contesto di riferimento, ai clienti sordi.
Il percorso di Algho non si ferma e, si legge in una nota, sono previste a stretto giro una serie di lavorazioni utili a perfezionare lo stesso umanoide. “Stiamo già lavorando su quello che può essere l’evoluzione del prodotto – aggiunge Di Iorio – L’obiettivo è offrire una tecnologia capace di tradurre simultaneamente le parole in segni. Già oggi, dopo una prima fase di training, è in grado di gestire le richieste della clientela in totale autonomia ed offrire così l’assistenza di cui le persone necessitano”.