Il New Scientist racconta che esistono molti prototipi di traduttori automatici per la lingua dei segni, validi. Nel mondo si calcolano almeno 100 milioni di persone affette da sordità e, questa fetta significativa della popolazione globale, utilizza complessivamente più di 100 lingue dei segni diverse come, la lingua dei segni italiana, la lingua dei segni francese, americana e tante altre. Ma nella vita quotidiana siamo in pochi a comprendere ed utilizzare questi linguaggi. Da qui l’idea di un sistema di traduzione automatica e simultanea, dai segni a un testo scritto in altre lingue, come in inglese o in arabo, che possa essere utile in situazioni comuni, in ambienti lavorativi in cui viene fornito un servizio al cliente, come in banca, o per favorire la comunicazione dal medico.
I prototipi citati dal New Scientist sono due, KinTrans e SignAll. Questi traduttori sono ancora in fase di collaudo, riproducono movimenti, espressioni e gesti riportandoli in forma scritta. Viene trascritto il tutto, in tempo reale, su di uno schermo. L’operazione complessa consiste proprio nel decodificare e trasferire in concetti scritti una comunicazione che si basa quasi interamente sui gesti.
Il vocabolario della lingua dei segni, infatti, include molti componenti manuali, noti come parametri, che comprendono tutti i movimenti delle dita e del palmo della mano. Luogo e zona corporea vicino alla quale la persona posiziona le mani e le dita, forma rappresentata, movimento e direzione del movimento della mano servono per valutare attentamente il significato del messaggio trasmesso. Questi componenti rappresentano la struttura portante del linguaggio, che però è rinforzato anche da altri elementi, come le espressioni facciali che possono cambiare il senso o alcune parti di una frase. Bisogna poi tenere in considerazione il registro della comunicazione, che può essere formale o più intimo, la prosodia, la quale include il ritmo della comunicazione e le caratteristiche del linguaggio associate all’intonazione, e l’uso dello spazio, che nella lingua dei segni è tutt’altro che secondario.
Queste regole sono state integrate nei traduttori dei due modelli citati. In KinTrans, un primo algoritmo converte i segni in comunicazione vocale e un secondo algoritmo trasforma la voce in testo scritto, il tutto in tempo reale. Sullo schermo appare anche la risposta scritta dell’utente udente, che viene così resa visibile alla persona affetta da sordità. Per ora il sistema ha codificato migliaia di segni appartenenti al linguaggio dei segni americano e arabo. Il tutto con un’accuratezza del 98%, ha spiegato il fondatore della start-up, Mohamed Elwazer. In futuro verrà integrato con il linguaggio dei segni portoghese e indo-pachistano.
Per aumentare il numero di parole e frasi riconosciute nel ‘vocabolario’, il software ha bisogno in media di dieci esempi di uno stesso segno per riconoscerlo e tradurlo.
SignAll si serve di tre fotocamere web, un sensore di profondità e un computer: il tutto per non perdere neanche un movimento, il quale può essere determinante nel cambiare il senso di una espressione della lingua dei segni. Attualmente, anche questo sistema traduce un numero limitato di parole, circa 300, dal linguaggio dei segni americano in inglese, ma presto gli autori si augurano che possa essere in grado di tradurne mille.
Ad oggi, mancano ancora dati sufficienti per coprire l’intero vocabolario del linguaggio dei segni, purtroppo non vi è un ampio database, da utilizzare, di video contenenti immagini di persone che comunicano in questo linguaggio. Per questo è complicato far riconoscere al software una data parola o espressione.
Anche se i prototipi realizzati forniscono già un’ampia base per una traduzione automatica, finora del tutto inedita, basata sulla traduzione di parole che per la prima volta non appartengono a una lingua vocale, ma a una lingua dei segni, il campo rimane ancora tutto da esplorare e perfezionare.