Anello AI traduce la lingua dei segni americana: una rivoluzione

Un team di ricerca ha sviluppato un anello alimentato dall'AI che utilizza la tecnologia del micro-sonar per tracciare in tempo reale i movimenti della mano e leggere la Lingua dei Segni Americana

0
57 Numero visite

Un team di ricerca guidato dalla Cornell University ha sviluppato un innovativo anello alimentato da intelligenza artificiale che utilizza la tecnologia del micro-sonar per tracciare in tempo reale i movimenti della mano e delle dita durante la dattilologia della Lingua dei Segni Americana (ASL). Il dispositivo, chiamato SpellRing, rappresenta una grande innovazione nel campo della comunicazione e dell’accessibilità per le persone sorde e ipoudenti.

SpellRing si distingue per la sua capacità di interpretare la dattilologia, che è la modalità con cui in ASL si compitano parole che non hanno un segno corrispondente, come nomi propri o termini tecnici. Attualmente, il dispositivo può essere utilizzato per inserire testo su computer o smartphone utilizzando la dattilologia, ma le sue potenzialità potrebbero trasformarsi in una vera e propria rivoluzione nella traduzione della lingua dei segni, con la possibilità di tracciare intere parole e frasi firmate in tempo reale.

L’innovazione alla base di SpellRing è il design compatto e pratico. A differenza di altre tecnologie che non sono state adottate dalla comunità sorda a causa della loro ingombro e complessità, SpellRing è un anello indossato sul pollice che cattura in modo preciso i movimenti delle dita.

Come funziona questo Anello AI

Il dispositivo è dotato di un microfono e un altoparlante che inviano e ricevono onde sonore inaudibili per tracciare i movimenti della mano e un mini giroscopio per monitorare il movimento del polso e della mano. Questi componenti sono racchiusi in un anello stampato in 3D, non più grande di un quarto di dollaro.

La tecnologia sonar viene quindi elaborata da un algoritmo di apprendimento profondo, che prevede con grande precisione le lettere dattilografate in tempo reale. Il tasso di accuratezza del sistema varia tra l’82% e il 92%, a seconda della difficoltà delle parole, una performance che compete con i sistemi più complessi e ingombranti attualmente esistenti.

Gli sviluppi futuri potrebbero portare alla creazione di un sistema di traduzione ancora più completo. Il prossimo passo include l’integrazione di occhiali intelligenti che potrebbero catturare anche i movimenti della parte superiore del corpo e le espressioni facciali, fondamentali per una traduzione accurata dell’ASL. L’obiettivo è quello di rendere il sistema ancora più preciso, tenendo conto di tutti gli aspetti visivi e gestuali del linguaggio.

di Francesco Messina
Redazione HTML

L'informazione completa