Google Gesture – L’applicazione del linguaggio dei gesti

0
2.506 Numero visite

Google Gesture – L’applicazione del linguaggio dei gestiIn futuro Google potrebbe sviluppare Google Gesture che permetterà l’interazione a distanza tra persone – tramite l’interpretazione del linguaggio dei gesti – senza necessità di toccare alcun apparecchio o tastiera speciale. Il concept originario che sta alla base della futura applicazione è stato sviluppato da tre studenti svedesi: David Svedenström, Ludwig Hallstensson e August Östberg, che hanno inizialmente proposto l’idea a Google

di Manuela Camporaso

 

Da non confondere con Google Gesture Search  che è una applicazione di Google che permette semplicemente di riconoscere i disegni e segni fatti su un touchscreeen; un aggiornato raramente, per cui non è molto conosciuto e non ha molta visibilità tra blog e siti vari, ma presente nel Play Store di Google già da alcuni anni, il quale sarebbe in grado di velocizzare la ricerca di contenuti all’interno dello smartphone.

La nuova tecnologia, che i tre sviluppatori hanno chiamato Google Gesture, è basata su segni preconfigurati, tramite i quali  è possibile lanciare applicazioni, fare ricerche ma soprattutto è capace di riconoscere il linguaggio dei segni eseguiti in circa 40 idiomi.

COME FUNZIONA GOOGLE GESTURE

L’applicazione, attraverso l’elettromiografia, analizza l’attività muscolare ed il posizionamento di mani e braccia traducendole immediatamente in linguaggio attraverso lo smartphone. Questa nuova applicazione potrà semplificare la vita di molte persone sordomute combinandosi alla perfezione con un percorso terapeutico riabilitativo a cui spesso si ricorre nei casi di mutismo o sordomutismo.

Guarda come funziona Google Gesture:

IL PROGETTO SOLI

La tecnologia Soli è un’altra tecnologia sviluppata sul concetto di tecnologia indossabile, molto simile a Google Gesture, e a cui Google sembra interessato.

Il microchip del Progetto Soli è grande quanto un’unghia e fa uso di un radar e di una telecamera per captare i gesti delle mani e convertirli in linguaggio e poi in azioni. Quindi, per esempio, se l’utente decidesse semplicemente di strofinare due dita tra di loro, quest’azione nel linguaggio Soli si tradurrebbe come un’indicazione per alzare il volume. Insomma tutte le azioni che normalmente facciamo utilizzando tastiere e mouse si potrebbero realizzare a distanza con questa nuova tecnologia, senza bisogno di toccare nulla di fisico.

Questa tecnologia sembra vagamente richiamare alcune nozioni dello strumento musicale realizzato dal fisico sovietivo Lev Sergeevič Termen nel 1919: il Theremin, il quale è composto da due antenne poste sopra e a lato di un contenitore nel quale è alloggiata tutta l’elettronica. Il controllo avviene allontanando e avvicinando le mani alle antenne. [clicca qui per leggere di più]

Il dispositivo è ancora in fase sperimentale e i ricercatori stanno ancora lavorando sull’applicazione in quanto sembra necessario effettuare ulteriori studi per perfezionare il microchip e il kit di fasce indossabili e permettere che funzioni con precisione, in combinazione con la telecamera ed il radar.

Un film, che consigliamo, dove un esempio di questo tipo di tecnologia viene mostrato è Minority Report.

Guarda il video del Progetto Soli

http://www.dvclub.info

L'informazione completa