L’IA incontra la lingua dei segni: un progetto pionieristico guidato dalle comunità sorde

Teatro, Intelligenza Artificiale e co-creazione con le comunità sorde si uniscono per progettare un’app di traduzione automatica. Nuovo articolo su JCOM

0
336 Numero visite

In un nuovo studio basato sulla co-creazione con le comunità dei sordi per sviluppare un’app per la traduzione automatica della lingua dei segni (SLMT), i ricercatori hanno utilizzato una performance teatrale in lingua dei segni vista attraverso gli occhi dell’intelligenza artificiale.

“Storicamente, le persone sorde sono state sempre escluse dallo sviluppo delle tecnologie di traduzione automatica”, afferma Shaun O’Boyle, Research Fellow presso la School of Inclusive and Special Education (Dublin City University DCU).

“Questo ha spesso causato reazioni negative e resistenza da parte delle comunità sorde, poiché i progetti sono stati ideati e sviluppati senza alcun input da parte degli utenti finali ai quali erano destinati portando a tecnologie che nessuno voleva usare e a un grande spreco di denaro. Noi abbiamo cambiato questo approccio”, aggiunge Davy Van Landuyt, Project Manager presso l’Unione Europea dei Sordi (EUD). Lo studio è stato pubblicato in un nuovo articolo pubblicato nel Journal of Science Communication JCOM.

O’Boyle, Van Landuyt e gli altri partner del progetto europeo SignON – incluso il Vlaams GebarentaalCentrum (Centro per la lingua dei segni fiamminga) – hanno progettato una metodologia innovativa di co-creazione basata su questa idea: se dovessimo introdurre un’IA ai testi di Shakespeare nella lingua dei segni irlandese, quali estratti sceglieremmo per primi? Questo coinvolgimento con l’IA ha facilitato la connessione con il pubblico e la raccolta delle loro opinioni sulla tecnologia. “Volevamo capire ciò che le comunità sorde volevano davvero e, altrettanto importante, non volevano”, spiega Van Landuyt.

“È stato un lavoro di gruppo ed è stato molto divertente” commenta O’Boyle, esperto di comunicazione della scienza ed engagement, uno degli autori dello studio insieme a Van Landuyt, Elizabeth Mathews (che lavora con O’Boyle alla DCU) e altri colleghi.

L’attività di co-creazione del progetto, che ha contribuito allo sviluppo di un prototipo di app SLMT, ha mescolato la rappresentazione teatrale dal vivo con gli strumenti di intelligenza artificiale in un contesto che ha ribaltato la prospettiva stereotipata tra persone sorde/non udenti e persone udenti.

“Abbiamo messo insieme la performance con una discussione tra il pubblico, per mantenere la tecnica di analisi da focus group portandola però nel contesto della cultura e dell’arte, in una situazione rilassata di uscita serale” spiega O’Boyle.

L’evento, intitolato “All the World’s a Screen”, si è tenuto durante la Science Week di Dublino e consisteva in una performance teatrale basata sulle opere di William Shakespeare, eseguita nella lingua dei segni irlandese da due attori sordi, Lianne Quigley e Alvean Jones, che sono anche co-autori della ricerca e che hanno tradotto i testi di Shakespeare nella lingua dei segni. Il pubblico era composto da persone sorde, non udenti e udenti.

“Per le persone sorde, era davvero importante vedere la performance e la successiva discussione nella loro lingua piuttosto che in inglese. Durante la rappresentazione un interprete ha garantito l’accessibilità ai contenuti alle persone udenti – spiega O’Boyle – Tutto questo ha ribaltato la dinamica più comune, ma ha anche dato alle persone l’opportunità di immaginare il futuro di queste tecnologie perché abbiamo chiesto loro di guardare la performance con il loro ‘co-spettatore’ IA”.

Durante la performance, infatti, gli spettatori potevano accedere a strumenti per l’analisi in tempo reale dei movimenti degli interpreti, il riconoscimento degli oggetti e la trascrizione in della traduzione in inglese parlato fatta dagli interpreti. “Abbiamo ricevuto tanti feedback interessanti e la cosa bella di farlo nel contesto di un progetto di ricerca è che tutti quei suggerimenti sono stati immediatamente trasmessi al nostro team. Hanno dato informazioni sui vari usi della app e indicazioni tecniche”, afferma O’Boyle.

“Anche l’aspetto etico è importante – aggiunge Van Landuyt – Una delle grandi frustrazioni per le comunità dei sordi sono gli atteggiamenti o le motivazioni di alcuni ricercatori udenti che lavorano su queste tecnologie. Troppo spesso i decisori o i ricercatori udenti pensano di saperne di più delle comunità sorde e progettano qualcosa che poi viene rifiutato dagli stessi utenti finali, semplicemente perché non è ciò che vogliono o addirittura qualcosa di completamente inutile nella pratica”.

“Penso, ad esempio, a tecnologie come i “guanti” per la traduzione dei segni”, dice Van Landuyt, che sottolinea come questo porti a uno spreco di tempo e risorse. Inoltre, “limitarsi alla sola inclusione delle persone sorde in un progetto non è una soluzione strutturale. Non significa infatti che queste stiano guidando la ricerca. Spesso i ricercatori sordi vengono invitati a collaborare solo dopo che l’idea iniziale è già stata concepita, il team formato, la ricerca condotta, o addirittura verso la fine del progetto” aggiunge.

Coinvolgere autenticamente le comunità sorde nella co-creazione e comunicazione scientifica può migliorare la situazione. “Non possiamo fermare l’evoluzione di queste tecnologie, quindi dobbiamo capire come affrontarle. È essenziale che le persone sorde possano decidere per se stesse – conclude Van Landuyt – Niente su di noi senza di noi”.

Redazione  In Salute News
di Nicoletta Cocco

 

L'informazione completa