Non solo disabili, l’accessibilità di Google sarà per tutti

Non solo disabili, l’accessibilità di Google sarà per tutti

Il machine learning trasforma un segnale vocale in un testo o traduce il gesto in un comando. Ogni prodotto pensato per un uso facilitato.

Immaginate di non poter parlare né vedere. Solo sentire i suoni. Poi vi accorgete che, premendo un bottone, potete esaudire i vostri desideri: un tocco e la musica si accende. «Ora mio fratello è molto contento e tutta quanta la nostra famiglia può interagire con lui» racconta Lorenzo Caggioni, che ha messo a punto per il fratello Giovanni il prototipo Diva, il dispositivo che, premendo un bottone, consente di interagire senza parlare con l’assistente di Google.

«Ora siamo lavorando a un’app Action Blocks per smartphone Android – spiega Caggioni, software engineer accessibility a Google – che offre delle scorciatoie, tramite icone, per dare comandi a Google Assistant». Una soluzione che può essere utile a molte persone, non solo disabili. Google – come Apple e Microsoft – guarda non solo a quel 15% di persone, pari circa un miliardo, che sono disabili (e sono in aumento a causa dell’invecchiamento della popolazione) ma anche a coloro che vivono una disabilità temporanea (come una gamba rotta) o una situazione particolare (lavorare o muoversi con un bambino in braccio). «La missione dell’accessibilità è parte integrante di Google – spiega Brian Kemler, Product Manager di Android Accessibility – Tutti dovrebbero essere in grado di accedere al web e noi lavoriamo per renderlo possibile. Android è presente in 2,5 miliardi di dispositivi, quindi questo è particolarmente importante. Inoltre, come la maggior parte dei progressi effettuati nell’accessibilità, anche queste nostre tecnologie andranno a beneficio anche delle persone senza disabilità».

Ma come fare in modo che l’accessibilità non resti solo una enunciazione di principio? «Cerchiamo di rendere tutte le nostre piattaforme e prodotti accessibili a tutti – spiega Kemler – Un non vedente può usare Gmail e qualcuno che è sordo può usare Live Caption per capire i video che compaiono nel proprio feed di Twitter o Instagram. Inoltre, possiamo applicare i progressi del machine learning e dell’intelligenza artificiale. Per esempio, una persona sorda può usare Live Transcribe su Android per poter leggere le didascalie di una conversazione con la propria famiglia».

Cosa fa il machine Learning.
Un servizio utile per chi non ci sente ma anche per chi si trova in un contesto in cui l’audio va disattivato. Negli ultimi anni, l’Ai ha contribuito a far progredire l’accessibilità, ricorda il manager. Grazie agli algoritmi di machine learning, le tecnologie Google sono in grado di riconoscere i suoni e trasformare un segnale vocale in un testo scritto e viceversa, così come di riconoscere le immagini e tradurre un gesto in un comando: è il caso di Teachable Machine, che mostra come attraverso il machine learning sia semplice istruire un computer per eseguire azioni diverse a seconda della postura di chi lo usa, facilitando così le interazioni per chi ha una disabilità motoria.

Come è cambiata Google.
Per arrivare a questi risultati il colosso di Mountain View ha dovuto anche pensare all’organizzazione interna. «L’accessibilità è parte integrante di ogni team di sviluppo prodotto . La missione del team centrale per l’accessibilità è di supportare il resto di Google per costruire prodotti accessibili e inclusivi. – racconta Kemler – Abbiamo membri del team con e senza disabilità. Il loro lavoro è anche guidare tutti i team di prodotto su come incorporare l’accessibilità nel processo di progettazione, costruzione e test; la creazione di strumenti automatici per i test e le analisi che i team (e gli sviluppatori esterni) possono utilizzare per verificare la presenza di problemi comuni di accessibilità; l’ascolto della comunità per sviluppare una comprensione più profonda di come sono utilizzabili i nostri prodotti e dei modi per migliorarli» spiega Kemler. La prossima frontiera è la disabilità cognitiva. Giovanni, il fratello di Lorenzo Caggioni, oltre che essere non vedente e muto ha la sindrome di Down. «L’app che stiamo progettando è solo l’inizio – aggiunge Caggioni – per arrivare a soluzioni sempre più utili e accessibili all’utente finale e ai suoi caregiver».

di Alessia Maccaferri da Il Sole 24 Ore del 10.01.2020

Please follow and like us:

Lascia un commento

Copyright 2022 © by Incutiosire.it

C.F. CPDNTN68H13F205I