Basta uno sguardo per controllare iPhone, l’accessibilità Apple per un mondo senza barriere

Basta uno sguardo per controllare iPhone, l’accessibilità Apple per un mondo senza barriere

In concomitanza con la Giornata mondiale dell'Accessibilità, Apple annuncia nuove importanti funzioni come Eye Tracking che consente di controllare iPhone e iPad con gli occhi, Music Haptics per ascoltare la musica attraverso le vibrazioni e Scorciatoie Vocali.

In concomitanza con la Giornata mondiale dell'Accessibilità, Apple annuncia nuove importanti funzioni come Eye Tracking che consente di controllare iPhone e iPad con gli occhi, Music Haptics per ascoltare la musica attraverso le vibrazioni e Scorciatoie Vocali.

In concomitanza con la Giornata mondiale dell'Accessibilità, Apple annuncia nuove importanti funzioni come Eye Tracking che consente di controllare iPhone e iPad con gli occhi, Music Haptics per ascoltare la musica attraverso le vibrazioni e Scorciatoie Vocali.

Dal mondo Apple

16 mag 2024

Immagina di poter controllare il tuo iPhone o il tuo iPad solo con gli occhi. Con Eye Tracking, la nuova funzione di accessibilità di Apple, in arrivo entro la fine dell’anno, sarà possibile. Un modo per consentire agli utenti con disabilità fisiche di navigare su iPad e iPhone solo con gli occhi. È questa una delle principali novità presentate da Apple in concomitanza con la Giornata mondiale dell’Accessibilità, oltre a Music Haptics che offrirà, agli utenti non udenti o con problemi di udito, un nuovo modo di sperimentare il suono, sfruttando il Taptic Engine di iPhone per "far vibrare" la musica. E ancora, con Vocal Shortcuts sarà possibile eseguire azioni semplicemente pronunciando un comando vocale personalizzato.

Queste nuove funzionalità avranno un impatto importante nella vita di molti utenti, fornendo nuovi modi di comunicare, controllare i propri dispositivi e spostarsi nel mondo. Pensate per rendere i dispositivi Apple sempre più accessibili a tutti, le nuove soluzioni combinano la potenza dell'hardware e del software, l'apprendimento automatico e l'intelligenza artificiale, aprendo nuovi orizzonti in termini di accessibilità.



Novità per la vista: l’Eye Tracking arriva su iPhone e iPad

La prima e più sorprendente è la funzione di Eye Tracking, alimentata dall’intelligenza artificiale, che offrirà agli utenti un’opzione integrata per navigare su iPhone e iPad solo con gli occhi. Progettato per utenti con disabilità fisiche, Eye Tracking utilizza la fotocamera frontale per la configurazione e la calibrazione in pochi secondi. Sarà quindi possibile navigare tra le app semplicemente spostando lo sguardo sugli elementi dell'interfaccia, confermandone la selezione con uno sguardo prolungato, senza hardware o accessori aggiuntivi.

Music Haptics rende le canzoni più accessibili

La funzione Music Haptics farà vibrare il telefono a ritmo di musica, consentendo alle persone non udenti o con problemi di udito di sperimentare la musica su iPhone. La funzionalità sarà disponibile su milioni di brani nel catalogo Apple Music e come API per consentire agli sviluppatori di rendere la musica più accessibile nelle loro app.

Nuove funzionalità per un’ampia gamma di discorsi

Il pacchetto di aggiornamenti di accessibilità include anche diverse novità per migliorare l'esperienza degli utenti con difficoltà di linguaggio e disabilità della parola. La funzione Vocal Shortcuts permette di assegnare comandi vocali personalizzati per eseguire azioni rapide e attività complesse, mentre Listen for Atypical Speech migliora il riconoscimento vocale per un'ampia gamma di pattern di linguaggio atipici. Queste funzioni sono state studiate appositamente per utenti affetti da condizioni che impattano sulla parola, offrendo loro una maggiore personalizzazione e controllo nell'uso dei dispositivi tramite comandi vocali.

Vehicle Motion Cues contro il mal d'auto

Vehicle Motion Cues è una nuova esperienza per iPhone e iPad che può aiutare a ridurre la cinetosi dei passeggeri nei veicoli in movimento. Vehicle Motion Cues risolve questo problema mostrando delle animazioni puntinate ai bordi dello schermo che replicano i movimenti del veicolo, aiutando a sincronizzare la percezione visiva con quella motoria e riducendo così il conflitto sensoriale alla base del mal d'auto. Sfruttando i sensori di movimento integrati in iPhone e iPad, questa funzionalità rileva automaticamente quando l'utente si trova a bordo di un veicolo in movimento e attiva di conseguenza le animazioni puntinate, senza interferire con il contenuto principale visualizzato. Un sistema intelligente che opera in totale trasparenza per l'utente.

La nuova generazione di CarPlay, inoltre, include il controllo vocale per navigare e controllare le app con la sola voce, i filtri colore per rendere l'interfaccia visivamente più facile da usare per gli utenti daltonici e, con Sound Recognition, i conducenti o i passeggeri sordi o con problemi di udito possono attivare notifiche per essere avvisati di clacson e sirene.


Sottotitoli nella realtà aumentata

Quest’anno, le funzionalità di accessibilità in arrivo su visionOS includeranno sottotitoli in tempo reale a livello di sistema per aiutare tutti, compresi gli utenti non udenti o con problemi di udito, e seguiranno i dialoghi parlati nelle conversazioni dal vivo e nell’audio delle app. Con i sottotitoli in tempo reale per FaceTime in visionOS, più utenti possono facilmente vivere l'esperienza unica di connettersi e collaborare. Inoltre, sarà possibile modificare la luminosità ambientale, le luci lampeggianti e i colori per rendere l'ambiente più confortevole agli utenti.


La tecnologia migliore è quella che funziona per tutte le persone. Ecco perché i prodotti e servizi Apple sono progettati fin dall’inizio per essere inclusivi, con funzioni di accessibilità integrate per aiutare a comunicare, creare, e condividere, nel modo più adatto a ognuno di noi.


Condividi l'articolo

Condividi l'articolo

Instagram

Follow us

Instagram

Follow us

Instagram

Follow us