si apre in una nuova finestra
COMUNICATO STAMPA 13 maggio 2025

Apple presenta potenti funzioni di accessibilità in arrivo entro la fine dell’anno

Le nuove funzioni includono schede sull’accessibilità sull’App Store, Lente per Mac, Braille Access e Accessibility Reader, oltre a innovativi aggiornamenti ad “Ascolto dal vivo”, visionOS, “Voce personale” e molto altro ancora
Apple ha annunciato oggi nuove funzioni di accessibilità in arrivo entro la fine dell’anno, tra cui Lente su Mac.
CUPERTINO, CALIFORNIA Apple ha annunciato oggi nuove funzioni di accessibilità in arrivo entro la fine dell’anno, tra cui le schede sull’accessibilità, che offriranno informazioni più dettagliate per app e giochi sull’App Store. Le persone cieche o ipovedenti potranno esplorare, imparare e interagire usando la nuova app Lente per Mac; prendere appunti ed eseguire calcoli con la nuova funzione Braille Access, e sfruttare il potente sistema di fotocamere di Apple Vision Pro con i nuovi aggiornamenti a visionOS. Altre novità includono Accessibility Reader, una nuova modalità di lettura a livello di sistema creata pensando all’accessibilità, e aggiornamenti ad “Ascolto dal vivo”, “Suoni di sottofondo”, “Voce personale”, “Indicatori di movimento nei veicoli”, e molto altro ancora. Sfruttando la potenza del chip Apple, oltre ai miglioramenti del machine learning on-device e dell’intelligenza artificiale, gli utenti sperimenteranno un nuovo livello di accessibilità in tutto l’ecosistema Apple.
“L’accessibilità fa parte del DNA di Apple”, ha dichiarato Tim Cook, CEO di Apple. “Creare tecnologie che funzionano per tutte le persone è una priorità per noi, e le innovazioni che renderemo disponibili quest’anno ci riempiono di orgoglio. Offriremo strumenti per aiutare le persone ad accedere a informazioni fondamentali, esplorare il mondo intorno a loro e fare tutto quello che amano”.
“In Apple, abbiamo alle spalle 40 anni di innovazioni nel campo dell’accessibilità, e ci impegniamo a spingerci sempre oltre introducendo nuove funzioni di accessibilità per tutti i nostri prodotti”, ha detto Sarah Herrlinger, Senior Director of Global Accessibility Policy and Initiatives di Apple. “Grazie alla potenza dell’ecosistema Apple, queste funzioni si integrano alla perfezione per offrire alle persone nuovi modi di interagire con le cose a cui tengono di più”.

Sull’App Store arrivano le schede sull’accessibilità

Le schede sull’accessibilità introducono una nuova sezione nelle pagine dei prodotti dell’App Store che metterà in evidenza le funzioni di accessibilità all’interno di app e giochi. Queste schede offriranno agli utenti un nuovo modo per scoprire se un’app è accessibile prima di scaricarla, dando a chi si occupa di sviluppo l’opportunità di informare e spiegare meglio alle persone le funzioni supportate dalla loro app. Queste includono VoiceOver, “Controllo vocale”, “Testo più grande”, “Contrasto sufficiente”, “Riduci movimento”, trascrizioni, e tante altre ancora. Le schede sull’accessibilità saranno disponibili sull’App Store in tutto il mondo, e i team che si occupano di sviluppo potranno accedere a ulteriori indicazioni sui criteri che le app dovranno soddisfare prima di mostrare informazioni sull’accessibilità nelle pagine dei loro prodotti.
“Le schede sull’accessibilità sono un enorme passo avanti per l’accessibilità”, ha affermato Eric Bridges, presidente e CEO dell’American Foundation for the Blind. “Le persone meritano di sapere se un prodotto o servizio sarà accessibile fin da subito, e Apple si impegna da anni a offrire strumenti e tecnologie che permettono a chi sviluppa di creare esperienze per tutti e tutte. Grazie a queste schede, le persone con disabilità avranno un modo nuovo e semplice per prendere decisioni più informate e fare acquisti con più sicurezza”.

Una nuova app Lente per Mac

Dal 2016, l’app Lente su iPhone e iPad offre alle persone cieche o ipovedenti strumenti per ingrandire, leggere testi e rilevare oggetti intorno a loro. Quest’anno l’app Lente arriva su Mac per rendere il mondo reale più accessibile alle persone ipovedenti. L’app Lente per Mac si connette alla fotocamera dell’utente, permettendo di ingrandire ciò che ha intorno, ad esempio, uno schermo o una lavagna. Lente funziona con la fotocamera Continuity su iPhone e con le fotocamere USB collegate, e supporta la lettura di documenti tramite Panoramica Scrivania.
Con più finestre di sessioni live, gli utenti potranno lavorare in multitasking visualizzando una presentazione con una webcam e allo stesso tempo seguire un libro con Panoramica Scrivania. Grazie a viste personalizzate, potranno regolare la luminosità, il contrasto, i filtri colore e persino la prospettiva, per rendere testi e immagini più facili da leggere. Potranno anche acquisire, raggruppare e salvare le viste per lavorarci in un secondo momento. Inoltre, l’app Lente per Mac integra un’altra nuova funzione di accessibilità, Accessibility Reader, che trasforma il testo rilevato nel mondo reale in un formato leggibile personalizzato.
L’app Lente su un Mac.
In arrivo entro la fine dell’anno, una nuova app Lente per Mac renderà il mondo reale più accessibile per le persone ipovedenti.

Una nuova esperienza braille

Braille Access è un’esperienza tutta nuova che trasforma iPhone, iPad, Mac e Apple Vision Pro in strumenti completi per prendere appunti in braille perfettamente integrati nell’ecosistema Apple. Con una funzione integrata per l’avvio delle app, gli utenti potranno aprire facilmente qualsiasi app digitando con “Input Braille schermo” o un dispositivo braille collegato. Con Braille Access, è possibile prendere appunti al volo in formato braille ed eseguire calcoli usando il codice braille di Nemeth, spesso utilizzato nelle classi per le scienze e la matematica. Gli utenti possono aprire i file Braille Ready Format (BRF) direttamente da “Braille Access”, sbloccando un’ampia gamma di libri e file creati in precedenza su dispositivi che consentono di prendere appunti in braille. E grazie a una versione integrata di “Trascrizioni live” possono trascrivere le conversazioni in tempo reale direttamente sui display braille.

La nuova funzione Accessibility Reader

Accessibility Reader è una nuova modalità di lettura, a livello di sistema, progettata per rendere più facile la lettura di testi per utenti con varie disabilità, come la dislessia o l’ipovisione. Disponibile su iPhone, iPad, Mac e Apple Vision Pro, Accessibility Reader offre alle persone nuovi modi per personalizzare i testi e concentrarsi sui contenuti che si vogliono leggere, con tante opzioni per quanto riguarda font, colore e spaziatura, nonché il supporto di “Contenuto letto ad alta voce”. La funzione Accessibility Reader si può avviare da qualsiasi app ed è integrata nell’app Lente per iOS, iPadOS e macOS, permettendo così agli utenti di interagire con il testo rilevato nel mondo reale, come libri o menu di ristoranti.
Due iPhone 16 che mostrano la funzione Accessibility Reader.
Accessibility Reader, una nuova modalità di lettura a livello di sistema, disponibile su iPhone, iPad, Mac e Apple Vision Pro, offre agli utenti nuovi modi per personalizzare i testi e concentrarsi sui contenuti che si vogliono leggere.

“Trascrizioni live” arriva su Apple Watch

Pensati per le persone sorde o ipoudenti, i controlli di “Ascolto dal vivo” arrivano su Apple Watch con una nuova serie di funzioni, tra cui le trascrizioni live in tempo reale. “Ascolto dal vivo” trasforma iPhone in un microfono remoto per trasmettere i contenuti direttamente agli AirPods, alle cuffie Beats o ai dispositivi acustici “Made for iPhone”. Quando è attiva una sessione su iPhone, gli utenti possono visualizzare le "Trascrizioni live" dei contenuti rilevati da iPhone su un Apple Watch abbinato mentre ascoltano l’audio. Apple Watch funge da telecomando per avviare o interrompere le sessioni di “Ascolto dal vivo”, o per tornare indietro a una sessione e recuperare qualcosa che potrebbe essere andato perso. Con Apple Watch, gli utenti può controllare le sessioni di “Ascolto dal vivo” anche dall’altra parte di una stanza, senza doversi alzare nel bel mezzo di una riunione o di una lezione.
Un iPhone 16 e un Apple Watch che mostrano la funzione “Ascolto dal vivo”.
I controlli di “Ascolto dal vivo” arrivano su Apple Watch con una nuova serie di funzioni, tra cui “Trascrizioni live” in tempo reale.

Una vista migliore con Apple Vision Pro

Per le persone cieche o ipovedenti, visionOS amplierà le funzioni di accessibilità per la vista usando l’evoluto sistema di fotocamere di Apple Vision Pro. Con potenti aggiornamenti alla funzione Zoom, gli utenti potranno ingrandire tutto ciò che è visibile, incluso l’ambiente intorno, usando la fotocamera principale. Per chi usa VoiceOver, la funzione “Riconoscimento in tempo reale” in visionOS utilizza il machine learning on-device per descrivere l’ambiente circostante, trovare oggetti, leggere documenti, e tanto altro ancora.1 Per sviluppatori e sviluppatrici che si occupano di accessibilità, una nuova API consentirà alle app approvate di accedere alla fotocamera principale per offrire assistenza di persona e in tempo reale per l’interpretazione visiva in app come Be My Eyes, offrendo alle persone nuovi modi per comprendere l’ambiente circostante, a mani libere.
Potenti aggiornamenti alla funzione Zoom su Apple Vision Pro permettono agli utenti di ingrandire tutto ciò che è visibile, incluso l’ambiente intorno, usando la fotocamera principale. Qui, una persona usa Apple Vision Pro in cucina per ingrandire un viewport rettangolare ottenendo uno sguardo più ravvicinato su un libro delle ricette, e spunta gli ingredienti dalla lista nell’app Note.

Altri aggiornamenti

  • “Suoni di sottofondo” diventa più facile da personalizzare, con nuove impostazioni di equalizzazione, l’opzione di arresto automatico dopo un determinato periodo di tempo e nuove azioni per le automazioni in Comandi rapidi. “Suoni di sottofondo” può aiutare a ridurre le distrazioni per favorire la concentrazione e il rilassamento, aspetti che, secondo alcune persone, possono contribuire ad alleviare i sintomi dell’acufene.
  • Per le persone che rischiano di perdere la facoltà di parlare, Voce personale diventa più veloce, semplice e potente che mai, sfruttando i miglioramenti del machine learning on-device e dell’intelligenza artificiale per creare una voce dal suono più naturale in meno di un minuto, usando solo 10 frasi registrate. “Voce personale” aggiungerà il supporto anche per lo spagnolo (Messico).2
  • La funzione Indicatori di movimento nei veicoli, che può aiutare a ridurre la nausea quando si usa un dispositivo su un veicolo in movimento, arriva su Mac, insieme a nuovi modi per personalizzare i punti animati sullo schermo su iPhone, iPad e Mac.
La funzione “Indicatori di movimento nei veicoli”, che può aiutare a ridurre la nausea quando si usa un dispositivo su un veicolo in movimento, arriva su Mac.
  • Chi usa “Tracciamento occhi” su iPhone e iPad ora potrà scegliere di usare un interruttore o un ritardo per effettuare selezioni. Ora l’esperienza di digitazione sulla tastiera quando si usa la funzione “Tracciamento occhi” o “Controllo interruttori” è ancora più semplice su iPhone, iPad e Apple Vision Pro, grazie a miglioramenti che includono un nuovo timer del ritardo per la tastiera, un minor numero di passaggi quando si digita con interruttori e la possibilità di usare QuickPath per iPhone e Apple Vision Pro.
  • Con “Tracciamento testa”, gli utenti potranno controllare più facilmente iPhone e iPad con i movimenti del capo, in modo analogo alla funzione “Tracciamento occhi”.
  • Per utenti con disabilità motorie gravi, iOS, iPadOS e visionOS aggiungeranno un nuovo protocollo per supportare “Controllo interruttori” per Brain Computer Interfaces (BCIs), una nuova tecnologia che permette di controllare il proprio dispositivo senza alcun movimento fisico.
  • “Accesso assistito” introduce una nuova app Apple TV su misura con un player multimediale semplificato. Gli sviluppatori e le sviluppatrici riceveranno anche supporto per creare esperienze personalizzate per utenti con disabilità intellettive e di sviluppo usando l’API di “Accesso assistito”.
  • “Feedback aptici musica” su iPhone diventa più personalizzabile, con la possibilità di sentire feedback aptici per un intero brano o solo per le tracce vocali, e l’opzione per regolare l’intensità complessiva di tocchi, texture e vibrazioni.
  • “Riconoscimento suoni” introduce Name Recognition, una nuova funzione che permette alle persone sorde o ipoudenti di sapere quando viene pronunciato il loro nome.
  • “Controllo vocale” introduce una nuova modalità di programmazione in Xcode per sviluppatori e sviluppatrici di software con difficoltà motorie. “Controllo vocale” aggiunge anche una funzione di sincronizzazione del dizionario tra dispositivi e amplierà il supporto linguistico per includere arabo (Arabia Saudita), cinese mandarino (Taiwan), coreano, inglese (Singapore), italiano, russo, spagnolo (America Latina) e turco.
  • “Trascrizioni live” aggiunge il supporto per cantonese (Cina continentale, Hong Kong), cinese mandarino (Cina continentale), coreano, francese (Canada, Francia), giapponese, inglese (Australia, India, Regno Unito, Singapore), spagnolo (America Latina, Spagna) e tedesco (Germania).
  • Gli aggiornamenti a CarPlay includono il supporto per “Testo più grande”. Grazie alle novità in arrivo per “Riconoscimento suoni” su CarPlay, le persone sorde o ipoudenti che guidano o viaggiano in auto potranno ricevere una notifica quando vengono rilevati suoni come il pianto di un bambino, oltre a suoni esterni al veicolo, come clacson o sirene.
  • Share Accessibility Settings è un nuovo modo per condividere velocemente e temporaneamente le proprie impostazioni di accessibilità con un altro iPhone o iPad. Questa funzione è molto utile quando si prende in prestito un dispositivo o si usa una postazione pubblica, per esempio quando si è in un bar.

Celebrare la Giornata mondiale dell’Accessibilità con Apple

Durante il mese di maggio, Apple Retail introdurrà in alcuni store tavoli dedicati per dare risalto alle funzioni di accessibilità su vari dispositivi. Inoltre, Apple offre tutto l’anno sessioni sull’accessibilità tramite Today at Apple per chi desidera approfondire, ricevere suggerimenti e personalizzare le funzioni. Le sessioni possono essere programmate negli Apple Store di tutto il mondo tramite prenotazioni di gruppo o visitando l’Apple Store più vicino.
Apple Music condivide la storia dell’artista Kiddo K e la potenza dei feedback aptici nella musica per le persone sorde o ipoudenti, presenta gli aggiornamenti alle playlist Musica aptica, e inoltre lancia una nuova playlist con interpretazioni nella lingua dei segni di video musicali, oltre alle playlist Saylists.
Apple Fitness+ dà il benvenuto a Chelsie Hill, ospite di un workout di danza con il trainer Fitness+ Ben Allen. Hill è una ballerina professionista, fondatrice di Rolettes, un team di danza in sedia a rotelle, con sede a Los Angeles, che promuove la rappresentazione della disabilità e l’empowerment femminile. L’allenamento è ora disponibile nell’app Fitness+.
Apple TV+ condivide uno sguardo dietro le quinte alla realizzazione del nuovo film Apple Original Deaf President Now!, in uscita su Apple TV+ il 16 maggio. Il documentario racconta la storia del più grande movimento per i diritti civili del quale la maggior parte delle persone non ha mai sentito parlare. Nel corso di otto turbolenti giorni, nel 1988, nell’unica università per persone sorde al mondo, quattro studenti devono trovare un modo per guidare una rivoluzione e cambiare la storia.
Apple Books, Apple Podcasts, Apple TV e Apple News daranno risalto a storie di persone con disabilità e a chi lavora per rendere il mondo più accessibile per tutti e tutte.
L’App Store condividerà una raccolta di app e giochi creati per essere accessibili a tutti e tutte, oltre alla storia del developer Klemens Strasser, la cui missione è realizzare app e giochi accessibili come The Art of Fauna.
L’app Comandi rapidi introduce Hold That Thought, un comando rapido che invita gli utenti a catturare e ricordare informazioni con una nota per evitare che le interruzioni facciano deragliare il flusso dei pensieri. Il comando rapido Accessibility Assistant è stato aggiunto a Comandi rapidi su Apple Vision Pro per consigliare funzioni di accessibilità in base alle preferenze dell’utente.
Nuovi video nella playlist dedicata all’accessibilità del Supporto Apple includono funzioni come “Tracciamento occhi”, “Abbreviazioni vocali” e “Indicatori di movimento nei veicoli”, e una libreria di video per aiutare gli utenti a personalizzare il proprio iPhone, iPad, Mac, Apple Watch e Apple Vision Pro nel modo più funzionale alle esigenze.
Condividi articolo

Media

  • Testo dell’articolo

  • Immagini in questo articolo

  1. La funzione “Riconoscimento in tempo reale” non deve essere considerata come riferimento in situazioni ad alto rischio o di emergenza, in circostanze che potrebbero causare danni o lesioni all’utente, o per orientarsi.
  2. L’utente può utilizzare la funzione “Voce personale” solo per creare una voce che suona come la sua sul dispositivo, usando la sua voce, e per uso personale e non commerciale.

Contatti stampa

Tiziana Scanu

Apple

[email protected]

02 27326372

Helpline Apple per la stampa

[email protected]

02 27326227