s’ouvre dans une nouvelle fenêtre
COMMUNIQUÉ DE PRESSE 13 mai 2025

Apple dévoile de puissantes fonctionnalités d’accessibilité disponibles d’ici la fin de l’année

Parmi ces nouvelles fonctionnalités d’accessibilité figurent les étiquettes d’accessibilité sur l’App Store, la Loupe pour Mac, Braille Access et le Lecteur Accessibilité ; ainsi que des nouveautés innovantes pour Écoute en temps réel, visionOS, Voix personnelle, et plus encore
Apple a annoncé aujourd’hui l’arrivée de nouvelles fonctionnalités d’accessibilité d’ici la fin de l’année, dont une Loupe sur Mac.
CUPERTINO, CALIFORNIE Apple a annoncé aujourd’hui l’arrivée de nouvelles fonctionnalités d’accessibilité d’ici la fin de l’année, parmi lesquelles les étiquettes d’accessibilité, qui fourniront de plus amples informations sur les apps et jeux disponibles sur l’App Store. Les personnes aveugles ou malvoyantes pourront naviguer, apprendre et interagir en utilisant la nouvelle app Loupe pour Mac ; prendre des notes et effectuer des calculs à l’aide de la fonctionnalité Braille Access ; et tirer parti du puissant système caméra de l’Apple Vision Pro grâce aux améliorations apportées à visionOS. Les autres annonces concernent le Lecteur Accessibilité, un nouveau mode de lecture intégré à l’ensemble du système et conçu dans un souci d’accessibilité, ainsi que des nouveautés pour Écoute en temps réel, Sons en arrière-plan, Voix personnelle, Indicateurs de mouvement du véhicule, et plus encore. Grâce à la puissance de la puce Apple et aux avancées réalisées en matière d’apprentissage automatique embarqué et d’intelligence artificielle, les utilisateurs bénéficieront d’un degré d’accessibilité inédit dans tout l’écosystème Apple.
« L’accessibilité fait partie de l’ADN d’Apple », a déclaré Tim Cook, CEO d’Apple. « Mettre la technologie à la portée de tous est une priorité absolue, et nous sommes fiers des innovations que nous présentons cette année. Ces outils permettront aux personnes qui les utilisent d’accéder à des informations essentielles, d’explorer le monde qui les entoure et de faire ce qui leur tient à cœur. »
« Avec à son actif 40 ans d’innovation en matière d’accessibilité, Apple s’engage à développer toujours plus de nouvelles fonctionnalités d’accessibilité pour tous ses produits », a déclaré Sarah Herrlinger, Senior director of Global Accessibility Policy and Initiatives d’Apple. « Propulsées par l’écosystème Apple, ces fonctionnalités se complètent pour offrir aux utilisateurs de nouvelles façons de se consacrer à leurs activités de prédilection. »

Les étiquettes d’accessibilité arrivent sur l’App Store

Les étiquettes d’accessibilité constituent une nouvelle section des pages produits de l’App Store, qui mettra en évidence les fonctionnalités d’accessibilité intégrées aux apps et jeux. Ces étiquettes offrent aux utilisateurs un nouveau moyen de vérifier l’accessibilité d’une app avant de la télécharger, et permettent aux développeurs de mieux communiquer sur les fonctionnalités prises en charge par leur app. Il peut s’agir des fonctionnalités suivantes : VoiceOver, Contrôle vocal, Police plus grande, Sufficient Contrast, Réduire les animations ou encore les sous-titres. Les étiquettes d’accessibilité seront disponibles sur l’App Store dans le monde entier, et les développeurs pourront obtenir davantage d’informations sur les critères auxquels les apps doivent répondre avant d’afficher les informations relatives à l’accessibilité sur leurs pages produits.
« Les étiquettes d’accessibilité représentent une avancée considérable en matière d’accessibilité », a déclaré Eric Bridges, Président-directeur général de la Fondation américaine pour les aveugles. « Les consommateurs sont en droit de savoir si un produit ou un service leur sera accessible dès le départ, et Apple propose depuis longtemps des outils et des technologies qui permettent aux développeurs de créer des expériences accessibles à tous. Ces étiquettes offriront aux personnes en situation de handicap une nouvelle ressource pour faire des choix plus éclairés et réaliser des achats en toute confiance. »

Une toute nouvelle Loupe pour Mac

Depuis 2016, la Loupe sur iPhone et iPad a mis à la disposition des personnes aveugles ou malvoyantes des outils leur permettant de zoomer, de lire du texte et de détecter des objets autour d’elles. Cette année, la Loupe s’invite sur Mac pour rendre le monde physique plus accessible aux utilisateurs malvoyants. L’app Loupe pour Mac se connecte à la caméra de l’utilisateur pour lui permettre de zoomer sur ce qui l’entoure, comme un écran ou un tableau blanc. La Loupe fonctionne avec la caméra Continuité de l’iPhone ainsi qu’avec les caméras branchées en USB, et prend en charge la lecture de documents à l’aide de Desk View.
Grâce à plusieurs fenêtres affichant du contenu en direct, les utilisateurs peuvent effectuer plusieurs tâches à la fois, par exemple suivre une présentation via une webcam tout en lisant un livre avec Desk View. Des affichages personnalisés offrent aux utilisateurs la possibilité d’ajuster la luminosité, le contraste, les filtres de couleur et même la perspective afin de rendre le texte et les images plus faciles à voir. Il est possible de réaliser des captures de ces affichages, de les regrouper et de les enregistrer pour y revenir ultérieurement. De plus, la Loupe pour Mac est intégrée à une autre fonction d’accessibilité inédite, le Lecteur Accessibilité, qui transforme les textes du monde physique en un format lisible personnalisé.
L’app Loupe est affichée sur un Mac.
Disponible d’ici la fin de l’année, une toute nouvelle Loupe pour Mac rendra le monde physique plus accessible aux personnes malvoyantes.

Une expérience braille inédite

Braille Access est une expérience inédite qui transforme l’iPhone, l’iPad, le Mac et l’Apple Vision Pro en un dispositif complet de prise de notes en braille, intégré en profondeur dans l’écosystème Apple. Grâce à un lanceur d’apps intégré, les utilisateurs peuvent facilement ouvrir n’importe quelle app en utilisant la Saisie braille à l’écran ou un appareil braille connecté. Avec Braille Access, il leur est possible de prendre rapidement des notes en braille et d’effectuer des calculs à l’aide de Nemeth Braille, un code braille fréquemment utilisé dans les salles de classe en mathématiques et en sciences. Les utilisateurs peuvent ouvrir des fichiers au format BRF (Braille Ready Format) directement à partir de Braille Access, ce qui permet la consultation d’un large éventail de livres et de fichiers créés précédemment sur un appareil de prise de notes en braille. De plus, une version intégrée des Sous-titres en direct permet de transcrire des conversations en temps réel directement sur des afficheurs braille.

Nouveau Lecteur Accessibilité

Le Lecteur Accessibilité est un nouveau mode de lecture intégré à l’échelle du système, conçu pour aider les utilisateurs présentant divers handicaps, tels que la dyslexie ou une déficience visuelle, à lire plus facilement. Disponible sur iPhone, iPad, Mac et Apple Vision Pro, le Lecteur Accessibilité offre aux utilisateurs de nouvelles façons de personnaliser les textes et de se concentrer sur le contenu à lire, avec de nombreuses options de police, de couleur et d’espacement, ainsi que la prise en charge de Contenu énoncé. Pouvant être lancé à partir de n’importe quelle app, le Lecteur Accessibilité est intégré à l’app Loupe pour iOS, iPadOS et macOS, afin que les utilisateurs puissent interagir avec des contenus textuels dans le monde réel, tels que des livres ou des cartes de restaurant.
Le Lecteur Accessibilité est affiché sur deux iPhone 16.
Le Lecteur Accessibilité – un nouveau mode de lecture intégré à l’échelle du système et disponible sur iPhone, iPad, Mac et Apple Vision Pro – offre aux utilisateurs de nouvelles façons de personnaliser les textes et de se concentrer sur le contenu à lire.

Les Sous-titres en direct s’invitent sur Apple Watch

Pour les personnes sourdes ou malentendantes, les commandes d’Écoute en temps réel arrivent sur l’Apple Watch avec un nouvel ensemble de fonctionnalités, dont les Sous-titres en direct, générés en temps réel. Écoute en temps réel convertit l’iPhone en un micro à distance capable de diffuser du contenu directement vers des AirPods, des appareils auditifs Made for iPhone ou des écouteurs et casques Beats. Lorsque la fonctionnalité est activée sur l’iPhone, les utilisateurs peuvent visionner, sur une Apple Watch jumelée, les Sous-titres en direct de ce que leur iPhone entend tout en profitant de l’audio. L’Apple Watch sert de télécommande pour démarrer ou interrompre les sessions Écoute en temps réel, ou pour revenir en arrière au cours d’une session afin de permettre à la personne de revoir un élément qui lui aurait échappé. Grâce à l’Apple Watch, les sessions Écoute en temps réel peuvent être contrôlées depuis l’autre bout de la pièce, ce qui évite d’avoir à se lever en pleine réunion ou pendant les cours. Écoute en temps réel peut être utilisée avec les fonctionnalités de santé auditive disponibles sur les AirPods Pro 2, notamment avec la toute première fonctionnalité Appareil auditif de niveau médical.
La fonctionnalité Écoute en temps réel est affichée sur un iPhone 16 et une Apple Watch.
Les commandes d’Écoute en temps réel arrivent sur l’Apple Watch avec un nouvel ensemble de fonctionnalités, dont les Sous-titres en direct, générés en temps réel.

Une vue améliorée avec l’Apple Vision Pro

Pour les personnes aveugles ou malvoyantes, visionOS enrichit les fonctionnalités d’accessibilité dédiées à la vision en exploitant le système caméra avancé de l’Apple Vision Pro. De puissantes améliorations apportées à Zoom permettent aux utilisateurs d’agrandir tout ce qui se trouve dans leur champ de vision à l’aide de la caméra principale. Les personnes utilisant VoiceOver pourront profiter de la Reconnaissance en direct dans visionOS, qui s’appuie sur l’apprentissage automatique embarqué pour décrire les alentours, identifier des objets, lire des documents, et bien plus encore1. Pour les développeurs spécialisés dans l’accessibilité, une nouvelle API permettra aux apps approuvées d’accéder à la caméra principale afin de fournir une assistance en direct et individualisée en matière d’interprétation visuelle dans des apps comme Be My Eyes, offrant aux utilisateurs la possibilité d’appréhender leur environnement tout en gardant les mains libres.
Sur l’Apple Vision Pro, de puissantes améliorations apportées à Zoom permettent aux utilisateurs d’agrandir tout ce qui se trouve dans leur champ de vision à l’aide de la caméra principale. Ici, une personne utilisant un Apple Vision Pro dans sa cuisine effectue un zoom sur une fenêtre rectangulaire qui lui permet de voir de plus près son livre de cuisine et ses recettes, et coche les ingrédients de sa liste dans l’app Notes.

Autres nouveautés

  • Les Sons en arrière-plan deviennent plus simples à personnaliser grâce à de nouveaux réglages d’égalisation, la possibilité de stopper automatiquement la diffusion après un certain temps, et de nouvelles actions pour les automatisations dans Raccourcis. Les Sons en arrière-plan contribuent à limiter les sources de distraction afin d’améliorer la concentration et de favoriser la relaxation, ce qui, selon certaines personnes, pourrait aider à soulager les symptômes des acouphènes.
  • Pour les personnes susceptibles de perdre l’usage de la parole, Voix personnelle devient plus rapide, plus facile à manipuler et plus puissante que jamais, en s’appuyant sur les progrès réalisés dans le domaine de l’apprentissage automatique embarqué et de l’intelligence artificielle pour créer une voix plus fluide et plus naturelle en moins d’une minute, sur la base de 10 phrases enregistrées. La fonctionnalité Voix personnelle sera prochainement disponible en espagnol (Mexique)2.
  • La fonctionnalité Indicateurs de mouvement du véhicule, susceptible de contribuer à réduire le mal des transports lors de déplacements dans un véhicule en mouvement, débarque sur Mac, et de nouvelles options de personnalisation des points animés apparaissant à l’écran seront proposées sur iPhone, iPad et Mac.
La fonctionnalité Indicateurs de mouvement du véhicule, susceptible de contribuer à réduire le mal des transports lors de déplacements dans un véhicule en mouvement, débarque sur Mac.
  • Les personnes qui utilisent le Suivi du regard sur iPhone et iPad auront désormais la possibilité d’effectuer des sélections à l’aide d’un commutateur ou en opérant un temps d’attente. Sur l’iPhone, l’iPad et l’Apple Vision Pro, la saisie au clavier lors de l’utilisation du Suivi du regard ou du Contrôle de sélection est désormais facilitée grâce aux diverses améliorations apportées, notamment un nouveau délai de réponse du clavier, la réduction du nombre d’étapes lors de la saisie avec des commutateurs et la prise en charge du clavier QuickPath sur iPhone et Vision Pro.
  • Grâce au Suivi de la tête, les utilisateurs pourront contrôler plus facilement leur iPhone et iPad avec des mouvements de la tête, comme pour le Suivi du regard.
  • Pour les personnes présentant de lourds handicaps moteurs, iOS, iPadOS et visionOS prévoient l’ajout d’un nouveau protocole afin de prendre en charge le Contrôle de sélection pour les Interfaces cerveau-machine (ICM), une technologie émergente qui permet aux utilisateurs de contrôler leur appareil sans le moindre mouvement physique.
  • L’accès d’aide s’enrichit d’une nouvelle app Apple TV sur mesure dotée d’un lecteur multimédia simplifié. L’API Accès d’aide fournira également aux développeurs toute l’aide dont ils ont besoin pour créer des expériences adaptées aux personnes atteintes de déficiences intellectuelles et de troubles du développement.
  • Sur l’iPhone, Musique tactile offre une personnalisation accrue avec la possibilité de profiter des capacités haptiques pour tout un morceau ou uniquement pour les voix, ainsi que de régler l’intensité globale des tapotements, des textures et des vibrations.
  • La Reconnaissance des sons prend désormais en charge la Reconnaissance des noms, qui permet aux personnes sourdes ou malentendantes de savoir quand leur nom est prononcé.
  • La fonctionnalité Contrôle vocal introduit un nouveau mode de programmation dans Xcode pour les développeurs de logiciels à mobilité réduite. Contrôle vocal introduit également la synchronisation du vocabulaire entre les appareils et étend sa prise en charge aux langues suivantes : arabe (Arabie Saoudite), anglais (Singapour), chinois mandarin (Taïwan), coréen, espagnol (Amérique latine), italien, turc et russe.
  • Les Sous-titres en direct sont désormais disponibles dans les langues suivantes : allemand (Allemagne), anglais (Australie, Inde, Royaume-Uni, Singapour), cantonais (Chine continentale, Hong Kong), chinois mandarin (Chine continentale), coréen, espagnol (Amérique latine, Espagne), français (France, Canada) et japonais.
  • La nouvelle version de CarPlay prend notamment en charge la fonction Grande police. Grâce aux améliorations apportées à la Reconnaissance des sons dans CarPlay, les conducteurs ou les passagers sourds ou malentendants peuvent désormais être avertis des pleurs d’un nourrisson, en plus des bruits extérieurs tels que les klaxons et les sirènes.
  • La fonction Partager les réglages d’accessibilité permet aux utilisateurs de partager rapidement et temporairement leurs réglages d’accessibilité avec un autre iPhone ou iPad. Cette solution est idéale pour emprunter l’appareil d’un ami ou utiliser une borne publique dans un café par exemple.

Célébrez la Journée mondiale de sensibilisation à l’accessibilité avec Apple

Pendant le mois de mai, Apple Retail a mis en place des tables dédiées présentant les fonctionnalités d’accessibilité sur divers appareils dans une sélection de magasins. De plus, Apple propose tout au long de l’année des séances consacrées à l’accessibilité via Today at Apple au cours desquelles les participants approfondissent leurs connaissances, bénéficient de conseils et apprennent à personnaliser les fonctionnalités. Ces séances peuvent être programmées dans les Apple Store du monde entier depuis la page Réservation de groupe ou en se rendant directement en magasin.
Apple Music partage l’histoire de l’artiste Kiddo K et le pouvoir de la fonctionnalité Musique tactile pour les personnes sourdes ou malentendantes, dévoile les nouveautés de ses playlists tactiles, et inaugure une toute nouvelle playlist comprenant des interprétations en langue des signes de clips musicaux, ainsi que des playlists Saylists.
Apple Fitness+ accueille Chelsie Hill dans une séance de danse aux côtés du coach Fitness+ Ben Allen. Chelsie Hill est une danseuse professionnelle et la fondatrice de Rolettes, une troupe de danse en fauteuil roulant basée à Los Angeles qui milite en faveur de la représentation des personnes handicapées et de l’autonomisation des femmes. Cette séance est disponible dès maintenant dans l’app Fitness+.
Apple TV+ dévoile les coulisses de la réalisation du nouveau film Apple Original Deaf President Now!, qui sera disponible sur Apple TV+ le 16 mai. Ce documentaire raconte l’histoire du plus grand mouvement de défense des droits civiques inconnu du grand public, qui s’est déroulé sur huit jours tumultueux en 1988. Dans la seule université pour personnes sourdes au monde, quatre étudiants doivent trouver un moyen de diriger une foule en colère, et de changer le cours de l’histoire.
Apple Books, Apple Podcasts, Apple TV et Apple News mettront en lumière des témoignages de personnes en situation de handicap et d’individus qui s’efforcent de rendre le monde plus accessible à tous.
L’App Store propose une collection d’apps et de jeux conçus pour être accessibles à tous, et présente l’histoire de Klemens Strasser, un développeur guidé par la volonté de créer des apps et des jeux accessibles comme The Art of Fauna.
L’app Raccourcis ajoute la prise en charge de Hold That Thought, un raccourci qui invite les utilisateurs à consigner et à enregistrer certaines informations dans une note afin d’éviter que des interruptions ne viennent perturber leur travail. Le raccourci Assistant Accessibilité a été ajouté aux Raccourcis de l’Apple Vision Pro pour recommander des fonctionnalités d’accessibilité selon les préférences de l’utilisateur.
La playlist accessibilité de l’Assistance Apple présente de nouvelles vidéos portant sur des fonctionnalités telles que le Suivi du regard, les Raccourcis vocaux et les Indicateurs de mouvement du véhicule, ainsi qu’une collection de vidéos destinées à aider chaque personne à personnaliser son iPhone, iPad, Mac, Apple Watch et Apple Vision Pro à sa convenance.
Partager l’article

Media

  • Texte de cet article

  1. Ne vous reposez pas sur la fonctionnalité Reconnaissance en direct dans des situations d’urgence ou à haut risque, dans des circonstances pouvant entraîner des atteintes physiques ou des blessures, ou pour vous repérer dans l’espace.
  2. La fonctionnalité Voix personnelle ne peut être utilisée que pour créer une voix semblable à celle de l’utilisateur de l’appareil, à partir de sa propre voix, et ce, pour un usage personnel et non commercial.

Contacts presse

Ulrich Taller

[email protected]

+41 76 431 7538

Ligne infos presse Apple

[email protected]