13 mai 2025
COMMUNIQUÉ DE PRESSE
Apple dévoile de puissantes fonctionnalités d’accessibilité qui seront lancées au cours de l'année
Les nouvelles fonctionnalités comprennent les étiquettes d’accessibilité dans l’App Store, la Loupe pour Mac, l’accès au braille et le mode de lecture accessible, ainsi que des nouveautés pour l'écoute en temps réel, visionOS, Voix personnelle et plus encore.
CUPERTINO, CALIFORNIE Apple a annoncé aujourd’hui de nouvelles fonctionnalités d’accessibilité qui seront lancées au cours de l'année, dont les étiquettes d’accessibilité, qui fourniront des renseignements détaillés sur les apps et les jeux de l’App Store. Les personnes aveugles ou malvoyantes pourront explorer, apprendre et interagir au moyen de la nouvelle app Loupe pour Mac, prendre des notes et effectuer des calculs grâce à la nouvelle fonctionnalité d’accès au braille, et tirer parti du puissant système caméra d'Apple Vision Pro avec les nouveautés visionOS. Parmi les autres annonces, mentionnons le mode de lecture accessible (un nouveau mode de lecture à l'échelle du système conçu dans un souci d’accessibilité) ainsi que des nouveautés pour l’écoute en temps réel, les sons en arrière-plan, Voix personnelle, les signaux de mouvement de véhicule et plus encore. Grâce à la puissance des puces Apple et aux avancées en matière d'apprentissage automatique et d'intelligence artificielle intégrés aux appareils, un nouveau niveau d'accessibilité sera offert à l’échelle de l'écosystème Apple.
« Chez Apple, l'accessibilité fait partie intégrante de notre ADN », a déclaré Tim Cook, chef de la direction d'Apple. « Rendre la technologie accessible à tout le monde est une priorité pour nous, et les innovations que nous lançons cette année nous remplissent de fierté. Il s’agit entre autres d'outils qui aideront les gens à accéder à des renseignements essentiels, à explorer le monde qui les entoure et à faire ce qu'ils aiment. »
« Apple compte 40 ans d'innovation en matière d'accessibilité, et nous nous engageons à continuer de développer de nouvelles fonctionnalités d'accessibilité pour l’ensemble de nos produits », a déclaré Sarah Herrlinger, directrice principale, Global Accessibility Policy and Initiatives, Apple. « Appuyées par l'écosystème Apple, ces fonctionnalités s'unissent de manière harmonieuse pour offrir aux gens de nouvelles façons d'interagir avec ce qui leur tient le plus à cœur. »
Lancement des étiquettes d’accessibilité dans l’App Store
Les étiquettes d'accessibilité constituent, pour les pages de produit de l'App Store, une nouvelle section qui présentera les fonctionnalités d'accessibilité des apps et des jeux. Ces étiquettes permettent aux gens de déterminer si une application leur sera accessible avant de la télécharger, en plus d'offrir aux développeuses et développeurs l'occasion de mieux informer et sensibiliser les gens aux fonctionnalités prises en charge par les apps. Les fonctionnalités comprennent VoiceOver, Commande vocale, Police plus grande, Contraste suffisant, Réduire les animations, les sous-titres et plus encore. Les étiquettes d’accessibilité seront disponibles dans l'App Store à l’échelle mondiale, et les développeuses et développeurs pourront obtenir davantage de renseignements sur les critères que les apps doivent respecter en vue de l’affichage de renseignements sur l'accessibilité sur leurs pages de produit.
« Ces étiquettes constituent une avancée considérable en matière d’accessibilité », a déclaré Eric Bridges, président et chef de la direction de l'American Foundation for the Blind. « Les gens devraient être en mesure de déterminer dès le départ si un produit ou un service leur sera accessible, et Apple a depuis longtemps l’habitude de fournir des outils et des technologies qui permettent aux développeuses et développeurs de créer des expériences convenant à tout le monde. Ces étiquettes offriront aux personnes handicapées un nouveau moyen de prendre plus facilement des décisions éclairées et d'effectuer des achats avec une confiance accrue. »
Une toute nouvelle Loupe pour Mac
Depuis 2016, la Loupe pour iPhone et iPad offre aux personnes aveugles ou malvoyantes des outils pour faire des zooms avant, lire du texte et détecter les objets qui les entourent. Cette année, nous lancerons la Loupe sur Mac afin de rendre le monde physique plus accessible aux personnes malvoyantes. La Loupe pour Mac se connecte à la caméra afin de permettre de faire des zooms avant, par exemple sur un écran ou un tableau blanc. La Loupe fonctionne avec la caméra de continuité sur iPhone ainsi qu'avec les caméras USB connectées, et prend en charge la lecture de documents au moyen de Vue du bureau.
Grâce aux multiples fenêtres de session en direct, les gens peuvent effectuer plusieurs tâches simultanément, par exemple regarder une présentation au moyen d'une webcam tout en suivant dans un livre au moyen de Vue du bureau. Les affichages personnalisés permettent de régler la luminosité, le contraste, les filtres de couleur et même la perspective afin d’accroître la visibilité du texte et des images. De plus, il est possible de saisir, de regrouper et d’enregistrer les affichages. La Loupe pour Mac est intégrée à une autre nouvelle fonctionnalité d'accessibilité, le mode de lecture accessible, qui convertit le texte du monde physique en un format lisible personnalisé.
Nouvelle expérience de lecture du braille
L’accès au braille est une toute nouvelle expérience qui transforme iPhone, iPad, Mac et Apple Vision Pro en des outils complets de prise de notes en braille profondément intégrés à l'écosystème Apple. Grâce au lanceur d'app intégré, les gens peuvent facilement ouvrir n'importe quelle app au moyen de la saisie en braille à l'écran ou d'un appareil de saisie en braille connecté. Avec l’accès au braille, il est possible de rapidement prendre des notes en braille et d'effectuer des calculs au moyen du code Nemeth, un code braille souvent utilisé dans les salles de classe pour les mathématiques et les sciences. Les gens peuvent ouvrir des fichiers au format Braille Ready Format (BRF) directement depuis l’accès au braille, ce qui leur donne accès à une vaste gamme de livres et de fichiers précédemment créés au moyen d'un outil de prise de notes en braille. Une forme intégrée de Sous-titres en direct permet aux gens de transcrire les conversations en temps réel directement sur des afficheurs braille.
Lancement du mode de lecture accessible
Le mode de lecture accessible est un nouveau mode de lecture à l'échelle du système, conçu pour faciliter la lecture du texte pour les personnes souffrant de divers handicaps, comme la dyslexie ou une basse vision. Disponible sur iPhone, iPad, Mac et Apple Vision Pro, le mode de lecture accessible offre aux gens de nouvelles façons de personnaliser le texte et de se concentrer sur le contenu qu'ils souhaitent lire, avec de nombreuses options de police, de couleur et d'espacement, sans oublier la prise en charge de Contenu prononcé. Le mode de lecture accessible peut être lancé depuis n'importe quelle app et est intégré à l'app Loupe pour iOS, iPadOS et macOS, de façon à permettre aux gens d'interagir avec le texte tiré du monde réel, comme celui des livres et des menus de restaurant.
Lancement de Sous-titres en direct pour Apple Watch
Les personnes sourdes ou malentendantes seront heureuses d’apprendre que les commandes d'écoute en temps réel sont sur le point d’être lancées sur Apple Watch avec un nouvel ensemble de fonctionnalités, y compris Sous-titres en direct. L’écoute en temps réel transforme iPhone en microphone à distance permettant d’écouter du contenu diffusé en continu au moyen d'AirPods, d'appareils auditifs Made for iPhone et de casques d'écoute Beats. Lorsqu'une session est active sur iPhone, les gens peuvent afficher Sous-titres en direct en fonction de ce qu'iPhone entend sur une Apple Watch jumelée tout en écoutant le son. Apple Watch sert de télécommande permettant de démarrer et d'arrêter les sessions d’écoute en temps réel, ou encore de revenir en arrière dans une session pour réentendre quelque chose. Avec Apple Watch, les sessions d’écoute en temps réel peuvent être contrôlées depuis l'autre bout de la pièce; nul besoin de se lever au milieu d'une réunion ou d'un cours. L’écoute en temps réel peut être utilisée avec les fonctionnalités de santé auditive disponibles sur AirPods Pro 2, y compris la fonctionnalité Appareil auditif de qualité clinique, la première en son genre.
Visibilité améliorée avec Apple Vision Pro
Pour les personnes aveugles ou malvoyantes, visionOS étendra les fonctionnalités d'accessibilité visuelle au moyen du système caméra avancé d'Apple Vision Pro. Grâce aux puissantes nouveautés Zoom, les gens peuvent agrandir tout ce qui se trouve dans leur champ de vision, y compris leur environnement, au moyen de la caméra principale. Pour les personnes qui utilisent VoiceOver, la reconnaissance en direct dans visionOS utilise l'apprentissage automatique intégré à l'appareil pour décrire l'environnement, trouver des objets, lire des documents et plus encore.1 Pour les développeuses et développeurs qui se spécialisent dans l'accessibilité, une nouvelle API permettra aux apps approuvées d'accéder à la caméra principale afin de fournir une assistance en direct et en face à face en vue de l'interprétation visuelle dans des apps comme Be My Eyes, de façon à ce que les gens disposent de davantage de moyens de comprendre leur environnement sans avoir à utiliser leurs mains.
Autres nouveautés
- Les sons en arrière-plan seront plus faciles à personnaliser grâce aux nouveaux réglages d’égalisation, à l’option d’arrêt automatique après une période prédéterminée et aux nouvelles actions d’automatisation dans Raccourcis. Les sons en arrière-plan peuvent aider à réduire au minimum les distractions de façon à améliorer la concentration et la détente, ce qui, pour certaines personnes, peut soulager les symptômes des acouphènes.
- Pour les personnes qui risquent de perdre la capacité de parler, Voix personnelle est un outil plus rapide, plus convivial et plus puissant que jamais, tirant parti des avancées en matière d'apprentissage automatique et d'intelligence artificielle intégrés aux appareils pour créer une voix plus fluide et plus naturelle en moins d'une minute, au moyen de seulement 10 phrases enregistrées. En outre, Voix personnelle prendra en charge l'espagnol (Mexique).2
- Signaux de mouvement de véhicule, qui peut aider à réduire le mal des transports, sera lancé sur Mac avec de nouvelles façons de personnaliser les points animés à l'écran sur iPhone, iPad et Mac.
- Les personnes qui utilisent Suivi oculaire sur iPhone ou iPad auront désormais la possibilité d'utiliser le contrôle de sélection ou le contrôle d'attente pour effectuer leurs sélections. La saisie au clavier au moyen de Suivi oculaire ou du contrôle de sélection est désormais plus facile sur iPhone, iPad et Apple Vision Pro grâce à des améliorations, dont une nouvelle minuterie d’attente pour clavier, une réduction du nombre d'étapes pour la saisie au moyen de commutateurs, ainsi que QuickPath pour iPhone et Vision Pro.
- Grâce au suivi de la tête, il sera possible de contrôler plus facilement iPhone et iPad au moyen de mouvements de la tête, comme avec Suivi oculaire.
- Pour les personnes à mobilité réduite, iOS, iPadOS et visionOS ajouteront un nouveau protocole en vue de la prise en charge du contrôle de sélection pour les interfaces cerveau-machine, une technologie émergente permettant de contrôler l'appareil sans mouvement physique.
- Accès assisté bénéficiera désormais d’une nouvelle app Apple TV personnalisée dotée d’un lecteur multimédia simplifié. En outre, les développeuses et développeurs bénéficieront de soutien en vue de la création, pour les personnes souffrant d'un handicap intellectuel ou développemental, d'expériences personnalisées au moyen de l'API Accès assisté.
- La musique haptique pour iPhone est désormais plus personnalisable grâce à l’option permettant d’en profiter pour une chanson entière ou pour les voix seulement, ainsi qu’à l'option permettant d'ajuster l'intensité globale des touchers, des textures et des vibrations.
- La reconnaissance sonore offre désormais la reconnaissance des noms, une nouvelle façon pour les personnes sourdes ou malentendantes de déterminer quand leur nom est appelé.
- Commande vocale offre un nouveau mode de programmation dans Xcode pour les développeuses et développeurs de logiciels à mobilité réduite. Commande vocale offre en outre la synchronisation du vocabulaire entre les appareils, de même que la prise en charge du coréen, de l'arabe (Arabie saoudite), du turc, de l'italien, de l'espagnol (Amérique latine), du mandarin (Taïwan), de l'anglais (Singapour) et du russe.
- Sous-titres en direct prend désormais en charge l'anglais (Inde, Australie, Royaume-Uni, Singapour), le mandarin (Chine continentale), le cantonais (Chine continentale, Hong Kong), l'espagnol (Amérique latine, Espagne), le français (France, Canada), le japonais, l'allemand (Allemagne) et le coréen.
- Parmi les nouveautés CarPlay, mentionnons Police plus grande. Grâce aux nouveautés de CarPlay en matière de reconnaissance sonore, les personnes sourdes ou malentendantes peuvent désormais être averties des pleurs d'un bébé ainsi que des bruits extérieurs comme les klaxons et les sirènes.
- Share Accessibility Settings est une nouvelle fonctionnalité qui permet aux gens de partager rapidement et temporairement leurs réglages d'accessibilité avec un autre appareil iPhone ou iPad. Cette fonctionnalité est très pratique dans le cadre de l'emprunt d’un appareil ou de l’utilisation d'un kiosque public dans un environnement comme un café.
Célébrez la Journée mondiale de sensibilisation à l’accessibilité avec Apple
Apple mettra en place des tables dédiées présentant les fonctionnalités d'accessibilité de divers appareils dans certaines boutiques tout au long du mois de mai. En outre, Apple offre tout au long de l'année des séances Today at Apple sur l'accessibilité présentant des renseignements, des astuces et des méthodes de personnalisation des fonctionnalités. Toute personne souhaitant réserver sa place pour une séance peut le faire en utilisant l’option de réservation de groupe ou en se rendant en boutique.
Apple Music fait part de l'histoire de l’artiste Kiddo K et de la puissance de la musique haptique pour les personnes sourdes ou malentendantes, dévoile des nouveautés pour ses listes de lecture de musique haptique et lance une toute nouvelle liste de lecture proposant l'interprétation en langue des signes américaine (LSA) de clips musicaux, parallèlement aux listes de lecture Saylists.
Apple Fitness+ accueille Chelsie Hill en tant qu'invitée dans le cadre d'une séance de danse avec le coach Fitness+ Ben Allen. Mme Hill est danseuse professionnelle et fondatrice des Rolettes, une troupe de danse en fauteuil roulant de Los Angeles qui milite pour la représentation des personnes handicapées et l'autonomisation des femmes. La séance est désormais disponible dans l'app Fitness+.
Apple TV+ offre un aperçu des coulisses du tournage du film Apple Originals Deaf President Now!, qui sera diffusé en avant-première sur Apple TV+ le 16 mai. Ce documentaire raconte l'histoire du plus grand mouvement pour les droits civiques dont la plupart des gens n'ont jamais entendu parler, qui s'est déroulé pendant huit jours tumultueux en 1988. Au sein de la seule université pour personnes sourdes au monde, quatre élèves doivent trouver un moyen de diriger une foule en colère et de changer le cours de l'histoire.
Apple Books, Apple Podcasts, Apple TV et Apple News présenteront des témoignages de personnes handicapées ou s’efforçant de rendre le monde plus accessible.
L'App Store offre une collection d'apps et de jeux conçus pour être accessibles à tout le monde, en plus de présenter l'histoire de Klemens Strasser, un développeur guidé par une philosophie visant à rendre accessibles des apps et des jeux comme The Art of Fauna.
L'app Raccourcis offre désormais Hold That Thought, un raccourci qui invite les gens à saisir des renseignements dans une note afin que les interruptions ne perturbent pas leur flux de travail. Le raccourci Assistant d’accessibilité a été ajouté à Raccourcis dans Apple Vision Pro en vue de la recommandation de fonctionnalités d’accessibilité fondées sur les préférences des gens.
Les nouvelles vidéos dans la liste de lecture sur l’accessibilité Assistance Apple portent sur des fonctionnalités comme Suivi oculaire, Raccourcis vocaux et les signaux de mouvement de véhicule, et nous offrons en outre une bibliothèque de vidéos pour aider chaque personne à personnaliser ses appareils iPhone, iPad, Mac, Apple Watch et Apple Vision Pro en vue d’un fonctionnement optimal.
À propos d’Apple
Apple a transformé les technologies personnelles en lançant le Macintosh, en 1984. Aujourd’hui, elle est à l’avant-garde de l’innovation avec des produits comme iPhone, iPad, Mac, AirPods, Apple Watch et Apple Vision Pro. Ses six plateformes logicielles – iOS, iPadOS, macOS, watchOS, visionOS et tvOS – assurent une expérience fluide sur tous les appareils Apple et offrent aux gens des services révolutionnaires comme l’App Store, Apple Music, Apple Pay, iCloud et Apple TV+. Chez Apple, plus de 150 000 personnes travaillent à créer les meilleurs produits qui soient et ont à cœur de contribuer à un monde meilleur.
- La reconnaissance en direct ne doit pas être utilisée dans des situations qui pourraient entraîner des blessures, dans les situations d’urgence ou à haut risque, ou pour la navigation.
- La fonctionnalité Voix personnelle est uniquement conçue pour générer, sur un appareil particulier et à partir de la voix de la personne utilisant l'appareil, une voix qui ressemble à celle de la personne utilisant l'appareil, en vue d’un usage personnel et non commercial.
Personnes-ressources
Josh Zeliger
Apple
[email protected]
647 537-7244
Cortney Hughes
Apple
[email protected]
647 943-4562