Avant la WWDC du 9 juin, Apple a dévoilé plusieurs fonctions d’accessibilité prévues pour iOS 19 et l’ensemble de son écosystème.
La nouveauté la plus marquante est l’introduction du contrôle par la pensée, via le protocole BCI. Cette fonctionnalité, intégrée à Switch Control, permettra de naviguer sur un iPhone, iPad ou Apple Vision Pro sans aucun mouvement. De quoi ouvrir de nouvelles perspectives pour les personnes paralysées.

L’App Store affichera désormais des étiquettes « Accessibility Nutrition Labels ». Un tag qui informe sur les fonctions incluses (VoiceOver, contraste, sous-titres, etc.). Un ajout simple mais déterminant pour les utilisateurs aux besoins spécifiques.
Autre avancée : l’application Loupe, déjà connue sur iPhone, arrive sur macOS. Connectée à la caméra du Mac ou de l’iPhone, elle permet d’agrandir des documents ou objets avec précision. Elle est accompagnée du nouveau Accessibility Reader, qui reformate les textes pour une meilleure lisibilité.
Les sous-titres automatiques sont désormais disponibles en français, que ce soit pour les vidéos, les messages vocaux ou Live Listen, également accessible sur Apple Watch. La fonction Personal Voice évolue aussi, avec une synthèse vocale créée à partir de dix phrases seulement.

Enfin, une app dédiée nommée Braille Access permet la lecture et l’écriture braille sur tous les appareils Apple.
Toutes ces fonctionnalités seront disponibles d’ici la fin de l’année, avec la sortie d’iOS 19.