Publié le: 19/05/2023 @ 16:17:47: Par Nic007 Dans "Apple"
AppleAu cours de la dernière année, les fabricants de systèmes d'exploitation ont fait un net saut de qualité dans le domaine de l'accessibilité , pour permettre non seulement l'utilisation d' appareils mais pour faciliter la vie des utilisateurs. Microsoft, avec Windows 11 , a publié une série d'innovations dans ce sens, et l'autre jour Apple a présenté un ensemble de fonctionnalités, basées sur les dernières innovations matérielles et d'apprentissage automatique, pour l'accessibilité ou la mobilité visuelle, auditive, cognitive. Parmi ceux-ci, un se démarque pour ceux qui pourraient perdre la capacité de parler (comme ceux qui ont récemment reçu un diagnostic de SLA), ce qui vous permet de recréer votre voix synthétisée en quelques minutes. La fonctionnalité, appelée Personal Voice , est intégrée à Live Speech , qui vous permet de taper ce que vous voulez dire et de le faire dire à voix haute pendant les appels téléphoniques et FaceTime, ainsi que les conversations en personne. Mais Personal Voice est encore plus étonnant, car en lisant à voix haute une série de SMS d'un total de seulement 15 minutes sur l'iPhone ou l'iPad, il vous permettra de communiquer exactement avec votre propre voix . Apple affirme que la fonctionnalité utilise l'apprentissage automatique sur l'appareil sans envoyer de données à ses propres serveurs, de sorte que les informations des utilisateurs restent privées et sécurisées.

Mais ce n'est pas la seule nouveauté. Pour les personnes souffrant de troubles cognitifs, Apple a également annoncé Assistive Access, un ensemble d'applications composé de versions simplifiées de ses applications principales qui « allègent la charge cognitive ». Celles-ci incluent une version combinée de Phone et FaceTime, ainsi que des versions modifiées des applications Messages, Appareil photo, Photos et Musique qui comportent des boutons à contraste élevé, de grandes étiquettes de texte et des outils d'accessibilité supplémentaires. Autre nouveauté pour l' application Lens, qui recevra un nouveau mode de détection pour aider les utilisateurs aveugles ou malvoyants à interagir avec des objets physiques avec de nombreuses étiquettes de texte. Par exemple, Apple indique qu'un utilisateur peut pointer l'appareil photo de son appareil vers une étiquette, telle qu'un clavier à micro-ondes, que l'iPhone ou l'iPad lira ensuite à haute voix lorsque l'utilisateur déplacera son doigt vers chaque numéro ou paramètre de l'appareil.

Mais même le Mac n'est pas exclu de cette vague de nouveautés, et recevra la possibilité d'associer des appareils auditifs Made for iPhone, ainsi qu'un moyen plus simple d'ajuster la taille du texte dans Finder, Messages, Mail, Calendrier et Notes. Les utilisateurs pourront également mettre en pause les GIF dans Safari et Messages, personnaliser la vitesse à laquelle Siri parle et utiliser le contrôle vocal pour les suggestions sonores lors de l'édition de texte . Tout cela s'appuie sur les fonctionnalités d'accessibilité existantes d'Apple pour Mac et iPhone, qui incluent le sous-titrage en direct, un lecteur d'écran VoiceOver, la détection de porte, etc. Apple dit que les fonctionnalités arriveront "plus tard cette année", ce qui suggère qu'elles pourraient faire partie d'iOS 17 et de macOS 14.
Poster un commentaire
Vous ne pouvez plus poster de commentaire sur cette actualité car elle a été clôturée. Voulez-vous continuer cette discussion sur le forum?

Informaticien.be - © 2002-2024 AkretioSPRL  - Generated via Kelare
The Akretio Network: Akretio - Freedelity - KelCommerce - Votre publicité sur informaticien.be ?