Apple anticipó las nuevas funciones de accesibilidad que llegarán a finales de 2024 con sus nuevos sistemas operativos, que serán presentados en junio de 2024.
El principal y que más ha llamado la atención de los expertos tecnológicos es el seguimiento ocular. Con esta innovación, los usuarios con limitaciones físicas podrán controlar su iPad o el iPhone solo con la mirada.
Más noticias
Cómo funcionará el seguimiento ocular
El seguimiento ocular para controlar el iPhone y el iPad está basado en la la inteligencia artificial. La funciona se denomina Eye Tracking y ofrece una opción integrada para navegar por el iPad y el iPhone solo con sus ojos.
El Eye Tracking utilizará la cámara frontal para configurar y calibrar en segundos. Funcionará en las aplicaciones de iPadOS e iOS, y no requerirá hardware o accesorios adicionales.
Según un comunicado de Apple distribuido este miércoles 15 de mayo de 2024, los usuarios pueden navegar a través de los elementos de una aplicación y usar Dwell Control para activar cada elemento, accediendo a funciones adicionales como botones físicos, deslizamientos y otros gestos solo con sus ojos.
Ayuda para el déficit de audición
Music Haptics ofrecerá una nueva forma para que los usuarios que son sordos o con problemas de audición experimenten la música.
Ellos podrán usar el Taptic Engine en el iPhone. Los accesos directos vocales permitirán a los usuarios realizar tareas haciendo un sonido personalizado.
El Taptic Engine reproduce toques, texturas y vibraciones refinadas en el audio de la música. Music Haptics funciona a través de millones de canciones en el catálogo de Apple Music, y estará disponible como una API para que los desarrolladores hagan que la música sea más accesible en sus aplicaciones.
“Cada año, abrimos nuevos caminos cuando se trata de accesibilidad”, dijo Sarah Herrlinger, directora sénior de Política e Iniciativas de Accesibilidad Global de Apple.