El sofisticado sistema de seguimiento de la cabeza como el que está integrado en el iPhone X puede haber sido diseñado para fines de seguridad y AR, pero también podría ser muy útil para personas con discapacidades. Una aplicación de prueba de pasantías de eBay muestra cómo alguien con muy poca función motora puede navegar por el sitio sin más movimientos que la cabeza.

Muratcan Çiçek es una de estas personas y confía en la tecnología de asistencia todos los días para leer, trabajar y moverse. Este año fue internado en eBay y decidió crear una herramienta que ayudaría a las personas con problemas motores como el suyo a hacer compras en línea. Resulta que hay muchas herramientas de uso general para la accesibilidad, como permitir que un usuario controle un cursor con los ojos o un joystick, pero no se hace nada para navegar en un sitio como eBay o Amazon.

Su creación, HeadGaze, se basa en la serie de sensores frontales del iPhone X (a través de ARKit) para rastrear los movimientos de la cabeza del usuario. Varios movimientos corresponden a diferentes acciones en una aplicación de demostración que muestra las ofertas diarias del minorista en línea: navegue entre categorías y productos inclinando la cabeza en todas las direcciones en varias direcciones, o inclinando hacia abajo parcialmente para comprar, guardar o compartir .

Puede verlo en acción en el siguiente video:

No es que esto sea una gran revolución en la interfaz: hay algunas aplicaciones y servicios que lo hacen esto, aunque quizás no de una manera tan directa y extensible como esta.

Pero es fácil subestimar la carga cognitiva creada cuando alguien tiene que navegar en una interfaz de usuario diseñada alrededor de los sentidos o extremidades que no tiene. Crear algo similar no es necesariamente simple, pero es útil y relativamente simple, y los beneficios para una persona como Çiçek son considerables.

Esta es probablemente la razón por la que creó el proyecto HeadGaze de código abierto: puede obtener todo el código y la documentación en GitHub; todo está en Swift y actualmente solo funciona en el iPhone X, pero es un comienzo.

Teniendo en cuenta que este era un proyecto de verano para pasantes, no hay excusa para compañías con miles de desarrolladores que no tienen algo similar disponible para sus aplicaciones o vitrinas. Y no es como si no pudieras pensar en otras formas de usarlo. Como Çiçek escribe:

HeadGaze te permite desplazarte e interactuar en tu teléfono con solo movimientos suaves de la cabeza. Piensa en todas las formas en que esto podría cobrar vida. ¿Cansado de intentar desplazar una receta en la pantalla del teléfono con dedos grasientos mientras cocinas? ¿Demasiado complicado seguir el manual de instrucciones de su teléfono mientras juguetea con el motor del automóvil debajo del capó? ¿Hace demasiado frío para quitarse los guantes para usar el teléfono?

Él y sus colegas también están observando el seguimiento real de la mirada para aumentar los movimientos de la cabeza, pero todavía está muy lejos. Quizás puedas ayudar.

A %d blogueros les gusta esto: