Cristina Rodríguez, una joven española doctora en Sistema Informáticos y Telemáticos por la Universidad Rey Juan Carlos (URJC), ha creado una aplicación para teléfonos móviles con la que personas con discapacidad auditiva son advertidos de cualquier peligro o situación de emergencia que pueda producirse, o los ayuda a llegar a sitios con más facilidad.
Rodríguez, de 30 años de edad, comenzó su trabajo en 2011 consciente de que a diario millones de personas con discapacidad se ven obligadas a enfrentarse a situaciones de vulnerabilidad y falta de autonomía. “Y no solo ellos -añade la joven- también a personas sin discapacidad asociada a los que se nos da mal orientarnos cuando llegamos por primera vez a un sitio”.
Su objetivo era ofrecer una herramienta de guiado sencilla, práctica y, sobre todo, “por y para todos”, que pudiera usarse desde el móvil y que terminara siendo adoptada “en los planes de las entidades públicas”.
Así nació el proyecto Ver con las manos, iniciado dentro del grupo de Tecnología Electrónica de la URJC, financiado por la Fundación Vodafone España y en cuyo desarrollo Rodríguez ha colaborado estrechamente con el Programa de Apoyo a Personas con Discapacidad y el Servicio de Prevención de Riesgos Laborales de la URJC.
La aplicación móvil Guide URJC –apta para plataformas iPhone, Andorid, Nokia y Blackberry– se gestiona desde el portal web GAT-A, también creado y patentado por Rodríguez y su equipo. Ahora mismo, cualquier usuario puede instalarse la aplicación para que le oriente por el interior y exterior de los edificios del campus, o ampliarla y personalizarla mediante el generador automático de contenidos y aplicaciones del portal.
Esta opción de personalización es, precisamente, una de sus características más innovadoras, ya que no requiere la intermediación de un informático para crear paquetes de rutas con puntos de interés a medida de cada usuario. Al contrario, se puede utilizar rellenando un sencillo formulario desde GAT-A, y además, señala Rodríguez, lo están diseñando de forma que sea accesible a personas ciegas y compatible con lectores de pantalla o interfaces usados por personas en silla de ruedas. “Cuando han incluido los puntos y textos asociados, el portal genera un código QR y un archivo comprimido que puede añadirse como complemento desde la aplicación”, explica Rodríguez.
“Se pueden incluir puntos de información y alertas referidas a pasos de peatones, comercios, señales de tráfico, forzar que pasen por determinado camino o evitar escaleras”, detalla la joven.
Hasta el momento, 52 personas han probado la aplicación en el despliegue piloto en el campus de la URJC, entre ellos usuarios con discapacidad visual, auditiva, motora, cognitiva y personas mayores, además de personas sin discapacidad. En este entorno la aplicación les permite acceder a información adaptada a sus necesidades independientemente de su perfil.
Por ejemplo, si un usuario sordo selecciona que quiere ir a la cafetería desde un punto, la aplicación le localiza y le ofrece un vídeo para indicarle en lengua de signos como llegar a ella. En caso de que el usuario sea una persona con discapacidad visual, las instrucciones se le ofrecen mediante audio y vibración; y de tratarse de una persona con problemas de movilidad o dificultades para manejar un dispositivo táctil con precisión, la interfaz cambia: la pantalla se divide en áreas grandes y se iluminan y vibran ciertas regiones para indicarle en tiempo real si está siguiendo la ruta adecuada.
Por otra parte, en exteriores, el móvil ayuda a localizar y guiar al usuario “gracias a diferentes métodos que mezclan la información del acelerómetro, la brújula, GPS, AGPS y último punto referenciado”. Gracias a ellos la aplicación es capaz de advertir al usuario de obstáculos o puntos de interés en su camino con una precisión de 3 a 5 metros.
Fuente: Reportaje original (completo) de Elena Zafra publicado en MIT Technology Review