El B105 participa en el Reto ONCE de Teleco Emprende

Este pasado miércoles tuvo lugar el concurso Reto ONCE de Teleco Emprende. Desde el B105 presentamos una propuesta en el ámbito de la realidad aumentada, vía tecnología SLAM (Simultaneous Localization and Mapping).

La propuesta es una aplicación móvil orientada a usuarios que aún mantienen un cierto grado de visión, p.e. en casos de miopía magna, pérdida de la visión periférica, etc. Esta aplicación ofrecería :

  • Mejora de la visión residual, adaptando la imagen del escenario a un formato más fácilmente perceptible, y filtrando cualquier elemento no deseado.
  • Guía a un punto destino en escenarios previamente modelados en 3D, sin necesidad de instalación previa.
  • Información de puntos de interés, ofreciendo una interfaz intuitiva y accesible a bases de datos de terceros (p.e. Google Places).

A continuación os mostramos un vídeo de ejemplo de la primera funcionalidad. En este caso mostramos únicamente los elementos marcados por el usuario y con un ángulo de visión más amplio:

Desde el B105 queremos agradecer al equipo gestor de este evento, y a la ONCE por su confianza en el potencial de los alumnos de la ETSIT. ¡Esperamos que vuelvan pronto!

Visita del CIDAT

Como podrán apreciar los lectores frecuentes de nuestro blog, las lineas de investigación de nuestro grupo abordan temáticas muy diversas. La que trataremos en este artículo está orientada mejorar la percepción espacial por medios no visuales. Para ello, utilizamos una red de dispositivos “wearables” que generan estímulos hápticos y acústicos de acuerdo a teorías recientes en materia de sustitución sensorial.

El objetivo principal es que una persona con discapacidad visual grave o ceguera tenga menos dificultades a la hora de desplazarse por la ciudad, en interiores, etc. Nuestro primer prototipo, Virtually Enhanced Senses (VES), virtualiza las características más importantes de un escenario real desde una perspectiva de orientación y movilidad, y proporciona la información al usuario de forma intuitiva.

Recientemente hemos tenido la suerte de contar con personal del CIDAT para la evaluación y posterior perfeccionamiento del prototipo. Durante las reuniones y demostraciones de la tecnología, los usuarios finales pudieron experimentar de primera mano el sistema tanto en escenarios virtuales como reales.

Desde aquí queríamos agradecer a nuestros invitados por su tiempo, esfuerzo e ilusión, esperando vernos de nuevo en un futuro próximo.

Certificación del proyecto Lázaro ante el CDTI

Hoy hemos recibido la visita del CDTI (Centro para el Desarrollo Tecnológico e Industrial) para certificar nuestro proyecto Lázaro. Este proyecto se ha realizado junto a Valoriza Servicios a la Dependencia y ha constado de dos partes muy diferenciadas. Por un lado debía desarrollarse un sistema de monitorización para residencias, en el que fuera posible medir parámetros biométricos de los residentes así como controlar forma domótica las estancias a través de una red de sensores. La segunda parte del proyecto tenía como objetivo desarrollar un sistema automático de detección y caracterización de barreras arquitectónicas. La certificación ha sido exitosa ya que se han cumplido los objetivos marcados de manera satisfactoria y se ha determinado la usabilidad del sistema en entornos reales.

IMG_1168

Dentro del primer subobjetivo, realizado por davidtrc, se ha diseñado y fabricado una pulsera wearable capaz de medir temperatura, ritmo cardiaco y saturación de oxígeno. Además se ha desarrollado una aplicación Android, que recoge y muestra los datos obtenidos por la pulsera y es capaz de gestionar múltiples pacientes y usuarios.

En el contexto del segundo subobjetivo, llevado a cabo por albarc, se ha desarrollado una aplicación Android basada en la plataforma Google Tango de visión artificial y realidad aumentada. Mediante esta aplicación, los inspectores de residencias pueden automatizar la labor de medir y caracterizar los edificios en lo que respecta a su accesibilidad. Particularmente la aplicación es capaz de medir la inclinación de rampas de acceso y la anchura de puertas, ascensores y entradas.

IMG_1159

Desarrollando con Google Tango

Tango es una plataforma de visión artificial y realidad aumentada desarrollada por Google. Gracias a ella, dispositivos como smartphones y tablets pueden conocer y entender su posición en el mundo que les rodea sin necesidad de GPS u otras señales externas. Esto tiene múltiples aplicaciones como la navegación en interiores, el mapeo 3D, la medición de espacios físicos, el reconocimiento de objetos, etc.

El funcionamiento de la plataforma se basa en tres tecnologías principales: el seguimiento del movimiento (Motion Tracking) utilizando las medidas de acelerómetros y giróscopos en conjunto con las características visuales; el aprendizaje de área (Area Learning) que consiste en el almacenamiento de datos del entorno como espacios, paredes, puertas, etc; y la percepción de profundidad (Depth Perception) que permite entender las formas del entorno.

Para realizar todas estas acciones, Tango se basa principalmente en la información visual proporcionada por la cámara del dispositivo. Sin embargo, dado que los datos de profundidad y distancia a los objetos son clave, la plataforma no puede funcionar en teléfonos típicos con una sola cámara. De hecho, los dispositivos habilitados para ejecutar Tango cuentan además de con la cámara convencional, con un objetivo fish-eye para el seguimiento de movimiento y con un emisor-detector de infrarrojos para medir la profundidad. En la actualidad solo existe en el mercado uno de estos dispositivos, la phablet Lenovo Phab 2 Pro.

tango-phab-2-pro

En el laboratorio B105 hemos adquirido uno de estos dispositivos ya que vamos a utilizar Google Tango en uno de nuestros proyectos de investigación. En las siguientes imágenes se pueden ver algunas de las cosas que pueden hacerse con la plataforma y sus aplicaciones.

Fin de PFC: Estudio de posibles diseños de sistemas de navegación para casos de ceguera o deficiencia visual grave

 

Tras una tediosa etapa de recopilación y organización de información, se pone fin a este proyecto fin de carrera. Su objetivo, continuando en la linea del pasado artículo, consiste en estudiar si los últimos avances tecnológicos permitirían que todo aquel que sufre de poca o ninguna visión pueda disfrutar de una mayor autonomía al desplazarse por la ciudad o en interiores.

El documento impreso incluye en primer lugar un estudio del perfil de usuario, tratando cuestiones como cuál es el número de usuarios potenciales, qué necesitan, cuáles son sus circunstancias (empleo, educación, nivel de ingresos, etc.) o cómo se manejan con las nuevas tecnologías. En dicho estudio y a lo largo del documento se recomienda aprovechar la creciente tendencia a utilizar teléfonos inteligentes en el diseño de futuros dispositivos; proyectos clásicos como The vOICe cuentan con su propia aplicación móvil gratuita.

En segundo lugar, se ahonda en la trayectoria I+D+i de los sistemas de navegación para personas con discapacidad visual. No han sido pocas las soluciones propuestas hasta la fecha, empezando por los trabajos de Paul Bach-y-Rita, C. C. Collins et alii en el ámbito de la sustitución sensorial; las propuestas simultáneas de Collins y Jack M. Loomis acerca de recurrir al GPS para guiar a invidentes; incluso la progresiva introducción de elementos propios de la realidad aumentada, hasta sistemas más recientes que trabajan con visión artificial (Seeing AI), redes de balizas BLE (Bluetooth Low Energy, ver WayFindr), etc.

Una vez alcanzado el punto de desarrollo actual, se evalúan una lista de campos tecnológicos con amplia financiación como posibles elementos críticos en el desarrollo de futuros sistemas; a saber: realidad virtual y aumentada, wearables, conducción autónoma, drones, y otros tantos relacionados con el nuevo paradigma de las telecomunicaciones (5G, IoT, WSN, … ).

Pasados estos puntos, se propone una nueva arquitectura de sistema fundamentada en la visión artificial y las nuevas infraestructuras de telecomunicaciones, guiados por los proyectos previos, aceptación de los dispositivos desarrollados, y las necesidades y características de los futuros usuarios.

Uno de los elementos clave en dicha arquitectura consiste en la interfaz de usuario, ya que aun disponiendo de toda la información útil sobre el entorno, discernir qué necesita conocer el usuario y cómo comunicárselo de forma óptima constituye uno de los principales problemas de este tipo de sistemas.

Realidad aumentada - sonido 5

La solución propuesta es vieja, pero en un nuevo contexto técnico: la realidad aumentada. A día de hoy se podrían aprovechar tecnologías de este campo, con Tango (Google) o Microsoft Hololens como ejemplos característicos, para introducir en el entorno elementos virtuales perceptibles por el oído (imagen arriba) o por el tacto que describan el entorno al usuario de forma intuitiva.

Sin embargo, las interfaces hápticas (tacto) actuales son muy pobres como para implementar soluciones de este tipo. Es por ello que se ha diseñado una plataforma de pruebas para la estimulación nerviosa transcutánea sobre la placa de desarrollo F28377S Launchpad de Texas Instrument (imagen abajo), y una interfaz con la plataforma Matlab, de cara a continuar en otra de las viejas soluciones: la interfaz electrotáctil.

Un ejemplo de dispositivo comercial que emplea esta tecnología es el BrainPort v100, fruto (en parte) de los trabajos de Paul Bach-y-Rita et alii; pero extender el campo de acción de la interfaz electrotáctil a zonas del cuerpo más allá de la lengua conlleva complicaciones aún sin resolver.

El objetivo del dispositivo desarrollado es, por tanto, trabajar con técnicas recientes orientadas a resolver este problema, y estudiar si es posible implementar una interfaz electrotáctil que “envuelva” al usuario. Se prevé que este tipo de interfaz permitiría simular percepciones útiles para guiar al usuario de forma eficiente, tales como el contacto con objetos virtuales (ejemplo en la figura de abajo, derecha).