GLIDE, un deslizador Robótico que irrumpe en escena y aspira a ser un auxiliar de movilidad más

La imagen muestra a amos-miller-y stevie-wonder interactuando en el entorno de la conferencia tecnológica CES 2024. Amos, que es el hombre que está a la izquierda lleva una etiqueta de identificación que indica que está relacionado con la empresa Glidance y porta una camiseta de color claro con la frase "Glide into independence". El hombre de la derecha, que lleva gafas de sol oscuras y una boina de cuero, es Stevie Wonder. Ambos están estrechándose las manos en un gesto amistoso, posiblemente en el contexto de una demostración o discusión sobre el producto o tecnología mencionada anteriormente. La interacción entre ellos parece amena y cordial, con Stevie Wonder sonriendo ligeramente hacia el hombre de la izquierda, indicando una conversación positiva o un encuentro agradable.

Cuando escuchamos en el vídeo promocional de este dispositivo a su CEO, Amos Miller, manifestar que cree que Glide, por primera vez, va a ser una alternativa entre los auxiliares de movilidad para las personas ciegas, igual que lo son el bastón blanco o el perro guía, no podemos más que dar un respingo y poner la máxima atención para escuchar qué es lo que nos tiene que contar. Si no conociéramos la interesante trayectoria de este ingeniero informático ciego que dirigió durante 16 años distintos equipos en Microsoft, pensaríamos que es un vendedor de humo más, pero hasta ahora todo lo que ha hecho en el terreno tecnológico de asistencia es muy coherente y alguno de sus desarrollos últimos así lo avalan. Desde Infotecnovisión hemos recopilado toda la información sobre este dispositivo a la que tenemos acceso, y en este artículo os lo contamos.
Continuar leyendo “GLIDE, un deslizador Robótico que irrumpe en escena y aspira a ser un auxiliar de movilidad más”

Análisis de las gafas NIIRA, innovador sistema de reconocimiento espacial en tiempo real para personas ciegas y con baja visión

En la imagen se muestra el sistema NIIRA encima de su caja. Se observa las gafas, similares a unas gafas de sol deportivas de color negro, con cristales oscuros curvados que recubren prácticamente por completo el lateral de los ojos. En la parte superior del frontal de la montura hay un añadido de unos 2 cm de alto por 2 de profundo y unos 10 cm de ancho, donde se encuentran las cámaras/sensores del sistema. Este añadido sobresale 1,5 cm por delante de la montura, pero se encuentra bastante bien integrado y también es de color negro. El frontal de esta zona de las cámaras es totalmente liso e igualmente de color negro. En la parte media de ambas patillas, hay sendos transductores de conducción ósea para transmitir el sonido al usuario. Las gafas van unidas a una petaca por medio de un cable. Ésta tiene forma rectangular y en ella se encuentran el procesador del sistema y los botones que permiten gestionar su uso. Todos ellos etiquetados en Braille o con símbolos en relieve. El color de la petaca es negro y los botones tienen detalles en amarillo para mejorar el contraste visual. Toda su superficie son planas a excepción de la parte posterior, la cual tiene una parte central más prominente. Las medidas aproximadas son 7,5 cm de ancho, por 16 cm de largo, por 2 de grosor en los laterales más finos y 4 cm de grosor en la parte más gruesa de la parte trasera.

 

Entrada actualizada incorporando en los complementos para NIIRA una bandolera para mujer que permite llevar en su interior la petaca y las gafas. También se han incorporado al mencionado apartado un par de auriculares Bluetooth abiertos compatibles que se pueden llevar simultáneamente con las NIIRA. Además, se ha incorporado un índice para poder navegar con más facilidad por el artículo.

 

La empresa española de Castellón Eyesynth ya tiene en el mercado sus gafas inteligentes NIIRA, un sistema ideado para personas ciegas y con baja visión que nos permite reconocer y explorar formas, espacios y detectar obstáculos en tiempo real por medio de unos sonidos abstractos que inicialmente parecen incomprensibles, pero que obedecen a una lógica fácil de entender y asimilar, aunque eso sí, requiriendo por nuestra parte un aprendizaje y cierto grado de paciencia y perseverancia. Es decir, que no es un dispositivo que se usa de forma inmediata al 100%. Algo que en Eyesynth saben sobradamente y por ello nos facilitan todo un mes de prueba para ver si nos adaptamos a ellas y decidimos quedárnoslas o no. Aunque bueno, ya os adelanto que si seguimos un plan de entrenamiento adecuado, respetando algunos tiempos con sus respectivas configuraciones del sistema, ese mes de prueba es más que suficiente para hacerse fácilmente con ellas.

Para nosotros, las personas ciegas y con baja visión, que somos un claro ejemplo de la neuroplasticidad del cerebro y de cómo suplir un sentido con otros, NIIRA es una excelente herramienta para ir más allá. Es más, somos las personas ideales para salir airosos ante un reto como el que plantea la asimilación de este sistema. No es otra cosa que un escalón más en la evolución sensorial que ya llevamos adquirida. A mí, personalmente me han sorprendido muy gratamente. Tienen mucho potencial y pueden llegar a sernos realmente útiles, por lo que no he dudado en adquirirlas e integrarlas con buenos resultados a mis técnicas de orientación y movilidad con el bastón. Así que sin más dilación, veamos cómo son, cómo funcionan, si valen la pena y sobre todo, en el caso de que nos animemos a probarlas, cómo podemos salir airosos en esa fase de adaptación inicial.

Continuar leyendo “Análisis de las gafas NIIRA, innovador sistema de reconocimiento espacial en tiempo real para personas ciegas y con baja visión”

Chieko Asakawa, la historia de una pionera: De los sistemas digitales de edición y distribución braille a la maleta robótica para guiar a personas con discapacidad visual

 

La imagen muestra a la Doctora Asakawa sentada en un escenario dando una charla TED. Está usando un micrófono de diadema. Lleva una chaqueta gris sobre una blusa de color claro, y pantalones oscuros. Su cabello es oscuro y llega hasta un poco más abajo de los hombros. La mujer parece estar sonriendo o hablando con expresión animada. El fondo es oscuro, probablemente para no distraer la atención del público y concentrarla en la oradora.

Muchas veces las cosas ocurren, avanzan y evolucionan y no nos preguntamos qué factores son los que las han impulsado. En materia de acceso a la información, de accesibilidad web de los usuarios de lectores de pantalla y de asistencia a la movilidad de personas con discapacidad visual, una de las personas determinantes desde los inicios, que con su empuje y fuerza ha resultado indispensable, ha sido la doctora en computación Chieko Asakawa; de su trayectoria y de su último desarrollo trata este artículo: sirva este como reconocimiento y homenaje a esta investigadora tan sobresaliente que aún sigue activa, y aportando soluciones.
Continuar leyendo “Chieko Asakawa, la historia de una pionera: De los sistemas digitales de edición y distribución braille a la maleta robótica para guiar a personas con discapacidad visual”

Un equipo de NUS computing presenta AiSee, unos auriculares con cámara que asisten en el reconocimiento de objetos a personas con discapacidad visual

La imagen muestra una mesa blanca sobre la cual se encuentra un dispositivo portátil AiSee, similar a unos auriculares de diadema trasera o gafas sin lentes, con
detalles en negro y un logotipo que dice "NUS". Está integrado por dos auriculares y otro componente similar, todos montados sobre piezas de color metálico.
Además, se observan cuatro cajas con diseños y colores variados en el fondo, indicando productos sanitarios, posiblemente médicos, alimenticios y otro
indeterminado debido al desenfoque. Un libro o caja con una portada que muestra un paisaje también es visible. La iluminación es interior y brillante,
y la profundidad de campo es limitada, enfocando principalmente en el dispositivo portátil y desenfocando el fondo.

Unos nuevos auriculares desarrollados por un equipo de investigadores de la Universidad Nacional de Singapur (NUS), han sido creados para asistir en el reconocimiento visual de objetos a las personas ciegas, a fin de que obtengan mayor autonomía en las actividades de su vida diaria. El propósito de sus desarrolladores es que su precio no exceda de 500 dólares.
Continuar leyendo “Un equipo de NUS computing presenta AiSee, unos auriculares con cámara que asisten en el reconocimiento de objetos a personas con discapacidad visual”

Charla práctica acerca de las gafas NIIRA, innovador sistema de reconocimiento espacial en tiempo real para personas ciegas y con baja visión

En la imagen se muestra el sistema NIIRA encima de su caja. Se observa las gafas, similares a unas gafas de sol deportivas de color negro, con cristales oscuros curvados que recubren prácticamente por completo el lateral de los ojos. En la parte superior del frontal de la montura hay un añadido de unos 2 cm de alto por 2 de profundo y unos 10 cm de ancho, donde se encuentran las cámaras/sensores del sistema. Este añadido sobresale 1,5 cm por delante de la montura, pero se encuentra bastante bien integrado y también es de color negro. El frontal de esta zona de las cámaras es totalmente liso e igualmente de color negro. En la parte media de ambas patillas, hay sendos transductores de conducción ósea para transmitir el sonido al usuario. Las gafas van unidas a una petaca por medio de un cable. Ésta tiene forma rectangular y en ella se encuentran el procesador del sistema y los botones que permiten gestionar su uso. Todos ellos etiquetados en Braille o con símbolos en relieve. El color de la petaca es negro y los botones tienen detalles en amarillo para mejorar el contraste visual. Toda su superficie son planas a excepción de la parte posterior, la cual tiene una parte central más prominente. Las medidas aproximadas son 7,5 cm de ancho, por 16 cm de largo, por 2 de grosor en los laterales más finos y 4 cm de grosor en la parte más gruesa de la parte trasera.

 

La empresa española castellonense Eyesynth ya tiene en el mercado sus gafas inteligentes NIIRA, un sistema ideado para personas ciegas y con baja visión que permite explorar y reconocer formas y espacios en tiempo real por medio de UN PECULIAR LENGUAJE DE sonidos ABSTRACTOS. Pues bien, en SucDePoma han tenido una interesante charla respecto a este dispositivo. En ella han participado Sara Martínez, Domingo Bonet, Josep Jesa y Jaime Franco. Todos ellos usuarios de NIIRA. Los dos primeros muy avanzados, mientras que los OTROS dos acaban de concluir su PRIMER mes de prueba y aprendizaje iniciales. Los cuatro hablan largo y tendido sobre estas gafas en una charla informativa y amena, pero con un gran componente de carácter práctico, ya que comentan sus experiencias, recomendaciones y peripecias con este sistema de Eyesynth.

 

Escuchar la charla desde la web de SucDePoma

 

GUIDi, el innovador cinturón “inteligente” de asistencia a la movilidad de personas ciegas: Premio “Innovation Awards” CES 2024

La imagen muestra a un hombre de pie, de perfil, centrado en su torso. Solo se ve desde los hombros hasta la parte superior de los muslos, por lo que la cabeza y las piernas no son visibles. El hombre lleva una camiseta de manga corta de color verde claro con una textura que sugiere un material suave y cómodo. En su muñeca izquierda, parece llevar un reloj o pulsera. La característica más destacada es un cinturón blanco que el hombre lleva alrededor de su cintura. El cinturón tiene un dispositivo electrónico rectangular en el centro. Este dispositivo tiene una superficie negra brillante, posiblemente una pantalla o interfaz, y está enmarcado en blanco para que coincida con el cinturón. La construcción del cinturón parece robusta y ajustable, con una hebilla que se asemeja a las que se encuentran en los cinturones de equipaje o deportivos. El fondo de la imagen es neutro y gris, poniendo el enfoque en el hombre y el cinturón.

GUIDi® smartbelt, ganador del premio “Innovation Awards” en accesibilidad y envejecimiento en CES 2024, es un cinturón inteligente que, según sus creadores, pretende revolucionar la movilidad de las personas con discapacidad visual. Combina tecnología MEMS (luego explicamos lo que es) e Inteligencia artificial avanzada para una navegación háptica y por voz, ofreciendo una experiencia de navegación fluida y autónoma en cualquier entorno. ¿Será esto así? abran una bolsa de palomitas, acomódense y veamos que es lo que nos ofrecen.
Continuar leyendo “GUIDi, el innovador cinturón “inteligente” de asistencia a la movilidad de personas ciegas: Premio “Innovation Awards” CES 2024″

CES 2024: Lumen, Lighthouse, EyeCane y Esight Go, nuevos dispositivos electrónicos de asistencia visual

La imagen muestra el logotipo de CES® en colores brillantes, con las letras C, E y S en azul, verde y amarillo respectivamente, superpuestas y en ángulos diferentes. El logotipo está en primer plano y detrás se ve una vista panorámica de una ciudad al atardecer, con edificios iluminados y un cielo que cambia de azul a tonos de rosa y morado. A la izquierda, hay una fuente con chorros de agua iluminados. La escena sugiere que la ciudad podría ser Las Vegas.

El CES 2024 celebrado en Las Vegas, vuelve a ser una vez más un evento clave en tecnología y electrónica de consumo, presentando lo último en IA, VR/AR, redes 5G y tecnología sostenible. Centrándonos en las innovaciones en dispositivos portátiles y tecnologías de asistencia que pudieran ser útiles principalmente a las personas con discapacidad visual, en este artículo conoceremos más aspectos y funcionalidades del visor frontal Lumen, de las gafas Lighthouse, de las gafas EyeCane y Esight Go,que aunque aún no se comercializan (ni sabemos sus precios), lo harán en este año según han anunciado sus creadores.

Continuar leyendo “CES 2024: Lumen, Lighthouse, EyeCane y Esight Go, nuevos dispositivos electrónicos de asistencia visual”

Blind Explorer, app de guiado sensorial que emplea sonidos 3D y navegación por satélite

Imagen del logotipo de Blind Explorer, compuesto por la representación gráfica de una brújula y las palabras “Blind Explorer”. La brújula, ubicada en el lateral izquierdo del logotipo, está representada por una esfera de color verde en cuyo centro hay un punto amarillo del cual surgen dos flechas en direcciones opuestas, una amarilla y la otra gris. Las palabras están en el lateral derecho, distribuidas en dos líneas, y son de color verde.

 

Aplicación disponible para iOS y Android, pero la entrada está elaborada con la versión para iOS.

 

Entrada actualizada a la versión 1.5.17, la cual ha sufrido un remodelado importante en el interfaz e incorpora algunas novedades como el poder compartir nuestras rutas grabadas con otros usuarios y la posibilidad de seleccionar varios tipos de navegación adaptados al entorno y la precisión GPS, incluido uno urbano.

 

Las aplicaciones que emplean la localización por satélite se han llegado a convertir en una inestimable ayuda para nuestro colectivo de personas ciegas y con baja visión. Google Maps y Apple Maps, son quizás las más conocidas, pero también las hay que han sido diseñadas específicamente para nosotros, como por ejemplo Lazarillo App o BlindSquare. Pues bien, a este segundo grupo de aplicaciones pertenece la protagonista de este artículo, una útil e interesante app gratuita de guiado sensorial que utiliza sonidos 3D y navegación satelital para guiarnos por entornos abiertos, haciéndolo de forma muy distinta de las apps tradicionales de GPS, ya que nos permite grabar nuestras rutas en forma de “tracks” para posteriormente ser guiados a lo largo de esos recorridos.

Continuar leyendo “Blind Explorer, app de guiado sensorial que emplea sonidos 3D y navegación por satélite”

Clew, revolucionaria app para el trazado de rutas y guiado en interiores que emplea la Realidad Aumentada

Imagen del logotipo de la aplicación Clew, consistente en la representación gráfica de la típica flecha que marca el destino de una ruta en las aplicaciones de navegación por satélite. Dentro de ésta se ha añadido un ovillo de lana del cual surge un hilo que va hacia la parte inferior del logo, marcando un hipotético camino a seguir. El fondo del logotipo es de color verde y tanto la flecha como el ovillo son blancos.

 

Entrada actualizada a la versión 1.6, la cual incorpora un nuevo tutorial para aprender a usar Clew y la posibilidad de utilizar varios Atajos de Siri en las rutas de un solo uso.

Aplicación disponible para iOS (tan sólo iPhone 6S y posteriores que tengan instalado iOS 12 o superior).

La Realidad Aumentada (AR por sus siglas en inglés) está irrumpiendo con fuerza en multitud de campos. Eso es innegable. Su principal cualidad, permitir en una pantalla la visualización superpuesta al mundo físico tangible de elementos virtuales, sin sustituir la realidad que nos rodea, la dota de una gran versatilidad. De hecho, ya es normal ver la aplicada con éxito en ámbitos tan dispares como la educación, el turismo, la industria, la medicina, el entretenimiento, la publicidad… Incluso se emplea, y aquí en InfoTecnoVisión habéis sido testigos de ello, para potenciar la visión residual de las personas con baja visión. Pues bien, en este artículo os vamos a presentar una aplicación que emplea esta tecnología de una forma revolucionaria, yendo más allá de su aparente única función de la superposición visual de elementos virtuales, transformando a nuestros iPhone en una sorprendente herramienta para trazar rutas y guiar a las personas ciegas en interiores.

Continuar leyendo “Clew, revolucionaria app para el trazado de rutas y guiado en interiores que emplea la Realidad Aumentada”

Lanzamiento de una nueva funcionalidad gratuita de Navilens para la gestión de etiquetas de uso personal con la que identificar objetos domésticos

Imagen en la que se observa una mesa con un conjunto de etiquetas pequeñas en blanco de NaviLens y varios objetos domésticos como botes de plástico, Tuppers y botellas.

Neosistec está decidida a que Navilens, su sistema de etiquetas con marcadores de alta densidad y largo alcance, orientado a facilitar la movilidad de las personas ciegas y con baja visión se convierta en un estándar, en una nueva señalética para todos. Su uso en edificaciones, espacios urbanos y transportes, ya es una realidad, pero ahora quieren que los usuarios de este sistema también puedan utilizarlo en su entorno doméstico, generando sus propias etiquetas personalizadas con las que identificar objetos de su vida cotidiana… Y lo mejor de todo, quieren hacerlo con un coste 0 para el usuario.

Continuar leyendo “Lanzamiento de una nueva funcionalidad gratuita de Navilens para la gestión de etiquetas de uso personal con la que identificar objetos domésticos”