PiccyBot, una puerta a la visión a través de la palabra

La imagen muestra una composición promocional sobre fondo oscuro con un degradado azul y morado. A la izquierda aparece el texto grande “PiccyBot AI Descriptions” en letras blancas y amarillas. Debajo del texto hay iconos blancos que representan un vídeo (claqueta de cine) y un conjunto de fotografías apiladas. A la derecha se ve la pantalla de un iPhone con la app PiccyBot abierta. En la pantalla aparece un robot simpático de color gris con un solo ojo central, brazos redondeados y un pequeño cuerpo. En la parte superior del móvil se lee “What is in this image?”. El conjunto transmite una idea de tecnología accesible y moderna.

En los últimos años, la inteligencia artificial se ha convertido en un factor decisivo en el acceso a la información para las personas ciegas y con baja visión. Herramientas que antes parecían experimentales hoy forman parte de la vida cotidiana, ampliando la autonomía personal y facilitando el acceso a contenidos visuales, educativos y culturales que tradicionalmente dependían de la mediación de terceros.

En este contexto surge PiccyBot, una aplicación móvil diseñada para describir imágenes y vídeos mediante inteligencia artificial, transformando lo visual en información hablada y comprensible. Este artículo combina el análisis tecnológico con la experiencia real de uso para examinar cómo esta herramienta está modificando, de forma práctica y tangible, la relación de las personas ciegas con el contenido visual en su día a día.
Continuar leyendo “PiccyBot, una puerta a la visión a través de la palabra”

La retina ya no es un callejón sin salida: las terapias que pueden cambiar la retinosis pigmentaria en 2026

Diagrama ilustrativo de tratamientos para la Retinosis Pigmentaria (RP). En el centro, aparece el título "RP Treatments". Hay cuatro secciones, cada una con imágenes y texto descriptivo: A la izquierda arriba (A. Gene Therapy): Un ojo con una aguja aplicando una inyección subretiniana, mostrando el reemplazo de un gen mediado por vectores. A la derecha arriba (B. Stem cell treatment): Un ojo con una aguja administrando una inyección intravítrea, representando el tratamiento con células madre. Abajo a la izquierda (C. Optogenetics): Células nerviosas, luz y la administración de una proteína fotosensible a través de inyección intravítrea. Abajo a la derecha (D. Neuroprotective): Un ratón recibiendo una inyección que indica el uso de agentes neuroprotectores, como pequeñas moléculas o proteínas. Cada tratamiento tiene un título con color distintivo debajo de la imagen correspondiente.

Durante décadas, la retinosis pigmentaria (RP) y otras enfermedades hereditarias de la retina han sido sinónimo de una frase incómoda pero habitual en consulta: “no hay tratamiento”. La ciencia avanzaba, sí, pero lo hacía a trompicones, con terapias muy específicas, pensadas para mutaciones concretas y, en muchos casos, solo útiles en fases tempranas de la enfermedad. Para quienes ya habían perdido gran parte de la visión, el horizonte era básicamente adaptarse, aprender a vivir sin lo que se iba apagando.
Ese marco está empezando a resquebrajarse. No porque haya aparecido una cura milagrosa, sino porque están madurando enfoques que atacan el problema desde ángulos completamente distintos: reprogramar células retinianas que aún sobreviven, proteger los fotorreceptores restantes con fármacos sistémicos, editar el ADN con mayor precisión, modular redes génicas completas en lugar de un solo gen, o rescatar función visual mediante terapias celulares. Y, por primera vez, una terapia optogenética para RP avanzada podría estar a las puertas de una decisión regulatoria histórica.
Continuar leyendo “La retina ya no es un callejón sin salida: las terapias que pueden cambiar la retinosis pigmentaria en 2026”

Más allá del hardware: la propuesta abierta de Mentra para las gafas inteligentes del futuro

La imagen muestra unas gafas inteligentes negras de estilo clásico tipo wayfarer moderno, vistas en perspectiva lateral y ligeramente desde arriba, sobre un fondo completamente blanco. La montura tiene una forma rectangular con bordes suavemente redondeados, muy similar a unas gafas graduadas tradicionales, con un diseño sobrio y atemporal pensado para no llamar la atención. En la patilla izquierda, cerca de la bisagra, se aprecia claramente una cámara integrada, visible como un pequeño círculo con lente. La patilla es algo más gruesa de lo habitual, lo que indica que en su interior alberga componentes electrónicos, aunque sin romper la estética clásica. En la parte exterior de la patilla se distingue un logotipo pequeño y discreto. Los cristales son transparentes y la montura presenta un acabado negro mate, reforzando un aspecto elegante, funcional y cotidiano. Las patillas están abiertas, mostrando su curvatura natural hacia el extremo que apoya en la oreja. En conjunto, el diseño es discreto y equilibrado, pensado para llevarse durante todo el día y pasar por unas gafas normales a simple vista.

Durante la última década, las gafas inteligentes han avanzado con dificultad, atrapadas entre dos extremos poco satisfactorios: dispositivos cerrados, férreamente controlados por grandes plataformas, y propuestas de realidad aumentada visual tan espectaculares como poco viables para el uso cotidiano. En ese contexto, Mentra irrumpe con una propuesta deliberadamente distinta, casi contracultural: gafas ligeras, sin pantalla por ahora, centradas en la inteligencia artificial contextual y sostenidas por un sistema operativo abierto diseñado para crecer con el tiempo.
Este artículo analiza la propuesta técnica, conceptual y estratégica de Mentra a partir de la información pública disponible y de demostraciones iniciales. A día de hoy, las gafas no se comercializan en Europa y no existen valoraciones independientes de usuarios finales en nuestro entorno. El análisis se ofrece por el interés de su enfoque abierto y su filosofía de plataforma, no como recomendación de compra.
Continuar leyendo “Más allá del hardware: la propuesta abierta de Mentra para las gafas inteligentes del futuro”

Voice Vista: una app de asistencia a la movilidad con la que recorrer “Paisajes Sonoros”

Imagen promocional de VoiceVista donde se combina el nombre de la app, varios modelos de iPhone, el logotipo de Apple y el icono de la App Store, junto a un símbolo sonoro. Representa a VoiceVista como aplicación iOS centrada en audio espacial y accesibilidad.

Durante años, la tecnología de asistencia para la movilidad de las personas ciegas ha avanzado impulsada por el GPS, el audio secuencial y las instrucciones paso a paso. Sin embargo, ese enfoque no siempre encajaba con la forma natural en que las personas perciben y construyen mentalmente el espacio. Hubo una tecnología que propuso algo radicalmente distinto: no decir por dónde ir, sino permitir escuchar el mundo. Aquella idea se llamó Microsoft Soundscape. Hoy, su legado continúa bajo un nuevo nombre: VoiceVista.
Continuar leyendo “Voice Vista: una app de asistencia a la movilidad con la que recorrer “Paisajes Sonoros””

Diseño centrado en el ser humano: el sistema multimodal chino que replantea la movilidad asistida para personas ciegas (investigación)

La imagen es una ilustración técnica explicativa del sistema de asistencia visual multimodal descrito en el paper de Nature Machine Intelligence, y muestra de forma clara cómo se integran visión artificial, audio, háptica y entrenamiento en un único ecosistema centrado en la persona. En la parte izquierda, aparece una persona caminando en un entorno interior (una habitación con sofá, mesa y una silla destacada como objetivo). El usuario lleva: • Gafas con cámara RGB-D, situadas a la altura de los ojos, que capturan información frontal del entorno. • Auriculares de conducción ósea, indicados mediante ondas sonoras, que proporcionan retroalimentación auditiva sin bloquear el oído. • Pieles electrónicas hápticas (A-skin) colocadas en ambas muñecas, diferenciadas para el lado izquierdo y derecho, que transmiten información sensorial-motora mediante vibración. • Plantillas inteligentes en los zapatos, señaladas como “smart insoles”, encargadas de registrar la marcha y el movimiento del usuario. En el suelo se representa el campo de percepción artificial, con zonas sombreadas que indican cómo el sistema detecta obstáculos y calcula trayectorias hacia un objetivo concreto, en este caso una silla marcada como “target”. Una línea discontinua muestra la ruta óptima que el sistema sugiere para llegar hasta ella. En la parte superior derecha, se ve un monitor que representa la plataforma de entrenamiento en realidad virtual. En la pantalla aparece un avatar dentro de una habitación virtual muy similar al entorno real, lo que ilustra cómo el sistema permite entrenar en VR antes de enfrentarse al mundo físico. En la parte inferior derecha, un diagrama por pasos resume el proceso completo de uso: 1. Setting target: el usuario define el objetivo mediante voz. 2. Searching target: el sistema localiza el objeto. 3. Navigating to target: guía al usuario mediante audio y vibración. 4. Reaching target: asistencia háptica fina para alcanzar y agarrar el objeto.

Durante años, la tecnología de asistencia visual ha avanzado impulsada por dos motores principales: un incremento constante de la potencia de cálculo y algoritmos cada vez más precisos. Sin embargo, ese progreso técnico no siempre se ha traducido en una adopción real por parte de las personas ciegas. Muchos sistemas prometedores han quedado confinados al laboratorio o a la demo espectacular por una razón tan simple como incómoda: no estaban pensados para cómo aprende, se mueve y percibe un ser humano real.
Continuar leyendo “Diseño centrado en el ser humano: el sistema multimodal chino que replantea la movilidad asistida para personas ciegas (investigación)”

ASHIRASE, Tecnología en los pies: la apuesta japonesa para guiar a personas ciegas a través de vibraciones

La imagen muestra un zapato deportivo blanco, de estilo urbano y diseño limpio, expuesto sobre un soporte metálico en un entorno de feria o exposición tecnológica. En el lateral exterior del calzado, a la altura del tobillo, se aprecia claramente el dispositivo Ashirase: un módulo compacto, de forma redondeada, con carcasa roja brillante y detalles en negro, firmemente acoplado al zapato. El dispositivo destaca visualmente por contraste cromático frente al blanco del calzado y parece diseñado para pasar desapercibido una vez integrado en el uso cotidiano. Su posición sugiere que transmite información directamente al pie mediante vibraciones, sin interferir con el movimiento natural al caminar. En el fondo de la imagen se distinguen otros elementos propios de un stand tecnológico: paneles informativos con el nombre “ASHIRASE Navigation Device”, material promocional y personas desenfocadas transitando por el recinto, lo que refuerza la idea de que se trata de una demostración pública del producto, probablemente en una feria internacional de tecnología.

En el ámbito de la movilidad para personas ciegas, la innovación suele llegar envuelta en grandes promesas y discursos entusiastas. Sin embargo, pocas veces se pone el foco en lo que realmente importa: cómo se comporta una tecnología cuando abandona el laboratorio, la feria o el vídeo promocional y se enfrenta al mundo real, al asfalto, a las prisas del día a día, a los recorridos habituales y a las decisiones improvisadas que forman parte de cualquier desplazamiento cotidiano.

Ashirase es un sistema japonés de navegación háptica para personas con discapacidad visual que propone un enfoque poco habitual: trasladar las indicaciones de orientación al sentido del tacto, concretamente a los pies. No pretende sustituir al bastón blanco ni al perro guía, sino actuar como un complemento de orientación en exteriores que libera manos y oídos. Un aspecto especialmente relevante es que permite tanto seguir rutas pregrabadas como recibir indicaciones en tiempo real, adaptándose a trayectos planificados y a desplazamientos espontáneos.

Se trata de uno de esos dispositivos que despiertan interés precisamente por lo que no hace: no habla, no emite pitidos, no ocupa las manos ni compite con el oído. Su lenguaje es otro, basado en vibraciones en los pies, una guía silenciosa que, al menos sobre el papel, promete integrarse de forma casi invisible en la experiencia de caminar.

Para comprobar si esa promesa se sostiene en la práctica, en Infotecnovisión hemos querido ceder el protagonismo a quien realmente importa: una usuaria ciega que ha probado Ashirase en su vida diaria, en trayectos reales y durante un periodo suficiente como para formarse una opinión sólida y fundamentada. El texto que sigue es el testimonio íntegro de Wendi Arias Yamashiro, escrito desde la experiencia directa, sin filtros comerciales ni interpretaciones externas. Ella firma este artículo y asume plenamente su autoría.

Continuar leyendo “ASHIRASE, Tecnología en los pies: la apuesta japonesa para guiar a personas ciegas a través de vibraciones”

Vox Libri: cuando la accesibilidad a la lectura se convierte en el centro del diseño

La imagen muestra una ilustración de estilo limpio y moderno, con un aire claramente digital y accesible. En el centro aparece un libro de color morado intenso, representado en formato tridimensional, como si fuera un libro físico grueso y robusto. En la portada destaca un icono blanco de reproducción (un triángulo apuntando a la derecha dentro de un círculo), lo que sugiere que se trata de un audiolibro o de un libro interactivo con contenido sonoro. El libro tiene un pequeño detalle rectangular de color naranja en el lomo, que recuerda a una etiqueta o marcador, reforzando la idea de objeto editorial bien definido. Los bordes son suaves y redondeados, con un diseño amable y poco agresivo visualmente. El fondo representa una biblioteca: estanterías de madera clara llenas de libros de distintos colores, desenfocados y simplificados, lo que ayuda a que el libro morado sea el protagonista absoluto de la escena. La iluminación es cálida, con tonos suaves que transmiten una sensación de calma, accesibilidad y confort, asociada a la lectura. En conjunto, la imagen comunica claramente la idea de lectura digital accesible, audiolibros o lectura asistida por voz, con un enfoque moderno, inclusivo y orientado a la experiencia del usuario más que al realismo.

Leer es uno de los actos culturales más antiguos y, paradójicamente, uno de los que más barreras ha levantado con el paso del tiempo. Formatos mal diseñados, interfaces visuales rígidas, lectores que ignoran el braille o la síntesis de voz… Durante años, la accesibilidad ha sido un añadido, no un principio de diseño.

Continuar leyendo “Vox Libri: cuando la accesibilidad a la lectura se convierte en el centro del diseño”

Glory Frontline: cuando los oídos mandan en el campo de batalla

Portada del juego Glory Frontline (soldados tácticos). La escena muestra a tres soldados fuertemente armados, vestidos con equipamiento militar moderno en tonos arena. Llevan cascos tácticos, gafas oscuras, chalecos antibalas y guantes. Cada uno sostiene un rifle de asalto en posición lista. Al fondo se ven explosiones y nubes de humo, aportando una atmósfera de batalla intensa. La composición transmite unidad, profesionalidad y tensión bélica, con una estética muy realista.

¿Te imaginas jugar a un juego de disparos (shooter) contra cualquiera, sin mirar la pantalla, guiándote únicamente por el oído… y aun así salir victorioso? Pues deja de imaginar, porque Glory Frontline convierte esa idea en algo real. No estamos ante “otro juego accesible más”: estamos frente a un salto vertiginoso en el terreno del audio gaming, uno de esos títulos que te hacen replantearte lo que significa jugar sin ver… o viendo, pues dispone de imágenes.
Para entenderlo mejor, en esta ocasión contamos con una Videoodemostración de Rosa Chacón, que se mete de lleno en la acción para mostrar cómo se siente jugarlo, y con un recorrido detallado de Marcelo Rosado, que desgrana el juego desde la mirada de alguien que conoce el mundo de los audiojuegos por dentro y lo disfruta como pocos.
Un tándem perfecto para descubrir por qué Glory Frontline está levantando tantas cejas —y tantos auriculares— en la comunidad.

Continuar leyendo “Glory Frontline: cuando los oídos mandan en el campo de batalla”

FEELDOM TREK: la mochila de viaje artesanal que une funcionalidad y diseño para todos

Vista frontal completa de la mochila cerrada. Presenta tres amplios compartimentos principales, dos de ellos con cremalleras dobles en posición central y uno inferior más ancho. A los lados se aprecian bolsillos verticales con cierre de cremallera. En la base frontal figura el logotipo bordado de FEELDOM sobre una etiqueta negra. El color predominante es gris grafito con herrajes claros de gran visibilidad. La estructura es rígida y mantiene su forma, incluso vacía, lo que evidencia su diseño autoestable.

Cuando Adriana Madrigal me compartió el vídeo publicado en el canal The Blind Life de YouTube sobre este bolso de viaje (la mochila FEELDOM TREK), confieso que nunca había oído hablar de la marca coreana FEELDOM. Y, siendo sincero, mi primera reacción fue de escepticismo. Como defensor convencido del diseño universal, suelo desconfiar de los productos que se anuncian como “adaptados” para personas con baja visión. Sin embargo, al investigar un poco más, descubrí que FEELDOM no fabrica mochilas “especiales”, sino piezas de alta calidad y diseño inteligente que resultan prácticas para cualquiera, con o sin discapacidad. Detrás de cada modelo hay una filosofía muy clara: combinar estilo, funcionalidad y accesibilidad real.
En InfoTecnoVisión hablamos de esta mochila porque no se trata solo de un accesorio elegante, sino de un complemento especialmente útil para una persona ciega. Quien utiliza bastón o perro guía suele tener al menos una mano permanentemente ocupada, por lo que contar con una mochila o bolso que se cuelgue del hombro o la espalda libera movilidad, mantiene el equilibrio y permite llevar objetos personales de forma segura y ordenada. Esa comodidad práctica, sumada al diseño táctil y al acceso rápido a cada compartimento, convierte a la FEELDOM TREK en un ejemplo perfecto de diseño inclusivo bien entendido.
Os invito a seguir leyendo para conocer la historia de esta marca, su proceso artesanal y los detalles que la han convertido en una referencia internacional en el diseño para todos.

Continuar leyendo “FEELDOM TREK: la mochila de viaje artesanal que une funcionalidad y diseño para todos”

Blind Stick: el bastón electrónico ultrasónico low cost que añade anticipación sin complicarte la vida



La imagen muestra la empuñadura del Blind Stick Ultrasonic, un bastón electrónico inteligente para personas ciegas o con baja visión. Su cuerpo, de plástico negro brillante y diseño ergonómico, integra un sensor ultrasónico frontal que detecta obstáculos hasta 3 metros con un ángulo de 135°, emitiendo alertas por voz o vibración cuando algo se aproxima a menos de 2 metros.
Cuenta con un panel de ocho botones de silicona para controlar funciones como el encendido, modos o volumen; un LED bajo el panel; una rosca inferior para acoplar los tubos del bastón; y una correa de muñeca para seguridad.
En la imagen se destacan ondas rojas que simbolizan la emisión ultrasónica y textos que explican su rango de detección. El dispositivo emplea tecnología de eco similar a la de los murciélagos, calculando distancias mediante ultrasonidos y alertando al usuario. En conjunto, combina diseño, precisión y seguridad, facilitando la movilidad autónoma en distintos entornos.

Moverse con bastón blanco funciona porque es simple y fiable. Su límite, sin embargo, está a la altura del tronco y la cara: puertas entreabiertas, mesas, ramas o carteles que no “detecta ” a tiempo. Blind Stick nace justo para cubrir ese hueco: un bastón plegable de toda la vida con un sensor de ultrasonidos integrado en el mango que avisa antes de llegar a esos obstáculos, sin móviles ni aplicaciones de por medio.

En su información impresa encontraremos referencias a patentes registradas para el guiado por voz y la detección de obstáculos, lo que indica que no estamos ante un juguete, sino ante una auténtica ayuda técnica low cost concebida con rigor, aunque los sonidos que emplea recuerdan a chips asiáticos pregrabados, propios de electrónica económica (cantos de gallo, sirenas y alarmas musicales), similares a los de las antiguas tiendas de “todo por mil” en Costa Rica, que se conocieron como “todo a cien” en España. Continuar leyendo “Blind Stick: el bastón electrónico ultrasónico low cost que añade anticipación sin complicarte la vida”