Emerson SmartVoice: cuando el control por voz offline entra en la cocina y el hogar

Imagen de una freidora de aire Emerson de formato rectangular y color negro, con un gran cajón frontal extraído parcialmente donde se ven alimentos empanados en cocción. En el frontal superior hay un panel digital con indicadores de temperatura y tiempo. Sobre la imagen aparecen bocadillos de texto con comandos de voz como “Hey Air Fryer” y “Cook Chicken Nuggets”, y el mensaje “SmartVoice Technology – Make your Cooking Easier and Healthy”.

Durante años, la idea de hogar inteligente se ha identificado casi exclusivamente con la conectividad permanente. Aplicaciones móviles, cuentas de usuario, asistentes en la nube y una dependencia constante de internet se han convertido en el peaje habitual para realizar tareas tan simples como encender un electrodoméstico o ajustar una temperatura. Frente a ese modelo, la propuesta SmartVoice de Emerson introduce una pregunta tan sencilla como incómoda: ¿y si la inteligencia doméstica pudiera funcionar sin conectarse a nada?
Continuar leyendo “Emerson SmartVoice: cuando el control por voz offline entra en la cocina y el hogar”

OpenClaw, el orquestador de agentes de modelos de inteligencia artificial que abre una nueva etapa de autonomía tecnológica: el testimonio de Ignasi Cambra

Captura de la página principal del repositorio GitHub de OpenClaw, destacando su identidad visual, el lema “Your own personal AI assistant”, el icono de la langosta y métricas de comunidad como estrellas, forks, issues y contribuidores.
Durante los últimos años nos hemos acostumbrado a hablar con inteligencias artificiales. Les pedimos que escriban textos, que resuman documentos, que nos ayuden a programar o que respondan preguntas complejas. Son herramientas cada vez más potentes, pero casi siempre comparten una característica fundamental: esperan a que les pidamos algo.
Sin embargo, en paralelo a esa evolución visible, está emergiendo otra mucho más profunda y menos conocida: la de las IAs que no solo responden, sino que actúan. Sistemas capaces de operar un ordenador completo, tomar decisiones encadenadas, interactuar con servicios externos, ejecutar tareas por iniciativa propia y mantenerse activos en el tiempo. No como una conversación puntual, sino como una presencia constante.
Continuar leyendo “OpenClaw, el orquestador de agentes de modelos de inteligencia artificial que abre una nueva etapa de autonomía tecnológica: el testimonio de Ignasi Cambra”

ZebraCross y las soluciones ZEBRA para semáforos acústicos e inteligentes de ILUNION Accesibilidad: qué es cada cosa, cómo se relacionan y dónde están implantados

La imagen muestra la interfaz principal de la aplicación ZEBRACross. En la parte superior aparece la barra de estado del sistema. Debajo se muestra una barra superior azul oscuro con el logotipo de ZEBRA a la izquierda y el nombre “ZEBRA” en letras blancas. A la derecha hay un icono de menú representado por tres puntos verticales. En el cuerpo principal de la pantalla aparece el texto “EMISIÓN APAGADA”, indicando que el semáforo no está emitiendo sonido en ese momento. Debajo se muestran dos botones grandes y cuadrados, centrados verticalmente: El primer botón es de color azul oscuro, con un círculo azul en el centro rodeado por ondas concéntricas, y el texto “Activar semáforo” debajo del icono. El segundo botón, situado justo debajo, también es azul oscuro y muestra un icono de altavoz amarillo emitiendo ondas sonoras, con el texto “Emitir mensaje”. Este botón permite lanzar un mensaje sonoro desde el sistema. En la parte inferior de la pantalla aparece una sección titulada “Dispositivos cerca de mí”, con un interruptor deslizante a la derecha que está en posición apagada. Debajo se indica el estado “Desactivado”, lo que significa que la detección de dispositivos cercanos no está activa.

ILUNION Accesibilidad, entidad del Grupo Social ONCE, lleva más de una década evolucionando los semáforos accesibles en España. El recorrido ha ido desde avisadores acústicos básicos y permanentes hasta soluciones inteligentes, selectivas, configurables y plenamente integradas en estrategias de ciudad inteligente.
En este ecosistema tecnológico conviven hoy varios nombres que con frecuencia se confunden: ZebraCross, ZEBRA y ZEBRA Haptic. Entender qué es cada uno, cómo se complementan y qué necesita realmente un cruce para ser accesible resulta clave para valorar su alcance real y evitar malentendidos habituales.
Continuar leyendo “ZebraCross y las soluciones ZEBRA para semáforos acústicos e inteligentes de ILUNION Accesibilidad: qué es cada cosa, cómo se relacionan y dónde están implantados”

Más allá del hardware: la propuesta abierta de Mentra para las gafas inteligentes del futuro

La imagen muestra unas gafas inteligentes negras de estilo clásico tipo wayfarer moderno, vistas en perspectiva lateral y ligeramente desde arriba, sobre un fondo completamente blanco. La montura tiene una forma rectangular con bordes suavemente redondeados, muy similar a unas gafas graduadas tradicionales, con un diseño sobrio y atemporal pensado para no llamar la atención. En la patilla izquierda, cerca de la bisagra, se aprecia claramente una cámara integrada, visible como un pequeño círculo con lente. La patilla es algo más gruesa de lo habitual, lo que indica que en su interior alberga componentes electrónicos, aunque sin romper la estética clásica. En la parte exterior de la patilla se distingue un logotipo pequeño y discreto. Los cristales son transparentes y la montura presenta un acabado negro mate, reforzando un aspecto elegante, funcional y cotidiano. Las patillas están abiertas, mostrando su curvatura natural hacia el extremo que apoya en la oreja. En conjunto, el diseño es discreto y equilibrado, pensado para llevarse durante todo el día y pasar por unas gafas normales a simple vista.

Durante la última década, las gafas inteligentes han avanzado con dificultad, atrapadas entre dos extremos poco satisfactorios: dispositivos cerrados, férreamente controlados por grandes plataformas, y propuestas de realidad aumentada visual tan espectaculares como poco viables para el uso cotidiano. En ese contexto, Mentra irrumpe con una propuesta deliberadamente distinta, casi contracultural: gafas ligeras, sin pantalla por ahora, centradas en la inteligencia artificial contextual y sostenidas por un sistema operativo abierto diseñado para crecer con el tiempo.
Este artículo analiza la propuesta técnica, conceptual y estratégica de Mentra a partir de la información pública disponible y de demostraciones iniciales. A día de hoy, las gafas no se comercializan en Europa y no existen valoraciones independientes de usuarios finales en nuestro entorno. El análisis se ofrece por el interés de su enfoque abierto y su filosofía de plataforma, no como recomendación de compra.
Continuar leyendo “Más allá del hardware: la propuesta abierta de Mentra para las gafas inteligentes del futuro”

Voice Vista: una app de asistencia a la movilidad con la que recorrer “Paisajes Sonoros”

Imagen promocional de VoiceVista donde se combina el nombre de la app, varios modelos de iPhone, el logotipo de Apple y el icono de la App Store, junto a un símbolo sonoro. Representa a VoiceVista como aplicación iOS centrada en audio espacial y accesibilidad.

Durante años, la tecnología de asistencia para la movilidad de las personas ciegas ha avanzado impulsada por el GPS, el audio secuencial y las instrucciones paso a paso. Sin embargo, ese enfoque no siempre encajaba con la forma natural en que las personas perciben y construyen mentalmente el espacio. Hubo una tecnología que propuso algo radicalmente distinto: no decir por dónde ir, sino permitir escuchar el mundo. Aquella idea se llamó Microsoft Soundscape. Hoy, su legado continúa bajo un nuevo nombre: VoiceVista.
Continuar leyendo “Voice Vista: una app de asistencia a la movilidad con la que recorrer “Paisajes Sonoros””

Diseño centrado en el ser humano: el sistema multimodal chino que replantea la movilidad asistida para personas ciegas (investigación)

La imagen es una ilustración técnica explicativa del sistema de asistencia visual multimodal descrito en el paper de Nature Machine Intelligence, y muestra de forma clara cómo se integran visión artificial, audio, háptica y entrenamiento en un único ecosistema centrado en la persona. En la parte izquierda, aparece una persona caminando en un entorno interior (una habitación con sofá, mesa y una silla destacada como objetivo). El usuario lleva: • Gafas con cámara RGB-D, situadas a la altura de los ojos, que capturan información frontal del entorno. • Auriculares de conducción ósea, indicados mediante ondas sonoras, que proporcionan retroalimentación auditiva sin bloquear el oído. • Pieles electrónicas hápticas (A-skin) colocadas en ambas muñecas, diferenciadas para el lado izquierdo y derecho, que transmiten información sensorial-motora mediante vibración. • Plantillas inteligentes en los zapatos, señaladas como “smart insoles”, encargadas de registrar la marcha y el movimiento del usuario. En el suelo se representa el campo de percepción artificial, con zonas sombreadas que indican cómo el sistema detecta obstáculos y calcula trayectorias hacia un objetivo concreto, en este caso una silla marcada como “target”. Una línea discontinua muestra la ruta óptima que el sistema sugiere para llegar hasta ella. En la parte superior derecha, se ve un monitor que representa la plataforma de entrenamiento en realidad virtual. En la pantalla aparece un avatar dentro de una habitación virtual muy similar al entorno real, lo que ilustra cómo el sistema permite entrenar en VR antes de enfrentarse al mundo físico. En la parte inferior derecha, un diagrama por pasos resume el proceso completo de uso: 1. Setting target: el usuario define el objetivo mediante voz. 2. Searching target: el sistema localiza el objeto. 3. Navigating to target: guía al usuario mediante audio y vibración. 4. Reaching target: asistencia háptica fina para alcanzar y agarrar el objeto.

Durante años, la tecnología de asistencia visual ha avanzado impulsada por dos motores principales: un incremento constante de la potencia de cálculo y algoritmos cada vez más precisos. Sin embargo, ese progreso técnico no siempre se ha traducido en una adopción real por parte de las personas ciegas. Muchos sistemas prometedores han quedado confinados al laboratorio o a la demo espectacular por una razón tan simple como incómoda: no estaban pensados para cómo aprende, se mueve y percibe un ser humano real.
Continuar leyendo “Diseño centrado en el ser humano: el sistema multimodal chino que replantea la movilidad asistida para personas ciegas (investigación)”

Vox Libri: cuando la accesibilidad a la lectura se convierte en el centro del diseño

La imagen muestra una ilustración de estilo limpio y moderno, con un aire claramente digital y accesible. En el centro aparece un libro de color morado intenso, representado en formato tridimensional, como si fuera un libro físico grueso y robusto. En la portada destaca un icono blanco de reproducción (un triángulo apuntando a la derecha dentro de un círculo), lo que sugiere que se trata de un audiolibro o de un libro interactivo con contenido sonoro. El libro tiene un pequeño detalle rectangular de color naranja en el lomo, que recuerda a una etiqueta o marcador, reforzando la idea de objeto editorial bien definido. Los bordes son suaves y redondeados, con un diseño amable y poco agresivo visualmente. El fondo representa una biblioteca: estanterías de madera clara llenas de libros de distintos colores, desenfocados y simplificados, lo que ayuda a que el libro morado sea el protagonista absoluto de la escena. La iluminación es cálida, con tonos suaves que transmiten una sensación de calma, accesibilidad y confort, asociada a la lectura. En conjunto, la imagen comunica claramente la idea de lectura digital accesible, audiolibros o lectura asistida por voz, con un enfoque moderno, inclusivo y orientado a la experiencia del usuario más que al realismo.

Leer es uno de los actos culturales más antiguos y, paradójicamente, uno de los que más barreras ha levantado con el paso del tiempo. Formatos mal diseñados, interfaces visuales rígidas, lectores que ignoran el braille o la síntesis de voz… Durante años, la accesibilidad ha sido un añadido, no un principio de diseño.

Continuar leyendo “Vox Libri: cuando la accesibilidad a la lectura se convierte en el centro del diseño”

Glory Frontline: cuando los oídos mandan en el campo de batalla

Portada del juego Glory Frontline (soldados tácticos). La escena muestra a tres soldados fuertemente armados, vestidos con equipamiento militar moderno en tonos arena. Llevan cascos tácticos, gafas oscuras, chalecos antibalas y guantes. Cada uno sostiene un rifle de asalto en posición lista. Al fondo se ven explosiones y nubes de humo, aportando una atmósfera de batalla intensa. La composición transmite unidad, profesionalidad y tensión bélica, con una estética muy realista.

¿Te imaginas jugar a un juego de disparos (shooter) contra cualquiera, sin mirar la pantalla, guiándote únicamente por el oído… y aun así salir victorioso? Pues deja de imaginar, porque Glory Frontline convierte esa idea en algo real. No estamos ante “otro juego accesible más”: estamos frente a un salto vertiginoso en el terreno del audio gaming, uno de esos títulos que te hacen replantearte lo que significa jugar sin ver… o viendo, pues dispone de imágenes.
Para entenderlo mejor, en esta ocasión contamos con una Videoodemostración de Rosa Chacón, que se mete de lleno en la acción para mostrar cómo se siente jugarlo, y con un recorrido detallado de Marcelo Rosado, que desgrana el juego desde la mirada de alguien que conoce el mundo de los audiojuegos por dentro y lo disfruta como pocos.
Un tándem perfecto para descubrir por qué Glory Frontline está levantando tantas cejas —y tantos auriculares— en la comunidad.

Continuar leyendo “Glory Frontline: cuando los oídos mandan en el campo de batalla”

FEELDOM TREK: la mochila de viaje artesanal que une funcionalidad y diseño para todos

Vista frontal completa de la mochila cerrada. Presenta tres amplios compartimentos principales, dos de ellos con cremalleras dobles en posición central y uno inferior más ancho. A los lados se aprecian bolsillos verticales con cierre de cremallera. En la base frontal figura el logotipo bordado de FEELDOM sobre una etiqueta negra. El color predominante es gris grafito con herrajes claros de gran visibilidad. La estructura es rígida y mantiene su forma, incluso vacía, lo que evidencia su diseño autoestable.

Cuando Adriana Madrigal me compartió el vídeo publicado en el canal The Blind Life de YouTube sobre este bolso de viaje (la mochila FEELDOM TREK), confieso que nunca había oído hablar de la marca coreana FEELDOM. Y, siendo sincero, mi primera reacción fue de escepticismo. Como defensor convencido del diseño universal, suelo desconfiar de los productos que se anuncian como “adaptados” para personas con baja visión. Sin embargo, al investigar un poco más, descubrí que FEELDOM no fabrica mochilas “especiales”, sino piezas de alta calidad y diseño inteligente que resultan prácticas para cualquiera, con o sin discapacidad. Detrás de cada modelo hay una filosofía muy clara: combinar estilo, funcionalidad y accesibilidad real.
En InfoTecnoVisión hablamos de esta mochila porque no se trata solo de un accesorio elegante, sino de un complemento especialmente útil para una persona ciega. Quien utiliza bastón o perro guía suele tener al menos una mano permanentemente ocupada, por lo que contar con una mochila o bolso que se cuelgue del hombro o la espalda libera movilidad, mantiene el equilibrio y permite llevar objetos personales de forma segura y ordenada. Esa comodidad práctica, sumada al diseño táctil y al acceso rápido a cada compartimento, convierte a la FEELDOM TREK en un ejemplo perfecto de diseño inclusivo bien entendido.
Os invito a seguir leyendo para conocer la historia de esta marca, su proceso artesanal y los detalles que la han convertido en una referencia internacional en el diseño para todos.

Continuar leyendo “FEELDOM TREK: la mochila de viaje artesanal que une funcionalidad y diseño para todos”

Varelalia Podcast vuelve: una nueva etapa para pensar la tecnología que importa



La imagen del logotipo de Varelalia presenta un diseño minimalista y moderno compuesto por texto y un icono: la palabra “Varela”, en tipografía sans serif y color azul brillante, aparece en la parte superior transmitiendo frescura y dinamismo, mientras que debajo se lee “LIA” en mayúsculas negras, aportando contraste y seriedad; a la derecha se incluye la silueta azul de un perfil humano con un esquema interno que recuerda a un circuito o conexión neuronal, evocando la inteligencia artificial y la mente humana; todo ello sobre un fondo blanco liso que resalta los elementos y refuerza la identidad tecnológica e innovadora de la marca.

Tras más de año y medio en silencio, Varelalia Podcast vuelve a sonar con la serenidad de quien ha elegido bien el momento y el rumbo. No es un simple comeback: es el reinicio consciente de un proyecto que, desde 2021, se ha ganado un lugar propio en la divulgación de tecnología accesible y social. Regresa la voz de Enrique Varela —pionero en eso de poner la innovación al servicio de la vida cotidiana— con un propósito claro: menos ruido, más criterio; menos escaparate, más pensamiento.
Continuar leyendo “Varelalia Podcast vuelve: una nueva etapa para pensar la tecnología que importa”