Investigadores de la Universidad de Brown demostraron el 13 de marzo de 2026 que las capacidades de comprensión de gestos de los perros pueden utilizarse para entrenar a robots para recuperar objetos combinando el lenguaje humano con gestos de señalamiento, logrando una tasa de éxito del 89% en entornos de laboratorio con espacios desordenados.
Ivy He, una estudiante de posgrado, lideró el equipo de investigación en la Universidad de Brown en Providence, Rhode Island, utilizando un marco POMDP para manejar las incertidumbres calculando conos de apuntamiento basados en la geometría ojo-codo-muñeca, superando a los algoritmos que utilizan una sola entrada.
La presentación del estudio se realizó el 17 de marzo en la Conferencia Internacional sobre Interacción Humano-Robot en Edimburgo, Escocia, y se basa en el laboratorio de cognición canina de la experta Daphna Buchsbaum para permitir asistentes intuitivos en el hogar o en el trabajo.
Smarter robots — inspired by dogs.
Brown University researchers developed a new approach that helps robots determine which objects people want them to retrieve by interpreting both spoken language and human gestures. https://t.co/calgWp6J9F
— Brown University (@BrownUniversity) March 16, 2026
¿Qué enseñan los perros a los robots? Estudio de la Universidad de Brown revela cómo los gestos ayudan a las máquinas
El equipo de Brown creó un sistema POMDP que fusiona modelos de visión-lenguaje con conos de gestos, imitando el dominio de los perros en la comprensión de los gestos humanos para una recuperación de objetos superior.
Los robots navegaron por espacios desordenados, enfocándose en lo que se les indica combinando el lenguaje, como «la taza roja», con el señalamiento, lo que resultó en una tasa de éxito del 89%, más efectiva que las herramientas utilizadas individualmente. Ivy He destacó la naturaleza desordenada del mundo real, señalando que los robots ahora miran a su alrededor antes de alcanzar los objetos.
Estudio de robótica de la Universidad de Brown: Explicación del marco POMDP
Los POMDP lidian con las vistas parciales del mundo convirtiendo las ambigüedades, o las cosas que se ven similares o están ocultas, en probabilidades que guían las acciones de un robot.
El nuevo concepto introduce el modelado de gestos basado en estudios de perros, donde los humanos sincronizan su mirada con un objeto, creando conos visibles.
Los grandes modelos de visión-lenguaje de IA comprenden las escenas, lo que permite a los robots aprender sobre la marcha sin quedarse atascados ni cometer errores.
El futuro del trabajo en equipo humano-robot
Este avance allana el camino para interacciones fluidas que combinan el habla, los gestos, la mirada e incluso las demostraciones, para asistentes de cocina o de fábrica.
Esta investigación, financiada por la NSF y la Oficina de Investigación Naval a través del instituto ARIA de la Universidad de Brown, combina la informática con las ideas cognitivas del Laboratorio Canino de Daphna Buchsbaum.
Investigadores como Ellie Pavlick enfatizan la importancia de que los robots se comporten de forma natural, como lo hacen los humanos.
Consulta: Lista completa de los ganadores de los Premios de la Academia
Los robots de la Universidad de Brown, inspirados en los perros, están diseñados para asociaciones intuitivas, transformando tareas mundanas en colaboraciones fluidas y evolucionando los simples juegos de búsqueda en trabajos en equipo más complejos.
Publicado por primera vez: 16 de marzo de 2026, 10:29 IST
