robotica.es robotica.es
IA en robótica

TUM enseña a un robot a buscar objetos perdidos usando lenguaje, mapas y sentido común espacial

La Universidad Técnica de Múnich presenta un robot que combina visión, mapas 3D y modelos de lenguaje para localizar objetos de forma más eficiente.

·
5 min de lectura
TUM enseña a un robot a buscar objetos perdidos usando lenguaje, mapas y sentido común espacial

La Universidad Técnica de Múnich (TUM) ha presentado un robot móvil capaz de buscar objetos perdidos combinando visión, mapas 3D y conocimiento aportado por un modelo de lenguaje. El ejemplo parece doméstico —encontrar unas gafas en la cocina—, pero apunta a una capacidad básica para cualquier robot que tenga que moverse en espacios cambiantes: no buscar a ciegas.

El sistema, desarrollado en el laboratorio de Angela Schoellig, construye un mapa tridimensional del entorno a partir de imágenes con información de profundidad. Después identifica objetos visibles y traduce relaciones semánticas a una representación útil para el robot. En vez de inspeccionar toda la habitación al azar, estima qué lugares tienen más probabilidad de contener el objeto buscado.

Según TUM, el robot localiza objetivos casi un 30% más eficientemente que una búsqueda aleatoria. También puede comparar imágenes anteriores con nuevas observaciones y marcar como zonas probables aquellas en las que aparece un objeto nuevo, con una certeza del 95% en los cambios detectados.

El sentido común como herramienta robótica

La clave está en algo que las personas hacemos sin pensarlo: si buscas unas gafas, miras antes en una mesa o en el alféizar que en el fregadero o sobre una placa caliente. Para un robot, esa inferencia no es trivial. Necesita entender objetos, superficies, usos habituales y probabilidades espaciales.

El modelo de lenguaje aporta parte de ese “sentido común” relacional. No mueve el robot por sí solo, pero ayuda a generar hipótesis: qué lugares son plausibles, cuáles no, y cómo priorizar la exploración. El laboratorio convierte ese conocimiento en números dentro del mapa 3D, recalculando continuamente la probabilidad de que el objeto esté en cada zona.

Esa combinación entre percepción geométrica y semántica es más interesante que otro asistente con comandos de voz. Para que un robot ayude en una casa, una residencia o una fábrica, no basta con reconocer una taza. Tiene que saber dónde tendría sentido buscarla, cuándo algo ha cambiado y qué zonas ya ha comprobado.

De encontrar gafas a manipular el entorno

TUM reconoce el siguiente problema: muchos objetos no están a la vista. Están en cajones, armarios o detrás de puertas. Buscar ahí ya no exige solo navegar y mirar, sino interactuar con el entorno: abrir un mueble, entender cómo se mueve, agarrar un tirador y comprobar el interior sin romper nada.

Ese salto separa a muchos robots móviles actuales de un robot realmente útil. Mapear una habitación es una cosa; manipularla es otra. En hogares y espacios asistenciales, los objetos cambian de sitio, las superficies se llenan de obstáculos y las personas no preparan el entorno para que la máquina lo entienda.

Por eso este tipo de investigación tiene valor aunque el prototipo sea sencillo. El robot de TUM no pretende ser un producto doméstico inmediato. Es una pieza de un problema mayor: cómo unir lenguaje, percepción y acción para que una máquina actúe con criterio en un espacio real.

La prudencia sigue siendo necesaria. Un 30% de mejora frente a búsqueda aleatoria es prometedor, pero la robótica cotidiana necesita fiabilidad alta, tiempos razonables y manipulación segura. Aun así, el enfoque va en la buena dirección: menos comandos rígidos y más robots capaces de hacer inferencias útiles sobre el mundo.

Si los próximos pasos añaden brazos y manos para buscar dentro de muebles, la pregunta dejará de ser si el robot entiende dónde puede estar un objeto. Será si puede actuar sobre esa hipótesis sin convertir la cocina en un pequeño desastre autónomo. Que, admitámoslo, sería una forma muy robótica de ayudar.

Fuentes

Más artículos