Últimas noticias

Enseñar a los robots a reconocer su cuerpo, próximo paso de la inteligencia artificial

Enseñar a los robots a reconocer su cuerpo, próximo paso de la inteligencia artificial

El principal problema de los robots autónomos aparece cuando salen de un entorno controlado, por eso hay que proveerlos de las capacidades necesarias para que puedan interaccionar con el mundo real.

Una de las posibles soluciones es que estos aprendan a reconocer su propio cuerpo y se distingan con respecto a otros elementos que los rodean, como lo hacen los humanos en su proceso de desarrollo.

Esto es lo que va a intentar Pablo Lanillos, un joven científico español que ha recibido una beca Marie Sklodowska-Curie de la Unión Europea para investigar en el Instituto de Sistemas Cognitivos de la Universidad Tecnológica de Munich (Alemania),  bajo la dirección de Gordon Cheng.

El proyecto, Selfception, es de dos años y su objetivo es lograr que las máquinas aumenten su capacidad de percepción y aprendizaje para que se aproximen a los seres humanos y puedan interactuar.

<p>El investigador Pablo Lanillos, doctor en inteligencia artificial, ha recibido una beca Marie Sklodowska-Curie de la Unión Europea. Imagen -en la El investigador Pablo Lanillos, doctor en inteligencia artificial, ha recibido una beca Marie Sklodowska-Curie de la Unión Europea. Imagen -en la que aparece el científico Gordon Cheng- facilitada por el Instituto de Sistemas Cognitivos.

 

Este proyecto tiene un componente de ciencia básica muy fuerte, según Lanillos, quien explica a Efe que va a trabajar con un psicólogo para intentar modelar lo que ellos llaman el ‘yo mínimo’.

Los robots actuales solo trabajan en entornos controlados y ejecutan acciones muy precisas que han sido programadas por un ingeniero. Además, no poseen tacto en todo el cuerpo.

Vista, tacto y oído

Sin embargo, los robots multisensoriales, con vista, tacto o audición, podrían aprender a reconocerse a sí mismos mediante la interacción con el entorno.

El objetivo de Lanillos es crear robots multisensoriales y que el tacto o la visión -en el robot logrados a través de sensores- sirvan para que logren ese aprendizaje y moverse en el mundo real.

Logotipo del proyecto Selfception, que durará dos años.

Logotipo del proyecto Selfception, que durará dos años.

La idea es que copien el aprendizaje humano: un niño primero aprende dónde está su mano y qué ocurre cuando toca algo, luego comienza a agarrar objetos, a saber que si los empuja se caen y al mismo tiempo sus progenitores interaccionan dándole otros objetos.

Este aprendizaje progresivo consigue crear en el niño una representación de su cuerpo y finalmente le permite diferenciar entre su cuerpo y el de otros, un paso imprescindible para que obtenga la capacidad de actuar voluntariamente en el mundo -en esto se basa la teoría sensomotora, que Lanillos tratará de reproducir-.

‘Yo sensomotor’ y la inteligencia artificial

“Un robot que sabe que el movimiento que va a hacer tiene una consecuencia, es un robot seguro, que puede interactuar en un entorno que cambia y que puede relacionarse con los humanos”, apunta Lanillos, quien añade que un algoritmo que permita al robot aprender su cuerpo de forma autónoma sería un “gran cambio” en la robótica.

Y es que los robots más complejos de tipo humanoides tienen que saber dónde está su cuerpo en todo momento, primero por razones de seguridad y segundo para ejecutar acciones apropiadas cada vez.

“En mi proyecto, gracias a la incorporación de piel artificial, además de sensores de propriocepción y visión, podremos dotar al robot de la capacidad para no solo aprender su cuerpo (relaciones espacio-temporales entre los diferentes sensores), sino a distinguir entre su cuerpo y otros objetos del entorno o incluso otros agentes. Se trata de crear un modelo que permita aprender el ‘yo sensomotor’”.

La idea es probarlo en un robot de la empresa Pal Robotics, de Barcelona, según Lanillos, quien resume: hoy cualquier robot puede calcular la raíz cuadrada de Pi en menos de un mili segundo, pero tienen problemas para agarrar una manzana en un entorno no controlado.

“Queremos robots que no solo sepan jugar al ajedrez como Kasparow, sino que también jueguen moviendo las piezas de ajedrez, al menos, como un niño de 5 años”. EFE

About The Author

Otras noticias publicadas

Responder

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies