El ‘aprendizaje profundo’ ayuda a los robots a agarrar y mover objetos con facilidad

Investigadores de la Universidad de California, Berkeley, han creado un nuevo software de inteligencia artificial que proporciona a los robots la velocidad y la habilidad de agarrar y mover objetos sin problemas, haciendo factible que pronto puedan ayudar a los humanos en los almacenes. La tecnología se describió en un artículo publicado en la revista Science Robotics.

La automatización de las tareas de almacén puede ser un desafío porque muchas acciones que son naturales para los humanos – como decidir dónde y cómo recoger diferentes tipos de objetos y luego coordinar los movimientos de hombros, brazos y muñecas necesarios para mover cada objeto de un lugar a otro – son en realidad bastante difíciles para los robots. El movimiento robótico también tiende a ser brusco, lo que puede aumentar el riesgo de dañar tanto los productos como los robots.

Cómo el aprendizaje profundo da toque a los robots ...

«Los almacenes siguen estando operados principalmente por humanos, porque todavía es muy difícil para los robots agarrar de manera fiable muchos objetos diferentes», dijo Ken Goldberg, de la UC Berkeley y autor principal del estudio. «En una línea de ensamblaje de automóviles, el mismo movimiento se repite una y otra vez, para que pueda ser automatizado. Pero en un almacén, cada pedido es diferente».

En trabajos anteriores, Goldberg y el investigador postdoctoral de la UC Berkeley, Jeffrey Ichnowski, crearon un planificador de movimiento optimizado para el agarre, que podía calcular cómo un robot debía recoger un objeto y cómo debía moverse para transferir el objeto de un lugar a otro.

Sin embargo, los movimientos generados por este planificador eran espasmódicos. Si bien los parámetros del software podían ser ajustados para generar movimientos más suaves, estos cálculos tardaban un promedio de medio minuto en ser calculados.

En el nuevo estudio, Goldberg e Ichnowski, en colaboración con el estudiante graduado de la UC Berkeley Yahav Avigal y el estudiante universitario Vishal Satish, aceleraron dramáticamente el tiempo de computación del planificador de movimiento integrando una red neural de aprendizaje profundo.

Las redes neuronales permiten a un robot aprender de los ejemplos. Más tarde, el robot puede a menudo generalizar ante objetos y movimientos similares.

Ver también:  El primer avión eléctrico de la NASA realiza pruebas en un túnel de viento

Sin embargo, estas aproximaciones no siempre son lo suficientemente precisas. Goldberg e Ichnowski encontraron que la aproximación generada por la red neural podía ser optimizada usando el planificador de movimiento.

[Img #62461]
Investigadores de UC Berkeley han desarrollado un nuevo software de robótica que combina las redes neuronales de aprendizaje profundo con la optimización de la planificación del movimiento para calcular rápidamente cómo agarrar y mover objetos con rapidez y suavidad. (Foto: UC Berkeley/Adam Lau)

«La red neuronal solo tarda unos pocos milisegundos en calcular un movimiento aproximado. Es muy rápido, pero es inexacto», dijo Ichnowski. «Sin embargo, si alimentamos esa aproximación en el planificador de movimiento, este solo necesita unas pocas iteraciones para calcular el movimiento final».

Combinando la red neural con el planificador de movimientos, el equipo redujo el tiempo medio de cálculo de 29 segundos a 80 milisegundos, o menos de una décima de segundo.

Goldberg predice que, con este y otros avances en la tecnología robótica, los robots podrían estar ayudando en los entornos de los almacenes en los próximos años.

«La compra de comestibles, productos farmacéuticos, ropa y muchas otras cosas ha cambiado como resultado de la COVID-19, y es probable que la gente siga comprando de esta manera incluso después de que la pandemia haya terminado», dijo Goldberg. «Esta es una nueva y emocionante oportunidad para que los robots apoyen a los trabajadores humanos».

NCYT Amazings

Apoya el blog 🤝


Si te gusta nuestro contenido te recomendamos seguirnos en Facebook o suscribirte a nuestro canal de Telegram

Deja un comentario