Enseña a tu robot a hacer cosas: Generative-AI para imitar el comportamiento humano
El equipo de Microsoft Research acaba de publicar el pasado 4 de Mayo un interesante paper donde explica cómo han utilizado Modelos de Diffusion para imitar el comportamiento humano y hacer que el aprendizaje de los modelos se parezca mucho al que hacemos las personas cuando somos pequeños, es decir, imitando a los mayores. Solo que en esta caso, se puede aplicar a los robots a hacer cosas como hacen los humanos.
El artículo académico, que está disponible online, se llama “Imitating Human Behavior With Diffusion Models” y básicamente explica cómo utilizan para el entrenamiento del modelo de difusión una serie de imágenes acompañadas del comportamiento humano asociado. Tan sencillo como eso, y tan potente como eso. Y a mí me ha recordado a los juegos de aventuras gráficas en los que cuando entras en una sala – que sería un dataset de imagen – lo primero que haces es buscar todo con lo que puedes interactuar. Pues algo parecido.
Figura 2: “Imitating Human Behavior With Diffusion Models“
En realidad, los seres humanos, cuando recibimos una estímulo en forma de imagen visual o auditiva, actuamos de forma racional – o instintiva – dependiendo del grado de urgencia que asociemos a ese estímulo. Así, si vemos que se va a caer un vaso, nuestro instinto es cogerlo. Mientras que si estamos buscando un vaso en una cocina que no es nuestra, lo que hacemos es abrir el armario que más probabilidades pensamos que tiene para almacenar esos vasos.
Pero nuestra visión nos da más información, y ya sabemos, por el tipo de puerta que tenga ese armario cómo se abre y como se cierra. Sabemos si es corredera, si es batiente o si hay que pulsar un botón. Sabemos si es un pomo que hay que girar con la muñeca o una llave que hay que rotar. Es algo que hemos aprendido en base a experiencia.
Pues bien, el ver una imagen y tener una elección de posible forma de interactuar con el entorno es lo que estos investigadores han entrenado con modelos de diffusion, haciendo lo que se llama “Imitation Learning” o “Behavior Cloning“, y permitiendo que baste con enseñar a un robot un interfaz humano tan complejo como una sección de una cocina, y que aprenda las posibles opciones de interacción con el entorno, tal y como se ve en las animaciones de las interacciones.
Este tipo de aprendizaje por imitación, que utilizamos las personas, ayuda a reducir el tiempo de entrenamiento y enseñanza de tareas a cualquier modelo, y por ejemplo hace que puedas enseñar a un robot a hacer cosas en tu casa, explicándole donde están las cosas en tu casa y cómo se abren las puertas de cada habitación, armario, caja, o cómo se guardan y se colocan los objetos en estanterías y mesas.
Figura 6: Libro de Machine Learning aplicado a Ciberseguridad de Carmen Torrano, Fran Ramírez, Paloma Recuero, José Torres y Santiago Hernández. |
Y puede que también, en un futuro no tan lejano como el que muchos creen, cuando venga un nuevo compañero de trabajo que sea un humano sintético robótico impreso en 3D que sientes en un puesto de trabajo a manejar una consola a gestionar las alertas en Security Operations Center, ¿por qué no aplicar esto al uso de la IA en Ciberseguridad?
Os recomiendo que le echéis una lectura al artículo académico, que está muy bien explicado y es bastante sencillo de entender el proceso de entrenamiento y las pruebas que han seguido. Otra utilidad más a estos modelos de diffusion que lo mismo los utilizamos para esto, que para “leerte” la mente, que para que aprendan a hacer imágenes impactantes de ti mismo con solo 20 fotografías, como tienes disponible en MyPublicInbox.
¡Saludos Malignos!
Autor: Chema Alonso (Contactar con Chema Alonso)
Powered by WPeMatico