Por primera vez, dos sistemas de inteligencia artificial hablan entre sí y se enseñan a completar tareas

Los investigadores suizos utilizaron una técnica basada en redes neuronales artificiales inspiradas en las neuronas biológicas humanas para permitir que una IA enseñara a otra IA a completar tareas mediante la comunicación.

A una IA se le puede encomendar una tarea y la llevará a cabo de forma más o menos impecable. Pero lo que la inteligencia artificial no podía hacer hasta ahora era enseñar a otra IA a hacer una determinada tarea. Pero incluso eso puede conseguirse ahora.

En un experimento, investigadores suizos enseñaron a una IA una serie de tareas básicas. Tras realizarlas, pudo comunicar una descripción hablada de las mismas a una IA “hermana”, que también consiguió realizarlas. Un gran avance en el mundo de la inteligencia artificial, que los suizos lo publicaron en Nature.

Único para los humanos

Realizar una tarea nueva sin práctica y solo a partir de una instrucción era hasta ahora una habilidad exclusivamente humana. Lo que también somos prácticamente los únicos que podemos hacer es describir esa tarea para que otra persona pueda realizarla también. Estas habilidades nos distinguen de otras especies, que necesitan practicar varias veces una nueva tarea seguida de reacciones positivas o negativas antes de poder realizarla realmente. Tampoco son capaces de enseñar la tarea a sus compañeros.

Pero ahora una IA puede hacerlo mediante una técnica basada en redes neuronales artificiales inspiradas en nuestras propias neuronas biológicas. “Ahora mismo, los chatbots pueden tomar por sí mismos información lingüística para producir un texto o una imagen. Pero por lo que sabemos, aún no son capaces de traducir una instrucción hablada o escrita en una acción real, y lo que no pueden hacer todavía en absoluto es explicárselo a otra IA para que la reproduzca”, explica Alexandre Pouget, profesor de la Universidad de Ginebra.

La inteligencia artificial S-Bert

Pero eso estaba fuera del alcance de los investigadores suizos. Consiguieron desarrollar un modelo de IA que podía hacer ambas cosas, aunque aún necesitaba algo de entrenamiento. “Empezamos con un modelo existente llamado S-Bert, que tiene 300 millones de neuronas y está entrenado para entender el lenguaje. Lo conectamos a otra red más sencilla de unos pocos miles de neuronas”, explica el investigador Reidar Riveland.

En la primera fase del experimento, los neurocientíficos entrenaron esta red para simular lo que se conoce como centro de Wernicke, la parte del cerebro que nos ayuda a entender el lenguaje. En la segunda fase, la red se entrenó para reproducir el centro del habla de Broca, encargado de procesar el lenguaje y el habla. A continuación, se enviaron a la IA instrucciones escritas en inglés. Todo el proceso se llevó a cabo en ordenadores portátiles normales.

Por ejemplo, las instrucciones consistían en señalar a la izquierda o a la derecha, dependiendo de dónde se encontrara una señal. La IA también tenía que responder a la señal en direcciones opuestas, o incluso más complejo: apuntar a la más brillante de dos señales visuales con solo una ligera diferencia de contraste.

“Una vez que aprendió estas tareas, la red fue capaz de describirlas a una segunda red, copia de la primera, tras lo cual pudo reproducirlas. Por lo que sabemos, es la primera vez que dos IA pueden hablar entre sí de forma puramente lingüística”, responde Pouget.

Es un avance prometedor

Este modelo es prometedor, especialmente para la robótica, donde hace tiempo que se espera el desarrollo de una tecnología que permita a las máquinas hablar entre ellas. “La red que hemos diseñado es muy pequeña. Pero nada se opone ahora al desarrollo de redes mucho más complejas basadas en nuestro modelo, que podamos integrar en robots capaces de entenderse tanto entre sí como con nosotros”, concluyen los dos investigadores. Un avance interesante del que sin duda oiremos hablar más.

Artículo Anterior Artículo Siguiente

Formulario de contacto