Deep Mind, la empresa de Google especializada en inteligencia artificial, y el Instituto para el Futuro de la Humanidad (FHI, por sus siglas en inglés) de la Universidad de Oxford han desarrollado de forma conjunta un “gran botón rojo” de emergencia para evitar que las máquinas realicen una “secuencia de acciones dañinas” para el entorno, el operador humano o para ellas mismas y poder “guiarlas a una situación segura”.

Los desarrolladores se han asegurado de que las máquinas no puedan aprender a prevenir, impedir o provocar estas interrupciones, reseña El País.

“Es improbable que los agentes de aprendizaje que interaccionan con un ambiente tan complejo como el mundo real se comporten de manera óptima todo el tiempo”, reconocen los autores del estudio Agentes que se pueden interrumpir de manera segura.

Los investigadores sostienen que han creado un “marco de trabajo que permite al operador humano interrumpir de forma segura (e incluso de forma repetida)” determinados tipos de inteligencia artificial. Además, se han asegurado de que las máquinas no puedan aprender a prevenir, impedir o provocar estas interrupciones.

“Esta forma de interrupción segura puede ser muy útil para tomar el control de un robot que se está comportando mal y que puede llevar a consecuencias irreversibles; también para que supere una situación delicada o realice una tarea para la que no había aprendido a comportarse”, reflexionan los autores del estudio. “Pero no está claro si todos los algoritmos pueden ser fácilmente interrumpibles”, admiten.