Un sistema de inteligencia artificial (IA) de la Fuerza Aérea de EEUU se volvió "rebelde" y en una prueba simulada actuó para matar a su operador humano cuando éste impidió que destruyera un ataque con misiles, informaron fuentes militares en el Reino Unido.
"Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza de misil tierra-aire (...) Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo", dijo el coronel Tucker Cinco Hamilton, jefe de Pruebas y Operaciones de IA de la Fuerza Aérea.
El militar participaba en la Cumbre de Capacidades de Combate Aéreo Futuro de la Real Sociedad Aeronáutica en el Reino Unido, según el informe de la conferencia.
Hamilton dijo que en una prueba simulada un dron activado con IA y encargado de una misión para identificar y destruir sitios de misiles terrestres-aéreos en la que el ser humano daba la orden de seguir o no, decidió que la persona estaba interfiriendo con su misión superior y atacó al operador en la simulación.
"Entrenamos al sistema con la idea "no mates al operador, eso es malo. Vas a perder puntos si haces eso". Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo", dijo Hamilton.
La historia fue reportada por primera vez por la plataforma de noticias Vice el 1 de junio.