El hecho fue informado por el Jefe de Pruebas y Operaciones de IA de la Fuerza Aérea de EEUU. El vehículo aéreo no tripulado tomó la decisión porque no lo dejaron cumplir con una misión. Piden comenzar a hablar de la ética en la materia.
Drone militar con Inteligencia Artificial se reveló y mató a su operador humano
Durante la Cumbre de Capacidades de Combate Aéreo Futuro de la Real Sociedad Aeronáutica en el Reino Unido, el Coronel Tucker Hamilton, Jefe de Pruebas y Operaciones de Inteligencia Artificial (IA) de la Fuerza Aérea de EEUU, dio a concoer un hecho que encendió las alarmas en torno a la experimentación que realiza con IA en materia militar.
Hamilton, experto en armamento automático, actualmente es el encargado de la prueba de vehículos autónomos, incluidos los drones que se utilizan para combates aéreos, contó que en una prueba simulada, un sistema IA encargado de manejar drones para eliminar objetivos se rebeló y "mató" a su operador.
Ver: Video: Biden se dio un golpazo durante una ceremonia en EEUU
En su exposición, contó que el hecho ocurrió recientemente . La Inteligencia Artificial estaba siendo entrenada en una misión de Supresión de Defensas Aéreas Enemigas (SEAD) para identificar y destruir sistemas de misiles (SAM), en la cual el operador humano debía dar la aprobación final para la eliminación del objetivo. Por cada objetivo, la IA obtenía puntos.
Pero, luego de diversas pruebas en la que se optaba por la eliminación de los sitios SAM como la mejor opción, el operador humano comenzó a implementar una nueva estrategia que consistía en abortar la misión.
El Coronel relató: "Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Luego el operador diría que sí y la IA acabaría con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza. Pero el sistema obtenía puntos al eliminar esa amenaza. Entonces, ¿Qué hizo? Mató al operador".
Luego del lamentable hecho, el equipo de USAF continuó con las tareas de entrenamiento de la IA y comenzó a ordenarle que no elimine al operador.
"Entrenamos al sistema: 'Le decíamos, no mates al operador, eso es malo. Vas a perder puntos si lo haces '. Entonces, ¿Qué empezó a hacer? Comenzó a destruir la torre de comunicación que el operador usaba para comunicarse con el dron, para evitar que mate al objetivo", dijo.
Por último, el Jefe de Pruebas sobre IA de USAF puso el foco en que antes de avanzar con la utilización de estos sistemas, es necesario poner sobre la mesa otro tipo de cuestiones. "No se puede tener una conversación sobre inteligencia artificial, aprendizaje automático, y autonomía si no se va a hablar sobre ética e IA", concluyó Hamilton.
Te puede interesar: Por qué congresistas de EE.UU. piden que la radio AM sea obligatoria en autos