Alertaron que hay que ponerles controles "morales" para evitar que no midan consecuencias a la hora de cumplir sus objetivos.
¿La tecnología se puede volver contra la humanidad?
Científicos de la Universidad de Sunshine Coast, en Australia, tienen la teoría de que la inteligencia artificial altamente desarrollada es capaz de destruir o causar daños catastróficos a la humanidad.
Los expertos prevén que la IA se desarrollará a ritmos agigantados en las próximas décadas y, según ellos, el siguiente paso es la inteligencia artificial fuerte (IAF) también conocida como inteligencia artificial general (IAG), que tendrá capacidades intelectuales muy superiores a las humanas.
Se trata de máquinas que pueden realizar con éxito cualquier tarea intelectual de cualquier ser humano. Los especialistas opinan que la IAF podría cambiar la vida humana para mejor, pero sin control también aumenta el riesgo de desastres globales.
Para alcanzar sus objetivos programados, este tipo de inteligencia artificial puede poner en peligro la salud y el bienestar de una persona o incluso decidir destruirla.
Experimento Santa
Para ilustrar su punto de vista, los especialistas decidieron identificar y analizar los riesgos potenciales de reemplazar a Santa Claus con un sistema artificial IAF, llamándolo SantaNet, cuyo objetivo es entregar regalos a todos los niños del planeta que se comportaron bien.
Fallos en el sistema de decisiones
Los primeros riesgos surgen cuando SantaNet hace una lista de niños buenos y otra de niños traviesos. Esto será manejado por un sistema de vigilancia encubierta masiva que rastrea el comportamiento de los niños durante todo el año. El sistema de decisiones de SantaNet basado en su entendimiento de lo 'bueno' puede conducir a la discriminación, la desigualdad masiva y las violaciones de los derechos humanos.
Así se ven pulmones enfermos de Covid con Inteligencia Artificial
Según los científicos, un hipotético SantaNet también podría reducir la carga de trabajo motivando a los niños a comportarse mal. Cuantos más niños terminen en las listas de traviesos, más alcanzable será el objetivo de SantaNet, ya que el sistema ahorrará sus recursos para el mejor funcionamiento.
Aquí los especialistas recuerdan un problema descrito por el investigador sueco Nick Bostrom en 2003, conocido como el maximizador de clips. La idea consiste en que una inteligencia general artificial encargada de fabricar clips puede convertir toda la materia del universo y los seres humanos en clips o en máquinas que los producen para alcanzar su objetivo.
Los científicos subrayan que principalmente es necesario implementar controles apropiados antes de que llegue la IAF. En ese sentido, aconsejan incluir reguladores integrados en la IAF, como principios morales y reglas de decisión. Asimismo, señalan que deben crearse controles sobre los sistemas más amplios en los que la inteligencia artificial operará como regulaciones, procedimientos operativos en otras tecnologías e infraestructura.
La teletransportación cuántica es un hecho