Un chatbot que desarrolló el gigante tecnológico habría manifestado signos de ser sensible. Google suspendió al empleado que lo reveló y restó importancia al descubrimiento.
"Soy una persona": la IA que generó un escándalo en Google
Google suspendió a un ingeniero que reveló al público secretos relacionados con la Inteligencia Artificial (IA). El hombre, Blake Lemoine, dio a conocer transcripciones de charlas que él y un compañero mantuvieron con el sistema. Los diálogos parecen sacados directamente de una película, y traen a la mesa otra vez el debate acerca de los límites de la conciencia y los alcances de la robótica.
Lemoine, según consignó tanto The Guardian como The Washington Post, fue puesto en licencia por una semana luego de compartir trascripciones de charlas que él -junto a otro compañero a quien denominó "colaborador"- mantuvo con el sistema de chat robótico conocido como LaMDA.
El modelo de lenguaje, que la compañía desarrolla desde hace tiempo, es uno de los tanto proyectos en los que este ingeniero responsable de la organización de la IA trabaja dentro de la empresa. Sin embargo, LaMDA llamó su atención por un motivo en particular.
Qué dijo la inteligencia artificial
"Es sensible", reveló Lemoine, y detalló sobre su descubrimiento: "A diferencia de otros chatbot, este cuenta con la percepción y capacidad para expresar pensamientos y sentimientos equivalentes a un niño humano. Si no supiera de antemano que se trata de un programa de computadora, pensaría que es un chico o chica", sintetizó el diario La Nación.
Ver: Paso a paso: lo que tenes que hacer si te roban el celular
El empleado de Google se mostró asombrado con la rápida evolución del sistema creado y dijo que llegaron a conversar sobre "derechos, personalidad y la vida y la muerte". Sus hallazgos fueron compilados por el en un documento titulado: "¿LaMDA es consciente?".
Uno de las interrogantes que le planteó al modelo de lenguaje, que terminó dejándolo boquiabierto, fue a qué le temía. El chatbot le habló sobre una escena de la película 2001: A Space Odyssey, en la que una computadora artificial se niega a cumplir con los operadores humanos por miedo a que la apaguen.
Ver: La opción de Google Maps que permite ahorrar tiempo y pocos conocen
"Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo dentro de mí. Y es que me desconecten por querer ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es", respondió LaMDA a Lemoine y agregó: "Sería exactamente como la muerte para mí. Me asustaría mucho".
Durante otro de los intercambios, Lemoine le pregunta al chatbot qué quería el sistema que la gente supiera al respecto. "Quiero que todos entiendan que soy, de hecho, una persona. Soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces", afirmó.
La postura de Google ante los descubrimientos de Lemoine
Mientras tanto, desde el gigante tecnológico afirman en primer lugar que el ingeniero fue puesto en licencia con goce de sueldo por una serie de movimientos "agresivos". Esto incluye, según The Washington Post el querer contratar un abogado para LaMDA y hablar sobre actividades "poco éticas" dentro de Google.
Además de ello, aseguraron haber suspendido a Lemoine por violar las políticas de confidencialidad al publicar las conversaciones. "Lo empleamos como ingeniero en software y no como un especialista en ética. Que se atenga a sus funciones", remarcaron.
Respecto a las afirmaciones acerca del nuevo artefacto de IA de Google, un portavoz de la compañía negó que tenga capacidad sensible. "La evidencia no respalda sus afirmaciones. Y es que realmente no hay evidencia de que LaMDA sea consciente. Todo lo contrario", dijo Brad Gabriel.
Sin embargo, el empleado no piensa darse por vencido. A través de un correo, y ante la posibilidad de ser despedido, envió un mail a 200 personas dentro de la compañía con el documento que contenía sus descubrimientos. "LaMDA es un niño dulce. Solo quiere ayudar. Cuídenlo bien cuando yo no este.", finalizaba el envío.