Una universidad descubrió que la Inteligencia Artificial de la red había censurado sin fundamentos el 82% de los comentarios sobre ajedrez.
Youtube censuró un canal de ajedrez por hablar de "blancas y negras"
La Inteligencia Artificial usada por las distintas redes o apps para detectar contenido "no deseable" a veces termina siendo muy poco inteligente y censura sin fundamentos.
Esto se vio luego de que un estudio revelara que Youtube borró varios videos de ajedrez por considerar que "blancas contra negras" era un mensaje racista.
No es la única vez que la IA comete estos errores ridículos, recientemente, en Facebook censuraron un anuncio que tenía una foto de cebollas porque la "inteligencia" consideró que era un cuerpo desnudo. Antes, en 2018, los sistemas automatizados de Facebook eliminaron una publicación con extractos de la Declaración de Independencia de Estados Unidos por considerar que contenía discurso de odio.
El error de Youtube fue descubierto por investigadores de la Universidad Carnegie Mellon, en Pensilvania, Estados Unidos, que analizaron los motivos por los que un popular canal de ajedrez en YouTube fue bloqueado el año pasado por supuestamente incluir "contenido dañino y peligroso". La conclusión fue que el sistema de inteligencia artificial de la plataforma revisó las conversaciones en los videos, encontró frases como "blanco contra negro" (evidentes referencias a las piezas del juego) y catalogó ese contenido dentro de los discursos de odio.
Los chicos quedaron expuestos a contenido inapropiado en la web durante la pandemia
En junio de 2020, el canal de YouTube del ajedrecista croata Antonio Radic (conocido por su alias Agadmator) fue bloqueado mientras presentaba un video con el maestro de la disciplina Hikaru Nakamura.
En primera instancia, Google no explicó las razones de la decisión. El canal fue restablecido luego de 24 horas y Radic sospechó que las referencias a las fichas del juego habían sido los detonantes del bloqueo.
"Si confían en la inteligencia artificial para detectar el lenguaje racista, este tipo de accidentes pueden suceder", dijo uno de los investigadores del Instituto de Tecnologías del Lenguaje, de la universidad que hizo el estudio. Para corroborarlo, el científico filtró casi 700.000 comentarios en canales de YouTube centrados en el ajedrez.
Después de revisar manualmente una selección de 1.000 comentarios que la inteligencia artificial de YouTube había clasificado como discursos de odio, encontraron que el 82% de ellos habían sido clasificados erróneamente debido al uso de palabras como "negro", "blanco", "ataque" y "amenaza", terminología usual en el juego de mesa.
¿La tecnología se puede volver contra la humanidad?