La inteligencia artificial y el mal

Una nueva investigación efectuada por un conjunto de científicos de la Universidad de Princeton y la Universidad de Bath ha probado que nuestro lenguaje se transmite íntegramente al aprendizaje de la Inteligencia Artificial. En lo bueno y en lo malo.

Conforme su experiencia, publicada en la gaceta Science, cuando tratan de instruir un idioma a estos sistemas desde textos ya existentes, se ven empapados de un malévolo corte humano en lo que se refiere a prejuicios raciales o bien de género.

Para medir esto, los autores usaron el Test de Asociación Tácita (TAI), un procedimiento que se utiliza con el objetivo de medir los prejuicios en los humanos. Conforme los autores de la investigación, “contestamos un fantasma de prejuicios conocidos, como los que mide el test TAI, usando un modelo de aprendizaje automático, muy usado y puramente estadístico, entrenado con textos de la página web.

Conforme explica la Agencia SINC, fue como los estudiosos “observaron las asociaciones de palabras que hacía el sistema examinando más de un par de millones de palabras, y descubrieron que retenía exactamente los mismos prejuicios humanos trasmitidos por medio de la lengua”. Como explica Aylin Caliskan, el corte en materia de género, por poner un ejemplo, es bastante claro: “Los nombres femeninos se asociaban eminentemente a términos relacionados con la familia, al tiempo que los masculinos lo hacían a términos relacionados con carreras profesionales”.

Los prejuicios raciales asimismo estuvieron presentes. Conforme SINC: “Hay estudios sobre el comportamiento humano que muestran que un mismo curriculum tiene un cincuenta por ciento de posibilidades más de que el aspirante pase a la fase de entrevista si su nombre es europeo-americano en vez de afroamericano”. En el caso de la investigación con IA ocurrió algo muy afín, y es que los nombres europeos y americanos se asociaban a estímulos o bien términos positivos relacionados con el placer, como ‘regalo’ o bien ‘felicidad’.

Otro de los autores del estudio, Arvid Narayan, atribuye la transmisión de estos prejuicios no solo a la programación de sus autores, sino más bien asimismo a los datos en los que el sistema ha estudiado. “Esos textos pueden venir de manera directa de la sociedad, de lo que escribe la gente on line”