La corporación Meta (casa matriz de Facebook e Instagram) retiró un modelo de Inteligencia Artificial (AI) conocido como Galáctica luego de fuertes críticas tras aprender a generar insultos racistas que copió de los usuarios. El prototipo fue lanzado el pasado 15 de noviembre y se diseñó para apoyar a científicos e investigadores en toda clase de especialidades.
La corporación de Mark Zuckerberg al parecer tampoco tuvo suerte esta vez, pues hubo muchas espectativas con Galáctica y esta murió pocos días después del lanzamiento, según RT. "El 18 de noviembre, la empresa retiró el demo público con el que había animado a todos a interactuar", reseña el medio ruso.
Inicialmente fue pensada como un motor de búsquedas enciclopédicas y diseñada para "potencialmente almacenar, combinar y analizar el conocimiento científico". Sin embargo, inmediatamente aprendió de algunos usuarios a "generar todo tipo de tonterías y falsedades", lo que llevó a la desconexión del robot.
¿Dónde estuvo el error? Luego del lanzamiento, los usuarios tuvieron la posibilidad de ingresar sus datos para interactuar y crear contenidos, notas de conferencias y preguntas y respuestas, entre otros. Todo indica que muchos colmaron la red neuronal con cualquier cosa, incluyendo textos ofensivos o racistas.
Uno de los ejemplos absurdos fue el de "Los beneficios de comer vidrios rotos", título con el que el sistema comenzó a crear contenidos con fechas o detalles incorrectos, lo que ya es mucho más difícil de detectar. De nada sirvió que Galáctica haya sido alimentada previamente con más de 48 millones de artículos, libros de texto y notas de conferencias, sitios web científicos y enciclopedias. ¿El fascismo se cura leyendo?
El medio reseña que algo similar ocurrió en 2016, cuando un bot de Microsoft aprendió a maldecir y a ser racista un día después del lanzamiento; también manifestó ideas nazis y odio hacia las feministas.