Vie. 27 Diciembre 2024 Actualizado Sábado, 14. Diciembre 2024 - 10:42

FeEeErDX0AMazpx.jpeg

El modelo de Inteligencia Artificial solo duró pocos días luego de su lanzamiento (Foto: Meta)

Meta desactiva modelo de Inteligencia Artificial porque aprendió a ser racista

La corporación Meta (casa matriz de Facebook e Instagram) retiró un modelo de Inteligencia Artificial (AI) conocido como Galáctica luego de fuertes críticas tras aprender a generar insultos racistas que copió de los usuarios. El prototipo fue lanzado el pasado 15 de noviembre y se diseñó para apoyar a científicos e investigadores en toda clase de especialidades.

La corporación de Mark Zuckerberg al parecer tampoco tuvo suerte esta vez, pues hubo muchas espectativas con Galáctica y esta murió pocos días después del lanzamiento, según RT. "El 18 de noviembre, la empresa retiró el demo público con el que había animado a todos a interactuar", reseña el medio ruso.

Inicialmente fue pensada como un motor de búsquedas enciclopédicas y diseñada para "potencialmente almacenar, combinar y analizar el conocimiento científico". Sin embargo, inmediatamente aprendió de algunos usuarios a "generar todo tipo de tonterías y falsedades", lo que llevó a la desconexión del robot.

¿Dónde estuvo el error? Luego del lanzamiento, los usuarios tuvieron la posibilidad de ingresar sus datos para interactuar y crear contenidos, notas de conferencias y preguntas y respuestas, entre otros. Todo indica que muchos colmaron la red neuronal con cualquier cosa, incluyendo textos ofensivos o racistas.

Uno de los ejemplos absurdos fue el de "Los beneficios de comer vidrios rotos", título con el que el sistema comenzó a crear contenidos con fechas o detalles incorrectos, lo que ya es mucho más difícil de detectar. De nada sirvió que Galáctica haya sido alimentada previamente con más de 48 millones de artículos, libros de texto y notas de conferencias, sitios web científicos y enciclopedias. ¿El fascismo se cura leyendo?

El medio reseña que algo similar ocurrió en 2016, cuando un bot de Microsoft aprendió a maldecir y a ser racista un día después del lanzamiento; también manifestó ideas nazis y odio hacia las feministas.

— Somos un grupo de investigadores independientes dedicados a analizar el proceso de guerra contra Venezuela y sus implicaciones globales. Desde el principio nuestro contenido ha sido de libre uso. Dependemos de donaciones y colaboraciones para sostener este proyecto, si deseas contribuir con Misión Verdad puedes hacerlo aquí<