Dom. 24 Octubre 2021 Actualizado 8:13 am

IMG_20211005_070054_764.jpg

Facebook no muestra intención de abordar el daño potencial que está causando socialmente (Foto: Reuters)
Filtraron investigaciones confidenciales de la compañía

Facebook bajo escrutinio por su impacto negativo en la sociedad

La noticia más importante de la semana sobre las redes sociales ha sido la interrupción masiva de Facebook, Instagram y WhatsApp. Seguidamente, se produjo una de las mayores filtraciones de datos personales en Facebook. Los hackers han puesto esos datos a la venta en un popular foro de la Darknet.

Se trata de los nombres, correos electrónicos, números de teléfono y direcciones de 1 mil 500 millones de usuarios de Facebook. Los piratas informáticos han hecho públicos los detalles de 20 usuarios de Facebook para verificar la exactitud de los datos.

Tras la noticia, el director ejecutivo de Facebook, Mark Zuckerberg, perdió 6 mil 600 millones de dólares. Como resultado, bajó al sexto puesto en la lista de multimillonarios, según Forbes.

Sin embargo, eso no debería opacar otro tema que se ha venido conociendo recientemente: la colección de documentos internos de la compañía que revelan varias investigaciones sobre el impacto de la red social en la sociedad, tal y como The Wall Street Journal (WSJ) ha ido publicando de forma serial en The Facebook Files.

Los documentos filtrados evidencian que Facebook, incluyendo Mark Zuckerberg, está al tanto de malas prácticas y fallas dentro de la plataforma que tienen efectos nocivos en la sociedad, y no han tomado cartas en el asunto para corregirlas porque eso podría perjudicar su negocio.

Un portavoz de Facebook respondió diciendo que las filtraciones estaban engañando al público y eclipsando la investigación positiva de la compañía.

La serie completa de archivos de Facebook arroja varias claves que ayudan a develar la verdadera imagen del gigante de Silicon Valley.

Usuarios VIP que pasan por encima de las normas de uso

En teoría, la red social más famosa y concurrida a nivel global tiene una serie de normas y reglamentos que deben ser cumplidas por los 2 mil 900 millones de usuarios que la frecuentan. En la práctica, la empresa ha creado un mecanismo para que figuras de las élites puedan saltarse algunas o todas las restricciones.

Se trata de "cross check" o "XCheck", un programa que inicialmente se concibió para que funcionara como una medida de control de calidad ante acciones que se tomaran en la red contra celebridades, políticos, periodistas y otras figuras de alto perfil, pero que actualmente le ofrece facilidades a 5,8 millones de usuarios en lo relativo a la aplicación de las normas de comportamiento.

Dice la investigación del WSJ:

"Algunos usuarios están en la 'lista blanca', es decir, son inmunes a las medidas coercitivas, mientras que a otros se les permite publicar material que infringe las normas a la espera de las revisiones de los empleados de Facebook, que a menudo nunca llegan".

Cambios en el algoritmo para priorizar contenidos de odio, violencia y sensacionalismo

En el año 2018, Zuckerberg anunció un cambio en el algoritmo que, según sus palabras, tenía el objetivo de que los usuarios de Facebook interactuaran más con el contenido publicado por amigos y familiares, en detrimento del contenido elaborado por profesionales, lo que se traduciría en beneficios para la salud mental de los individuos y los vínculos de la comunidad.

Sin embargo, había un motivo menos comentado por el CEO de la empresa para tomar la decisión, y era que las personas estaban utilizando menos la red social.

Un equipo de investigadores de la empresa evaluó el cambio y detectó que estaba teniendo un resultado contrario a lo que era el objetivo declarado, pues el algoritmo comenzó a priorizar las voces de cuentas que compartían contenidos con características de odio, violencia, sensacionalismo, divisionismo y desinformación.

Algunos editores y partidos políticos identificaron que ese tipo de mensajes producían altos niveles de comentarios y reacciones, por lo que replantearon su estrategia hacia publicaciones que generaran esas reacciones y así tener más visibilidad en la plataforma, según los informes internos a los que tuvo acceso WSJ.

A Mark Zuckerberg le presentaron un conjunto de posibles medidas para detener la tendencia del algoritmo a premiar ese tipo de conductas negativas y esto fue lo que el WSJ escribió de su reacción: "Zuckerberg se resistió a algunas de las correcciones propuestas, según los documentos, porque le preocupaba que pudieran perjudicar el otro objetivo de la empresa: que los usuarios se comprometan más con Facebook".

Un caso particular reseñado en las investigaciones es el de Anna Stepanov, directora del equipo que se ocupaba de mejorar la fiabilidad de la plataforma, que escribió un memorando interno en abril de 2020 donde detallaba que se reunió con Zuckerberg y le presentó varias alternativas para evitar la divulgación de noticias falsas y divisionistas.

"Uno de esos cambios habría eliminado un impulso que el algoritmo daba a los contenidos con más probabilidades de ser reenviados por largas cadenas de usuarios", así que no procedió.

FACEBOOK sabe de los efectos nocivos de Instagram en niños y adolescentes

Otro dato que revelan los informes internos de Facebook es que la empresa sabe, desde hace por lo menos tres años, que Instagram afecta negativamente a millones de jóvenes que están expuestos a esa red social y sus productos. La situación es más perjudicial para adolescentes.

La investigación realizada por los empleados de la compañía encargados de examinar la red social señaló que algunos de los problemas son característicos de Instagram y no se producen en el uso de otras redes sociales.

"El 32% de las adolescentes dijo que cuando se sentían mal, Instagram las hacía sentir peor [...] Los adolescentes culparon a Instagram de aumentar los niveles de ansiedad y depresión. Esta respuesta ha sido imprevisible y constante en todos los grupos".

Negocios son negocios. Sabiendo internamente lo que ocurre con la interacción de jóvenes en Instagram, Facebook ha asegurado que no existen efectos perjudiciales para ese segmento de la población y puso en marcha el desarrollo de "Instagram Kids", una adaptación para captar consumidores infantiles de su producto. Una vez que salió el reportaje de WSJ, Facebook pausó su lanzamiento.

LA RED SOCIAL refuerza la duda y el miedo sobre el despliegue de la vacuna covid-19

La plataforma también influye en las reacciones de la gente a los acontecimientos clave, como por ejemplo la introducción de la vacuna covid-19.

"El 41% de los comentarios en los posts en inglés relacionados con las vacunas corren el riesgo de desaconsejar la vacunación. Los usuarios han visto comentarios sobre las publicaciones de vacunas 775 millones de veces al día, y a los investigadores de Facebook les preocupa que la mayoría de los comentarios negativos puedan afectar a la percepción de la seguridad de las vacunas".

A diferencia de la mayoría de las empresas, las decisiones de Facebook pueden alterar significativamente la percepción pública y provocar graves daños en el mundo real. Alrededor del 70% de los estadounidenses confían ahora en la plataforma para obtener contenidos informativos y, como muestran estos estudios, se ha convertido en una fuente de influencia clave en muchos sentidos.

Lo esencial de la investigación del WSJ es que Facebook sabe que está causando un daño público generalizado y reforzando elementos negativos, pero ha tardado en responder porque podría perjudicar el uso.

Dado que Facebook es utilizado por casi 3 mil millones de personas y podría decirse que tiene la mayor influencia de todas las plataformas de la historia, las revelaciones tienen mayor relevancia porque sugieren que Facebook ha tomado activamente decisiones empresariales sobre cuestiones que se han asociado con el daño público. La influencia y el poder que tiene la plataforma para empujar las tendencias del mundo real es demasiado grande como para no estar alerta.

— Somos un grupo de investigadores independientes dedicados a analizar el proceso de guerra contra Venezuela y sus implicaciones globales. Desde el principio nuestro contenido ha sido de libre uso. Dependemos de donaciones y colaboraciones para sostener este proyecto, si deseas contribuir con Misión Verdad puedes hacerlo aquí<