(c) 2021, The Washington Post - Elizabeth Dwoskin
Un nuevo estudio sobre el comportamiento de los usuarios en Facebook durante el tiempo de las elecciones de 2020 podría darle más fuerza al argumento que los críticos vienen haciendo desde hace tiempo sobre cómo el algoritmo de la compañía promueve la propagación de desinformación por encima de fuentes de información más confiables.
El estudio, ya evaluado por pares y realizado por investigadores de la Universidad de Nueva York (NYU, por sus siglas en inglés) y la Université Grenoble Alpes en Francia ha encontrado que desde agosto de 2020 a enero 2021, usuarios y páginas conocidas por diseminar desinformación fueron seis veces más compartidas, o recibieron más “me gusta”, o tuvieron mayores interacciones dentro de la plataforma que las fuentes de noticias como CNN o la Organización Mundial de la Salud.
Desde que las “noticias falsas” en Facebook se convirtieron en una preocupación pública después de las elecciones presidenciales de 2016 en EEUU, los usuarios y páginas que trafican con desinformación han probado una y otra vez que son capaces de ganar mayores audiencias dentro de la plataforma. Pero el estudio de NYU es uno de los pocos intentos por medir de una manera extensa los contenidos y aislar el efecto de la desinformación en relación con un variado grupo de usuarios y páginas de Facebook, dijeron los expertos, y sus conclusiones respaldan las críticas que argumentan que la plataforma de Facebook recompensa a los usuarios y páginas que publican información engañosa.
El estudio “ayuda a agregar datos al creciente cuerpo de evidencia que, a pesar de variados esfuerzos de mitigación, la desinformación ha encontrado un hogar cómodo – y una audiencia atenta – en Facebook”, dijo Rebekah Tromble, directora del Instituto para Data, Democracia y Política en la Universidad George Washington, quien evaluó los resultados del estudio.
En respuesta, Facebook dijo que el reporte mide el número de personas que se relacionan con el contenido, pero ésa no es una medida de las personas que de hecho lo ven (Facebook no compartió esa cifra, conocida como “impresiones”, con los investigadores).
“Este informe estudia en su mayoría cómo las personas se relacionan con los contenidos, lo cual no debe ser confundido con cuántas personas de hecho lo ven en Facebook”, dijo el vocero de Facebook, Joe Osborne. “Cuando uno observa el contenido que tiene más alcance en toda la plataforma Facebook, es distinto de lo que este estudio sugiere”.
Añadió que la compañía tiene 80 evaluadores de contenido y monitores de datos en 60 idiomas que trabajan para catalogar y reducir la distribución de información falsa.
Los autores del estudio se basaron en las categorizaciones hechas por dos organizaciones sin fines de lucro que estudian la desinformación, NewsGuard y Media Bias/Fact Check. Ambos grupos han categorizado a miles de usuarios y páginas de Facebook por sus inclinaciones políticas, yendo desde la extrema izquierda a la extrema derecha, y por su tendencia a compartir noticias veraces o noticias falsas. El equipo luego tomó 2.551 de estas páginas y comparó las interacciones que tuvieron con páginas conocidas por propagar desinformación, como la izquierdista Occupy Democrats y las derechistas Dan Bongino y Breitbart, en relación con las interacciones que tuvieron con las publicaciones de páginas consideradas confiables.
Los investigadores también encontraron que el incremento estadísticamente significativo de la desinformación es políticamente neutral – páginas que propagan desinformación, desde la extrema izquierda hasta la extrema derecha, generan mucha más interacción de los usuarios de Facebook de lo que lo hacen las páginas denominadas confiables de cualquier tendencia política. Pero las páginas de la derecha tienen una mucho mayor tendencia a compartir información engañosa en comparación con las páginas de otras categorías políticas, según el estudio. Este último hallazgo hace eco a las conclusiones de otros investigadores, así como a las propias evaluaciones internas de Facebook de cara a las elecciones de intermedias de 2018, de acuerdo a los reportes del Washington Post.
Occupy Democrats, Bongino y Breitbart no han respondido hasta el momento a una solicitud de comentario.
Los críticos de Facebook han postulado por mucho tiempo que los contenidos engañosos e inflamatorios que a menudo refuerzan los puntos de vista de los usuarios generan una atención significativamente mayor y reciben un número mucho mas alto de clics de lo que lo hacen las noticias de los medios denominados confiables.
Este argumento – el cual ha sido reiterado por miembros del Congreso así como por ingenieros de Silicon Valley en películas como “El Dilema Social” (“The Social Dilema”) – ha ganado una importante relevancia durante la pandemia. Teorías de conspiración sobre el covid-19 y las vacunas, junto con desinformación sobre los tratamientos y curas, se han hecho virales, y pueden haber influenciado las opiniones de un gran número de estadounidenses. Una encuesta reciente llevada a cabo por el COVID States Project encontró que los usuarios estadounidenses de Facebook eran menos propensos a vacunarse que los usuarios que reciben sus noticias de otras fuentes, incluso que consumidores de la derechista Fox News.
El presidente Biden aumentó la presión en julio cuando dijo que la desinformación relacionada al Covid que se propaga en Facebook estaba “matando a personas”, un comentario del que luego se retractó.
Pero ha habido poca data robusta para respaldar las acusaciones sobre el daño causado por el algoritmo de Facebook, en parte porque Facebook ha limitado la data accesible a los investigadores, dijo Tromble.
En 2018, un estudio de MIT sobre historias engañosas en Twitter – una plataforma cuyo contenido, a diferencia de Facebook, es en su mayoría público – encontró que también recibieron más atención que las historias fácticas. Otros estudios han encontrado que la interacción con la desinformación no es tan amplia como muchas personas piensan, y que las personas que consumen y propagan desinformación tienden a ser un pequeño número de personas altamente motivadas y activas.
Facebook también está restringiendo cada vez más el acceso que tienen grupos externos para intentar minar la data de la compañía. Durante varios meses, la Casa Blanca le ha solicitado a Facebook información sobre la extensión de la propagación de la desinformación sobre el Covid en la plataforma, pero la compañía no la ha suministrado.
Una de las investigadoras a las que Facebook le ha coartado el acceso es a Laura Edelson, investigadora de NYU, quien llevó a cabo el estudio. La compañía le cortó las cuentas a ella y a su colega el mes pasado, argumentando que su recolección de datos – que se basaba en la descarga voluntaria por parte de los usuarios de un software que les permite a los investigadores rastrear los anuncios que ven – podría poner a Facebook en violación de los reglamentos de privacidad establecidos en 2019 por la Comisión Federal de Comercio de EEUU (US Federal Trade Commission, FTC por sus siglas en inglés).
La comisión, en una poco común refutación, señaló que los reglamentos de privacidad permiten excepciones para investigadores y que Facebook no debería usar ese argumento como excusa para negarle al público la posibilidad de entender el comportamiento de las personas en las redes sociales.
Edelson señaló que porque Facebook paró su proyecto, llamado el Observatorio de Anuncios Publicitarios de NYU (NYU Ad Observatory), el mes pasado, ella no podrá continuar investigando el alcance y el impacto que tiene la desinformación en la plataforma.
En respuesta a las críticas sobre falta de transparencia, Facebook recientemente publicó un nuevo informe de transparencia que muestra los contenidos más populares en la plataforma cada trimestre. Pero el informe es altamente editado, y Facebook censuró una versión anterior del mismo por preocupaciones sobre las posibilidades de que generara críticas de la prensa, de acuerdo a una persona que conoce las discusiones y que habló en condición de anonimato para describir conversaciones privadas. Eso llevó a los críticos a argumentar que la compañía no estaba siendo transparente.
Una de las razones por las que es difícil decir qué tanto acceso tiene las personas a la desinformación en Facebook en particular es porque mucho del contenido es compartido por grupos privados, dijo Tromble.
Para llevar a cabo el estudio, el equipo de Edelson usó una herramienta analítica propiedad de Facebook, llamada CrowdTangle, para realizar los análisis. La herramienta es a menudo utilizada por los periodistas e investigadores para rastrear la popularidad de las publicaciones. Pero CrowdTangle también tiene sus limitaciones: la herramienta dice cuántos “me gusta” y cuántas veces es compartida una publicación en particular, pero no revela lo que se conoce como “impresiones”, o cuántas personas vieron el contenido.
Edelson dijo que el estudio muestra que el algoritmo de Facebook no estaba recompensando militancias o sesgos, o que estaba favoreciendo las páginas de un lado del espectro político en particular, como muchos críticos han señalado. Indicó que Facebook amplifica la desinformación porque genera la atención de los usuarios, y las páginas que resultan tener más desinformación son las de la derecha. Entre las páginas categorizadas como de extrema derecha, aquellos que comparten desinformación reciben la mayoría – o el 68% – de todas las interacciones de los usuarios.
Información de la Autora:
Lizza se unió al Washington Post como corresponsal para Silicon Valley en 2016, convirtiéndose en los ojos y oídos del periódico en la región. Se enfoca en las redes sociales y en el poder de la industria de la tecnología en una sociedad democrática. Antes de esto, ella fue la primera reportera a tiempo completo del Wall Street Journal cubriendo Inteligencia Artificial y el impacto de los algoritmos en las vidas de las personas.
Lea el artículo original aquí.