Especial para The Washington Post - Stephanie Valencia
La publicación de documentos internos de Facebook que muestran que la plataforma no está haciendo lo suficiente por detener la propagación masiva de mentiras y desinformación ha provocado indignación en todo el país. Sin embargo, a pesar de lo graves que son estos problemas en inglés, son aún peores en otros idiomas: Facebook ha admitido que su plataforma se utilizó para incitar la violencia contra los musulmanes rohingya en Myanmar, mientras que en Filipinas, el sitio ayudó a impulsar una violenta guerra contra las drogas y ataques contra periodistas disidentes. Las plataformas de redes sociales están permitiendo que se difunda mucha más información falsa en otros idiomas que en inglés.
Pero parte de la información falsa más aterradora que se encuentra en línea se está propagando aquí mismo en los Estados Unidos, en español.
Trabajé en Google entre 2015 y 2018 y vi el poder que tiene el Internet para fomentar la comunidad, mantener a la familia conectada y ayudar a las pequeñas empresas. Incluso puede alimentar movimientos sociales, desde las protestas más recientes en Cuba hasta la rendición de cuentas de la policía. Sin embargo, también vi de primera mano cómo las plataformas usan las magníficas posibilidades que ofrece el Internet como un escudo para ocultar lo que realmente sucede en las profundidades del llamado lado oscuro. Vivimos con las consecuencias de años de inacción, que han producido un tiroteo masivo contra latinos en El Paso, una insurrección contra el Capitolio y muertes por desinformación respecto a las vacunas.
Las comunidades hispanas de EEUU mantienen fuertes conexiones con América Latina; el resultado es todo un continente de desinformación en español que se propaga sin control por todas las plataformas. Los latinos son más susceptibles a la información falsa simplemente por la cantidad de tiempo que pasamos en línea: el doble en YouTube que los adultos no latinos, por ejemplo, según la última investigación de Equis, la organización donde trabajo, que se dedica a investigar al electorado latino en EEUU. Dos tercios de los latinos tratan a YouTube como su fuente principal de noticias e información sobre política y elecciones. La mitad de los latinos en Estados Unidos usa WhatsApp, la plataforma de mensajería propiedad de Facebook, más que cualquier otro grupo étnico o racial del país.
Las narrativas de desinformación en español a menudo comienzan en Facebook o YouTube, pero luego las conversaciones o el contenido viral se trasladan a grupos cerrados de WhatsApp donde hay menos posibilidades de que intervengan los verificadores de datos. Incluso con toda la desinformación que se propaga en WhatsApp, el fundador y director ejecutivo de Facebook, Mark Zuckerberg, todavía se oponía a tener un "centro de información electoral" para hispanoparlantes en la plataforma antes de las elecciones de 2020 porque pensaba que no era "políticamente neutral", según el Washington Post. (El portavoz de Facebook Andy Stone dijo esta semana que "esto es falso" y que WhatsApp lanzó campañas bilingües el año pasado sobre información de registro de votantes y verificación de datos).
Muchas páginas y grupos de redes sociales en español son puertas de entrada a sistemas de explotación y corrupción, lo que permite a los traficantes captar a migrantes y refugiados desesperados y difundir información falsa sobre el covid-19 y las vacunas tan rápido como el meme "Dios Te Bendiga" de su tía. Estas plataformas tecnológicas no sólo difunden un discurso de odio racista contra los latinos; también están difundiendo con frecuencia tropos raciales que perpetúan el colorismo y la lucha contra la negritud, lo que ayuda a abrir una brecha entre las comunidades latinas y negras.
Nuestra investigación muestra que las redes sociales están haciendo un mal trabajo al abordar la desinformación en español, teniendo menos moderación y dejando las publicaciones dañinas más tiempo que en inglés. Facebook todavía tiene publicaciones en español activas desde noviembre de 2020 que promueven mentiras electorales y aún hoy no tienen etiquetas de advertencia. Facebook y YouTube anunciaron políticas para eliminar o restringir el contenido de QAnon, pero éste continuó difundiéndose en español. Las plataformas permitieron que el contenido permaneciera activo durante semanas hasta que nosotros los etiquetamos por ellos, y aún así se negaron a eliminar algunos. (Debido a que las plataformas controlan la mayoría de los datos sobre lo que se publica en estas redes, es difícil estimar la escala general del problema).
Las páginas de Facebook que estábamos rastreando el año pasado difundieron la mentira de que los muertos votaron en Nevada durante las elecciones de 2020, un reclamo que los colaboradores de chequeo de datos de Facebook calificaron como falso en repetidas ocasiones. Las páginas que publican el reclamo en inglés tenían las publicaciones etiquetadas como "información falsa". Una publicación similar en español, compartida cientos de veces, todavía no tiene etiqueta hoy.
Más recientemente, hemos visto que Facebook etiqueta el contenido de información falsa sobre las vacunas en inglés, pero el mismo contenido en español tarda días en ser etiquetado, si es que alguna vez se clasifica. El grupo activista en línea Avaaz descubrió que Facebook no emitió catalogó advertencias en un 70% de la información falsa en español, en comparación con un 29% en inglés. Tampoco el problema es sólo en español: la denunciante Frances Haugen, en su testimonio ante el Congreso, reveló que el 87% del gasto en desinformación está destinado al inglés, pero sólo alrededor del 9% de los usuarios son angloparlantes. Haugen expuso cómo los incentivos a las ganancias de la empresa la llevan a no ofrecer los mismos sistemas de seguridad para todos los idiomas de la plataforma o para todos los países donde se usa Facebook: "Cada vez que Facebook se expande a una nueva lengua, crear los sistemas de seguridad para ese idioma cuesta al menos lo mismo que lo que fue el costo en inglés o francés", dijo Haugen en una entrevista de 60 Minutes. "Cada nuevo idioma cuesta más dinero, pero tiene menos clientes. Y por tanto Facebook considera que el perfil financiero de implementar seguridad adecuada en esas áreas del mundo no tiene sentido".
Cuando un jugador de fútbol sufrió un colapso cardíaco durante un partido internacional este año, las cuentas de las redes sociales contra la vacuna resaltaron el hecho, alegando falsamente que el incidente estaba relacionado con la vacuna contra el coronavirus (el jugador no había sido vacunado, dijo su entrenador). Varias páginas de Facebook que encontramos compartiendo la mentira en inglés fueron catalogadas casi de inmediato como falsas. Pero la misma mentira publicada en una destacada cuenta de desinformación en español se mantuve durante días, una cantidad enorme de tiempo para que una información falsa cause estragos, siendo compartida cientos de veces antes de ser etiquetada.
A fines del año pasado, Facebook dijo que estaba prohibiendo el contenido que promoviera la información falsa de que la vacuna contenía un microchip. Desde entonces, hemos visto a Facebook clasificar varias publicaciones en inglés que promocionan esta narrativa, pero publicaciones similares que hemos rastreado en español aún no tienen etiqueta.
Las plataformas no manejan la información falsa en inglés de la misma manera que en otros idiomas. Las empresas de redes sociales no sólo han subestimado el problema, sino que han decidido dejar que sus algoritmos promuevan el odio y la desinformación porque la división genera más clics, más tráfico y más ganancias. Como mínimo, las plataformas deberían realizar la inversión necesaria para llevar a cabo las mismas acciones en el contenido en español que las que llevan a cabo en inglés. Pero han optado conscientemente por no destinar recursos para abordar estos problemas. Para muestra de que podrían hacerlo, sólo hay que ver la eficacia con la que YouTube identifica y elimina rápidamente el contenido que infringe las leyes de derechos de autor para proteger las ganancias.
Los activistas están presionando por un conjunto de soluciones que las plataformas pudieran implementar, incluida la apertura de un cargo ejecutivo que supervise la moderación del contenido en español, expanda la capacidad de moderación en el idioma castellano y permita que los sistemas y procesos de moderación de la empresa sean más transparentes, pero ninguna de estas propuestas ha sido considerada seriamente. Al contrario, Facebook y las otras plataformas han demostrado repetidas veces que no resolverán este problema. La falta de autocorrección de las plataformas ha llevado a muchos activistas a solicitar que el Congreso y la administración Biden exijan respuestas y regulen a las plataformas o, en el caso de Facebook y WhatsApp, que las dividan. Es probable que se celebre una audiencia en el Senado sobre el tema de desinformación en español específicamente.
Las empresas de redes sociales se esconden detrás de léxicos insensatos de mercadeo como "conexión" y "comunidad" porque su único objetivo real son mayores ganancias. Las mentiras, el odio e incluso la insurrección y las muertes no son subproductos accidentales de la forma como operan estas plataformas, son parte de su estrategia de crecimiento. Estas empresas masivas han demostrado que tienen la capacidad para desincentivar el odio, pero eligen en cambio beneficiarse avivando el miedo, la ira, la depresión adolescente e incluso la violencia. Y aunque ha sido inmenso el daño que Facebook y otras empresas han permitido que se propague en inglés, su manejo del contenido en español ha sido aún peor.
- - -
Información de la Autora:
Stephanie Valencia es cofundadora de Equis Research y Equis Labs, un centro de encuestas e innovación centrado en estudiar y llegar a los votantes latinos. Sirvió también como funcionaria en la campaña presidencial y administración Obama.
Lea el artículo original aquí.