Opinión Bloomberg: Los algoritmos de Facebook son demasiado grandes como para repararlos

por | Oct 8, 2021

Frances Haugen, exempleada denunciante de Facebook en su comparecencia ante el Senado esta semana. FOTO: Bloomberg por Stefani Reynolds.

(c) 2021, BloombergCathy O’Neil

La denunciante Frances Haugen, en su testimonio ante el Congreso esta semana, transmitió un mensaje importante: Facebook está activamente dañando a millones, quizás miles de millones, de usuarios en todo el mundo a través de una serie de algoritmos diseñados para impulsar la permanencia de los usuarios en su plataforma y aumentar sus ingresos publicitarios.

Mantente informado con los temas más relevantes de política, economía, comunidad latina y salud. Suscríbete aquí a nuestros newsletters.

Esto plantea la pregunta: ¿qué debe hacerse? El tamaño y la complejidad de la tarea imposibilitan una respuesta simple. Pero como alguien que se gana la vida auditando algoritmos y buscando limitar el daño que pueden hacer, tengo algunas ideas.

Cuando acepto un trabajo, primero considero a quién afecta el algoritmo. Las partes afectadas por un algoritmo de calificación de exámenes, por ejemplo, pueden incluir estudiantes, maestros y escuelas, así como subgrupos definidos por raza, género e ingresos. Por lo general, hay un número manejable de categorías, como 10 ó 12. Luego, desarrollo pruebas estadísticas para ver si el algoritmo está tratando o es probable que trate a algún grupo de manera injusta: ¿está sesgado contra los estudiantes negros o pobres, o contra las escuelas en ciertos vecindarios? Finalmente, sugiero formas de mitigar o eliminar esos daños.

Desafortunadamente, este enfoque es difícil de aplicar al algoritmo utilizado para el suministro de noticias de Facebook o, incluso, a los algoritmos utilizados en casi cualquier red social grande o motor de búsqueda como Google. Son demasiado grandes. La lista de posibles afectados es interminable. La auditoría nunca finalizaría e invariablemente no detectaría algún dato clave. Es difícil imaginar, por ejemplo, que un auditor anticipara razonablemente en 2016 la manera en la cual Facebook se podía convertir en una herramienta para el genocidio en Myanmar y que hubiera podido desarrollar una forma de evitar la difusión malintencionada de información sobre la minoría musulmana del país. Es por eso por lo cual he dicho durante mucho tiempo que arreglar el algoritmo de Facebook es un trabajo que yo nunca aceptaría.

Dicho esto, con el tipo de datos adecuado, las autoridades pueden tratar de abordar daños específicos.  Supongamos que la Comisión Federal del Comercio de EEUU (FTC por sus siglas en inglés) hiciera una lista de resultados negativos que quiere evitar. Estos podrían incluir autolesiones entre las adolescentes, radicalización política como la que llevó a los disturbios del Capitolio y el socavo de la confianza en los procesos electorales. Luego, podría solicitar a Facebook que proporcione los datos necesarios para probar si sus algoritmos están contribuyendo a esos resultados negativos, por ejemplo, buscando conexiones causales entre ciertos tipos de publicaciones y las preocupaciones de las usuarias jóvenes sobre su imagen corporal. Para poder obtener un panorama claro de lo que ocurre, debe haber múltiples medidas para cada fenómeno, con actualizaciones diarias o semanales.


Bajo tal sistema, Facebook estaría libre de continuar sus negocios como mejor le parezca. No habría necesidad de enmendar la Sección 230 de la Ley de Decencia Comunicacional para que la empresa edite o censure lo que se publica en su red. Pero la FTC tendría la evidencia que necesita para responsabilizar a la empresa por los efectos de sus algoritmos – por las consecuencias de sus esfuerzos para mantener a las personas atadas a su plataforma. Esto, a su vez, obligaría a Facebook a actuar de manera más responsable.

Facebook ya ha tenido amplias oportunidades para poner su casa en orden. No lo hará por sí sola. La supervisión limitada que propongo está lejos de ser perfecta, pero es una forma de poner un pie en la puerta y al menos comenzar a responsabilizar a las grandes empresas de tecnología.

Esta columna no necesariamente refleja la opinión del consejo editorial o de Bloomberg LP y sus propietarios. Cathy O’Neil es columnista de opinión de Bloomberg. Es matemática y ha trabajado como profesora, analista de fondos de cobertura y científica de datos. Fundó ORCAA, una empresa de auditoría algorítmica, y es autora de “Weapons of Math Destruction” (Armas Matemáticas de Destrucción).

Lea el artículo original aquí.


MÁS LEÍDAS

Aumentarán beneficios de los foodstamps: Cuándo y cómo aplicar

El lunes 16 de agosto el presidente Joe Biden aprobó un histórico aumento del 25% en los beneficios del Programa de Asistencia Nutricional Suplementaria (SNAP), popularmente conocidos como food stamp o cupones de comida, que sirven de ayuda para las...

¿Qué hacer si perdiste tu certificado de vacunación?

Todas las personas vacunadas contra el COVID-19 reciben una hoja de papel pequeña, blanca y rectangular como certificado de vacunación, y se les advierte que no la extravíen ni la plastifiquen. Sin embargo, mientras cada vez más lugares exigen comprobante de...


ÚLTIMAS NOTICIAS

Opinión | China pesca en río revuelto
Opinión | China pesca en río revuelto

Ningún gobierno en la esfera internacional a esta hora ha reconocido al Talibán como legítimo gobierno de Afganistán, sin embargo, a China le falta poco para hacerlo. Pekín acaba de dar un primer paso en el sentido de pedir a la comunidad internacional el...

leer más