Facebook se cruza de brazos frente a la polarización dentro de la red social

0
Las redes sociales se han descubierto como una de las herramientas más importantes para que las personas estén en contacto con los más cercanos. Aunque, evidentemente, nada es perfecto. Según un estudio al que ha tenido acceso «The Wall Street Journal», Facebook, la plataforma en línea por antonomasia, cuenta con algoritmos que potencian la polarización de los usuarios. Y no solo eso, sino que, además, es perfectamente consciente de ello y no tiene intención de revertirlo.

Según apuntan desde el medio estadounidense, Facebook se planteó tomar medidas contra esta situación durante una reunión celebrada en 2018. Los algoritmos «explotan la atracción del cerebro humano hacia la división. Si se dejan sin comprobar, Facebook alimentará a los usuarios con contenido cada vez más divisivo en un esfuerzo por atraer su atención e incrementar el tiempo en la plataforma», se expresó durante la presentación.

Sin embargo, varios ejecutivos de la compañía, entre ellos su consejero delegado, Mark Zuckerberg, optaron por dejar las cosas como están. Según explican las fuentes consultadas por «WSJ», la dirección de Facebook temía que realizar algún cambio en el algoritmo afectase a los usuarios y medios conservadores o que se entendiese como un movimiento paternalista.

La red social ya encargó a varios expertos en 2017 que realizasen un estudio sobre la polarización dentro de la red social. Recibieron el nombre de «Equipos de integridad», y llegaron a la conclusión de que la plataforma debía comprometerse con la neutralidad. De acuerdo con un documento interno, Facebook no debía controlar las opiniones de los usuarios ni frenar los conflictos dentro de la red social.

Otro informe, esta vez elaborado hace dos años, sostenía que la plataforma no debía fabricar contenido que atente de forma explícita «contra las creencias de la gente». En su lugar, debía centrarse en la creación de aquellos que promuevan «la empatía, la comprensión y la humanización» de quienes piensan diferente. Según el medio estadounidense, hubo propuestas para lograr este objetivo; entre ellas se encontraba la reformulación de los algoritmos para que las recomendaciones que le saltan al usuario fuesen más amplias. Sin embargo, se acabó descartando debido a que su implementación, según otro informe, afectaría al crecimiento de la red social.

Desde las acusaciones, en 2016, de sesgo por parte de los grupos conservadores en Estados Unidos, muchas de las decisiones sobre cambios en la plataforma debían pasar no solo por los responsables de producto e ingenieros, sino también por los equipos de marketing, relaciones públicas y jurídicos de la compañía.

Las diferencias de opiniones llevaron a procesos de veto interno, que afectaron, por ejemplo, a la creación de un sistema de clasificación para el contenido hiperpolarizado o a los esfuerzos para suprimir clickbait sobre política más que sobre otros temas. En su lugar, se implementaron cambios más débiles.

Carlos Gomez Uribe, antiguo responsable del sistema de recomendaciones de Netflix, empezó a liderar el equipo de integridad en enero de 2017, del que se marcharía un año después. Entonces, propuso reducir el impacto que tenían los usuarios hiperactivos, ya que debido a los algoritmos, un usuario que interactúa con 1.500 contenidos tiene más influencia que alguien que lo hace con 15.

Se trata, además, de cuentas más partidistas, y que tienen mayores probabilidades de mostrar un comportamiento sospechoso, incluso de estar involucrados en acciones de «spam». Su propuesta, enfocada a limitar el contenido «spam» y a potenciar la actividad de los usuarios medios, fue apartada por las preocupaciones de los editores y por otros grupos no extremistas muy activos en la plataforma, según señaló Joel Kaplan, vicepresidente de política pública global de Facebook, tiempo después.

La compañía tecnológica ha introducido cambios en los últimos años enfocados a combatir el contenido que viole sus políticas. En una conferencia en octubre de 2019, Zuckerberg anunció que no eliminaría contenido político si es noticioso aunque vaya en contra de sus estándares. Según defendió, descubrieron que la estrategia más efectiva para los acasos de desinformación era «centrarse en la autenticidad del que habla más que en intentar juzgar el contenido en sí».