«Hemos trabajado para mejorar la transparencia en general. Empezando por nuestras normas de anuncios políticos. Ahora en Facebook los anuncios políticos son más transparentes que en cualquier otro sitio, incluyendo la televisión. Las personas que crean los anuncios deben estar autorizados y demostrar que realmente están en el país donde se publican. También se debe informar sobre quién paga y cuál es el público concreto», ha afirmado Nick Clegg, exviceprimer ministro británico y actual responsable de asuntos globales y comunicación de Facebook, en una conferencia con medios de comunicación de todo el mundo a la que ha asistido ABC.
A pesar de que los nuevos anuncios políticos no estarán permitidos desde la última semana de las elecciones, Clegg ha reconocido que los que hayan sido compartidos en la red previamente no serán elminados: «Estas medidas no son porque los anuncios políticos son malos en sí. No hay nada malo en emplearlos para llegar al votante. La democracia se basa en un discurso y la respuesta que recibe y, simplemente, en esa última semana no habría tiempo para responder al nuevo anuncio o para su escrutinio» para ver si es cierto y contrastarlo.
Facebook piensa combatir toda la desinformación electoral. Desde los comentarios engañosos sobre los candidatos y los partidos, hasta las afirmaciones falsas sobre las votaciones, pasando por aquellas que, directamente, buscan que los ciudadanos no acudan a las urnas.
La red social ha desarrollado un centro de atención al votante donde el usuario pueda encontrar toda la información necesaria sobre el proceso electoral. Esto incluye el uso de vídeos tutoriales, que también se pueden ver en Instagram, donde se muestran, entre otras cosas, instrucciones sobre cómo votar por correo e información sobre las fechas límite para registrarse y emitir el voto en cada estado del país. «
La pandemia ha dejado huella en Facebook. La plataforma ha anunciado que piensa emplear algunas de las herramientas que ya puso en marcha a principios de año para combatir las «fake news» sobre la salud. A este respecto, la red social comenzará a limitar la cantidad de cuentas a las que se puede enviar un mensaje por Messenger, el servicio de mensajería de Facebook. Algo similar a lo que la plataforma comenzó a hacer recientemente con los textos enviados sobre la Covid-19 a través de WhatsApp.
Los resultados podrían tardar
La red social se muestra preocupada por la posibilidad de que, en estos tiempos de pandemia, los resultados electorales tarden más de la cuenta en ser oficiales. La Covid-19 ha provocado que muchos ciudadanos vayan a votar por correo por primera vez. Ante la presumible falta de información oficial hasta días después de la celebración de los comicios, la plataforma quiere evitar que algunos usuarios pierdan los nervios.
«Quizá la cosa más importante que puede hacer Facebook para asegurarnos de garantizar la tranquilidad posterior a las elecciones es recordar a los votantes constantemente antes de las elecciones que no deben esperar tener resultados instantáneos como ha ocurrido en el pasado», ha afirmado Clegg, que sostiene que esta información se puede encontrar en el centro de atención al votante desarrollado por Facebook en el interior de la plataforma.
Para evitar problemas, Facebook piensa etiquetar como falsos los anuncios en los que se anuncie la victoria de alguno de los candidatos antes de que los resultados oficiales hayan sido compartidos con la ciudadanía. La plataforma sostiene que el 95% de sus más de dos mil millones de usuarios no hacen «click» sobre publicaciones que han sido etiquetadas como falsas.
Asimismo, la red social asegura que está trabajando para proteger a los funcionarios electorales y para contrarrestar cualquier intento de grupos violentos y conspiranaicos por emplear la página como altavoz para llamar a los disturbios y la violencia en las calles. En concreto, la empresa tiene en el punto de vista a QAnon. Un grupo conocido por defender teorías de la conspiración y difundir informaciones falsas en internet.
«QAnon ha cambiado mucho con el tiempo y Facebook ha estado estudiando estos cambios. No solo atacamos el contenido que publica e incita a la violencia, también vigilamos cuando no realizan este tipo de declaraciones de forma explícita», ha explicado Clegg, que añade que en los últimos meses han cerrado más de 1.000 grupos por incitar a la violencia en la red social.
