Prueba piloto de Facebook para impedir las mentiras electorales

0
208

El País.

Ciudad de México. Trump ganó las elecciones contra pronóstico, y ya antes de que se mudase a la Casa Blanca todas las miradas se dirigieron a una ciudad de la Costa Oeste: Menlo Park, el cuartel general de Facebook.

La red social de Mark Zuckerberg fue acusada de lucrarse con anuncios —su multimillonario negocio se basa en la publicidad y cualquiera puede promocionar un enlace en una página; basta con escoger a qué audiencia se quiere dirigir— y a cambio de dejar que se difundiesen bulos que favorecían las aspiraciones de Trump, como la conspiración de la pizzería de Washington o que el Papa apoyaba al magnate. Ninguno era cierto, pero en Facebook no saltaron las alarmas. Al menos, no hacia el exterior.

En diciembre, Facebook negó tener responsabilidad alguna en el tráfico de bulos o noticias falsas, las fake news. En enero, argumentó que, aunque formalmente no es un medio de comunicación, sí considera que supone una pieza importante en el engranaje de distribución de noticias. Ya antes, en noviembre, Zuckerberg había lanzado una declaración solemne en su red que incluía siete compromisos: detección más sólida para descubrir la desinformación; hacer que sea mucho más fácil el aviso de las noticias falsas; verificación a cargo de terceros; advertencias sobre la posible falta de veracidad; elevar la calidad de los artículos enlazados debajo del que se consulta; acabar con el negocio de las noticias falsas cambiando su sistema de anuncios y “escuchar”. “Vamos a seguir trabajando con periodistas y otros miembros del sector de medios para tener no solo su opinión, sino también entender mejor sus sistemas de verificación y aprender de ellos”, dijo Zuckerberg.

Después llegaron las precisiones. Facebook pretende crear un equipo interno para verificar contenidos, repasar comportamientos sospechosos y medir la calidad de los enlaces. La profundidad de cada sesión de navegación sería uno de los indicadores. No es lo mismo llegar a una página e irse a los pocos segundos que consultar varias.

En ningún caso se ha comprometido al fact checking, a comprobar la veracidad de los hechos, pero sí a escuchar a sus usuarios. Algunos de ellos, en pruebas, han comenzado a encontrar un botón en la esquina superior derecha de cada enlace de su muro para marcar que no es veraz el contenido ofrecido. Usarlo no resulta definitivo, pero sí un voto más que, si se reitera, puede restar visibilidad a la publicidad. El algoritmo se entrena a medida que se vota hasta corregir la tendencia. Supone un freno de emergencia mientras la red crea una solución real de la mano de académicos y medios que se han sumado a su iniciativa que permita crear un sistema para discernir entre noticias reales y falsas.

Todavía con retos técnicos y sociales sin resolver, Facebook afronta ahora un nuevo examen: las elecciones generales de Kenia del 8 de agosto. La plataforma ha preparado una herramienta que funcionará en inglés y swahili para que sus usuarios puedan denunciar los contenidos falsos. No va a censurar, en principio, el contenido que se marque como tal, pero sí a comprobarlo y hacer que se vea menos en el resto de perfiles. Supone un primer freno que servirá como piloto para la celebración de sucesivos comicios en el resto del mundo. Una prueba de laboratorio del que no dan más detalles.

La iniciativa parte con precedentes negativos. El mes pasado, la red social se llenó de vídeos falsos que simulaban ser de CNN y BBC y daban como favorito en las encuestas al actual presidente, Uhuru Kenyatta.