Los gigantes digitales se comprometen contra los mensajes de odio

Jean-Claude Juncker camina durante un receso en la reunión. / Reuters

Se comprometen en París a vetar la difusión de contenido extremista y violento

PAULA ROSASCorresponsal en París (Francia)

El pasado 15 de marzo, un supremacista blanco mataba a 51 personas en dos mezquitas de Nueva Zelanda y lo difundía en directo por internet. El horrendo crimen exponía, en toda su crueldad, la incapacidad de reguladores y plataformas para evitar la propagación de los mensajes de odio en las redes sociales. Dos meses después, 26 países y los gigantes de internet se han comprometido con el 'llamamiento de Christchurch' a que algo así no pueda volver a producirse. ¿Cómo? Mejorando, entre otras cosas, los sistemas de detección para adelantarse a los terroristas y a aquellos que difunden sus mensajes en las redes.

El documento, de cuatro páginas, ha sido impulsado por el presidente francés, Emmanuel Macron, y la primera ministra neozelandesa, Jacinda Ardern, y detalla los compromisos de gobiernos y plataformas digitales para luchar contra el terrorismo y el extremismo violento en internet. Se trata de algo parecido a un código de conducta voluntario, que hoy firmaron en el palacio del Elíseo jefes de Estado y de gobierno como el rey Abdalá de Jordania, el primer ministro canadiense, Justin Trudeau, o la británica Theresa May, además de los directivos de tecnológicas como Google, Microsoft o Facebook.

La red social fundada por Mark Zuckerberg ha sido la primera en responder a la llamada, y hoy prometió limitar su herramienta Facebook Live, que permite la difusión en directo de imágenes, a aquellos que hayan sido sancionados por la plataforma por incumplir sus normas más sensibles.

El llamamiento, dijo Macron, asocia «a todos los actores de internet» y propone «acciones concretas para acompañarlo». A los gobiernos les pide reforzar la legislación que ya existe en sus países o crear nuevas leyes para prohibir los contenidos extremistas violentos, y a las plataformas evitar, de manera transparente, la descarga de contenidos de odio y su difusión en las redes, así como la retirada inmediata y permanente de las que puedan llegar a publicarse. Cada empresa deberá decidir, no obstante, qué considera contenido extremista violento y, por tanto, inaceptable, ya que el documento no incluye una definición.

Las plataformas firmantes se han comprometido a compartir cifras sobre el número de mensajes de odio que eliminan de sus páginas, algo que la mayor parte de ellas ya han empezado a hacer. Twitter, por ejemplo, anunció recientemente haber cerrado 166.513 cuentas por «terrorismo» en los últimos 6 meses de 2018, y Facebook ha asegurado que sus herramientas consiguen detectar el 99% de los contenidos terroristas, y que la mitad de ellos no duran más de dos minutos en su web. El llamamiento pide, además, la mejora y generalización de bases de contenidos prohibidos, que impulsó en 2016 la Comisión Europea -este miércoles en la firma del documento estaba también su presidente, Jean Claude-Juncker-, y que cuenta ya con 100.000 contenidos que son detectados de forma automática como propaganda terrorista.

El atentado de Christchurch, cuyo macabro vídeo se hizo viral en cuestión de horas, puso a prueba la capacidad de gigantes como Facebook para detectar con rapidez el contenido que debía ser eliminado, un auténtico desafío técnico debido a que, entre otras cosas, los usuarios habían realizado diferentes montajes con las imágenes. La plataforma anunció este miércoles que va a invertir 7,5 millones de dólares (6,7 millones de euros) para mejorar el análisis de imágenes fijas y vídeos.

«Siempre veré las redes sociales como algo positivo -dijo Jacinda Ardern-. Sin embargo, por desgracia, creemos que también puede ser utilizado para propagar el odio. Nuestro desafío es encontrar cómo garantizar un acceso libre y seguro a esas plataformas a la vez que impedimos en el futuro el mal que hemos visto».