Masacre de Nueva Zelanda: ¿Qué hacen las redes sociales para censurar el contenido violento?

Facebook cuenta con 20 mil moderadores expuestos al contenido violento de Internet, pero les resulta difícil  debido al gran estrés al que están sometidos.

Redacción PERÚ21
Redacción PERÚ21

El terrible atentado terrorista perpetrado por un supremacista blanco en una mezquita en Nueva Zelanda y que dejó un saldo de 49 muertos, fue visto por miles de personas a través de una trasmisión en vivo por Facebook .

Pese a que en cuestión de minutos el horrible video de los acontecimientos fue bloqueado de la red social, ya figuraban varias descargas, y su contenido era compartido de forma viral en otras redes sociales.

Este hecho motivó a que se cuestionaran los mecanismos que tienen las compañías como Facebook, YouTube o Twitter para restringir oportunamente el contenido violento de sus plataformas.

Aunque Facebook afirmó haber retirado "rápidamente" el video de 17 minutos de duración, del hombre armado disparando en dos mezquitas en Christchurch, según algunos informes, este fue compartido repetidamente en YouTube y Twitter, y algunas tomas seguían viéndose horas después.

Si bien las principales plataformas de Internet se han comprometido a adoptar medidas enérgicas sobre la publicación de imágenes de contenido violento y otro tipo de contenido inapropiado en la web a través de sistemas automáticos y de monitoreo humano, algunos estiman que no está funcionando.

"No hay ninguna excusa para que el contenido de esa transmisión en vivo esté circulando ahora", señaló Lucinda Creighton, exministra de gobierno irlandesa y asesora de la ONG Counter Extremism Project, que hace campaña para retirar contenido violento de Internet.

Las plataformas en línea "dicen que tienen sus propias tecnologías, pero no sabemos a qué se refieren, no hay transparencia y obviamente no están funcionando", agregó.

El ataque contra dos mezquitas en Christchurch ha dejado cerca de medio centenar de muertos. (AP)

El ataque contra dos mezquitas en Christchurch ha dejado cerca de medio centenar de muertos. (AP)

El ataque contra dos mezquitas en Christchurch ha dejado cerca de medio centenar de muertos. (AP)

El ataque contra dos mezquitas en Christchurch ha dejado cerca de medio centenar de muertos. (AP)

BLOQUEO DE CONTENIDO VIOLENTO

Las grandes plataformas han desarrollado una tecnología para detectar la pornografía infantil, pero no han logrado unir sus esfuerzos contra los contenidos violentos. Facebook indicó que, además de sus herramientas tecnológicas y sus propios moderadores, también utiliza cada vez más las informaciones de los usuarios para retirar contenidos inapropiados.

Además, la empresa tiene contratados 20 mil moderadores aunque, según varios medios, están sometidos a un gran estrés por los violentos videos a los que están expuestos y les resulta difícil gestionar las secuencias difundidas en directo.

Mia Garlick, del equipo de Facebook encargado de Nueva Zelanda, indicó que la compañía está actuando para impedir la publicación de este video ultraviolento. "Cada video que encontramos lo ponemos en una base de datos interna que nos permite detectar y retirar automáticamente las copias de dichos vídeos cuando se descargan de nuevo", afirmó en un comunicado.

Masacre de Nueva Zelanda: ¿Qué hacen las redes sociales para censurar el contenido violento?

Masacre de Nueva Zelanda: ¿Qué hacen las redes sociales para censurar el contenido violento? (Getty)

Masacre de Nueva Zelanda: ¿Qué hacen las redes sociales para censurar el contenido violento? (Getty)

YOUTUBE Y TWITTER SE SUMAN A LOS ESFUERZOS

Ante el pedido expreso de la policía neozelandesa a los usuarios de redes sociales para que no compartieran imágenes o videos del atentado terrorista, las plataformas de Twitter y YouTube se unieron a la campaña.

Ambas redes sociales indicaron también que estaban trabajando para retirar los videos de la masacre y cualquier contenido relacionado.

Un portavoz de Twitter indicó que los casos como el del video del atentado en Christchurch eran gestionados cuidadosamente por un equipo especializado y que la compañía cooperaba con el cumplimiento de la ley. "También cooperamos con la policía para facilitar las investigaciones", señaló la red social.

"Nuestros corazones están rotos por la terrible tragedia de hoy en Nueva Zelanda. Por favor, tengan en cuenta que estamos trabajando atentamente para retirar cualquier toma violenta", dijo por su parte YouTube en un tuit.

Facebook no reaccionó inmediatamente a las preguntas sobre su acción, pero indicó haber retirado el video tras una petición de la policía y haber bloqueado la cuenta de Facebook e Instagram del presunto atacante.

Masacre de Nueva Zelanda: ¿Qué hacen las redes sociales para censurar el contenido violento? (Getty)

Masacre de Nueva Zelanda: ¿Qué hacen las redes sociales para censurar el contenido violento? (Getty)

Masacre de Nueva Zelanda: ¿Qué hacen las redes sociales para censurar el contenido violento? (Getty)

ESFUERZOS INSUFICIENTES

Sin embargo, para Jennifer Grygiel, una profesora de comunicación de la Universidad de Syracuse, en Nueva York, las compañías están haciendo muy poco para prevenir la viralización de contenido violento.

Según Grygiel, usar las plataformas para transmitir actos de violencia se ha convertido en algo común para los perpetradores, y esas imágenes a menudo se comparten en YouTube y en otros sitios. Sin embargo, estas plataformas tienen la capacidad de identificar y retirar videos violentos a través de búsquedas por palabras clave, pero se necesita más personal para monitorear los sitios.

La inteligencia artificial puede ayudar, según ella, pero "no se puede diseñar ningún algoritmo para esto, porque no se puede predecir el futuro", concluyó.

TE PUEDE INTERESAR

Tags Relacionados:

Youtube

Twitter

Facebook

Ir a portada