Dos meses después de que el hombre acusado de la masacre en una mezquita de Nueva Zelanda transmitiera en vivo por Facebook el ataque, la red social modificó las normas de esta funcionalidad.
A partir del miércoles, a las personas que infrinjan las “políticas más serias” de Facebook se les prohibirá de inmediato el uso de Facebook Live durante un período de tiempo, por ejemplo, 30 días.
Facebook no especificó todas las reglas que usará para aplicar esa medida, pero apuntó a las normas que existen actualmente y que prohíben la propaganda terrorista en la red social. La prohibición se ampliará a otros temas en las próximas semanas, y la compañía dice que evitará que los mismos delincuentes compren anuncios.
Bajo la nueva política, el presunto atacante de Christchurch no habría podido transmitir la masacre de su cuenta en marzo, dijo un portavoz de Facebook a CNN Business. No precisó qué reglas habría violado previamente el supuesto tirador.
El anuncio se conoce antes de que Nueva Zelanda y Francia presenten una iniciativa para alentar a las compañías de tecnología y a los países a colaborar para evitar la propagación de contenido extremista en línea. Se espera que la iniciativa, que no será vinculante y se llama Christchurch Call, se anuncie el miércoles en una reunión de líderes digitales de los países del Grupo de los Siete.
“He hablado directamente con Mark Zuckerberg dos veces, y hemos tenido una buena comunicación con Facebook”, dijo la primera ministra de Nueva Zelandia, Jacinda Ardern, a Christiane Amanpour, de CNN. “La última vez que hablé con él hace unos días dio el apoyo de Facebook a este llamamiento a la acción”.
La transmisión en vivo no es el único problema con los videos al que se enfrentan las compañías tecnológicas en casos de terrorismo. Tras el tiroteo en Christchurch, Facebook eliminó 1,5 millones de copias del video del ataque a la mezquita. Las imágenes también se difundieron rápidamente en YouTube y Twitter, y se compartieron en aplicaciones de mensajería privadas después de que las empresas tecnológicas las eliminaran públicamente. Más de un mes después del tiroteo, aún se pueden el video en varios sitios grandes.
Facebook dijo en su anuncio del martes que la detección de estos videos es un área que debe investigar más. También dijo que invertirá $ 7,5 millones en acuerdos de investigación con universidades para identificar mejor el contenido manipulado.