A mediados de marzo, la compañía actualizó sus políticas de seguridad, para permitir la eliminación de aquellos contenidos que podrían poner a los usuarios en riesgo de contraer el Covid-19 o mal informar sobre la enfermedad.
La red social Twitter ha eliminado más de 1.100 mensajes de su plataforma por tener contenido engañoso y potencialmente dañino, siguiendo la última ampliación de la definición de daño que incluye aquello que va directamente en contra de lo indicado por fuentes autorizadas de información de salud pública global y local en medio de la pandemia de Covid-19.
Las redes sociales han incrementado el número de usuarios activos en las últimas semanas, con motivo de las medidas de confinamiento y la necesidad de guardar distancia social por el brote del nuevo coronavirus, que afecta a nivel global.
En este contexto, la conversación global sobre Covid-19 y las mejoras del producto han impulsado los usuarios diarios monetizables (mDAU) en Twitter, con una media en el trimestre de 164 millones de mDAUs, un 23% más de los 134 millones del primer trimestre de 2019 y un 8% más que los 152 millones del cuarto trimestre de 2019, como recoge en su blog oficial.
La compañía tecnológica también ha visto un incremento del 45% del uso de la página de eventos con información autorizada y veraz, y un incremento del 30% en el uso de los Mensajes Directos desde el 6 de marzo.
A mediados de marzo, la compañía actualizó sus políticas de seguridad, para permitir la eliminación de aquellos contenidos que podría poner a los usuarios en riesgo de contraer el Covid-19, la enfermedad que causa el coronavirus.
En este sentido, los usuarios tendrán que eliminar contenidos que nieguen las directrices aportadas por expertos, que animen a otros usuarios a seguir técnicas de diagnóstico y tratamientos falsos o ineficaces, o que compartan contenidos engañosos supuestamente atribuidos a expertos o autoridades.
Desde su aplicación el 18 de marzo, se han eliminado más de 1.100 publicaciones de la plataforma, por tener contenido engañoso y potencialmente dañino. Además, los sistemas automatizados han desafiado a más de 1,5 millones de cuentas que estaban hablando sobre Covid-19 con comportamientos de manipulación o 'spam'.
Estos sistemas automatizados permiten revisar los informes de manera más eficiente al mostrar el contenido que es más probable que cause daño y que debe revisarse primero. También ayudan a identificar de manera proactiva el contenido que viola las reglas de la plataforma antes de que se denuncie, si bien el equipo humano interviene cuando hay que revisar el contenido que requiere de contexto adicional, como en el caso de la información engañosa relacionada con el Covid-19.