MÉXICO.
A menudo los usuarios de Facebook se preguntan cómo la red social decide qué contenido puede ser publicado en la red social y cuál es considerado inapropiado. Las Normas Comunitarias, vigentes desde hace años, determinan qué puede permanecer en la plataforma y qué debe ser retirado. Hace tres semanas Facebook publicó por primera vez los criterios internos que usa para hacer cumplir esas normas y ahora divulga las estadísticas sobre el Cumplimiento de Normas Comunitarias, para que todo el mundo pueda analizarlas.
Alex Schultz, vicepresidente de Análisis de Datos, explica en una publicación en el blog de Preguntas Difíciles y en una guía para Comprender el Informe de Cumplimiento de Normas Comunitarias, cómo Facebook realiza ese trabajo. Es importante remarcar que por tratarse de una tarea en constante evolución, la metodología puede ser modificada a medida que aprenden más y pueden identificar las prácticas que funcionan mejor.
Este informe cubre seis áreas: violencia gráfica, desnudez en adultos y actividad sexual, propaganda terrorista, discurso de odio, spam y cuentas falsas.
El reporte detalla:
La cantidad de contenido que viola nuestras normas visto por usuarios de Facebook.
La cantidad de contenido que fue eliminado.
La cantidad de contenido que fue detectado a través de la tecnología antes de que los usuarios de Facebook lo reportaran.
La mayor parte del trabajo que hace para eliminar contenido inapropiado involucra cuentas falsas y el spam que estas generan. Los resultados del primer trimestre de 2018 muestran que:
Eliminaron 837 millones de mensajes no deseados, casi todos detectados antes de que fueran reportados por los usuarios.
Desactivaron alrededor de 583 millones de cuentas falsas, la mayoría apenas unos minutos después de que fueran registradas. Este dato se suma a las tareas de prevención que evitan que millones de cuentas falsas sean creadas diariamente. Calculamos que entre 3 y 4 por ciento de las cuentas activas durante el período analizado eran falsas.
Otros tipos de contenido inapropiado:
Eliminaron 21 millones de publicaciones de desnudos de adultos o material pornográfico durante el primer trimestre de 2018. Un 96% fue detectado y marcado con herramientas tecnológicas antes de que fuera reportado. Sus estudios indican que de cada 10 mil publicaciones visualizadas en Facebook, entre siete y nueve incluían material que violaba nuestros estándares.
En casos más graves, como violencia gráfica o discursos de odio, su tecnología aún no es lo suficientemente eficaz y requiere de la participación de equipos de revisión. Dieron de baja o colocamos advertencias sobre cerca de 3.5 millones de publicaciones con contenido violento en el primer trimestre de 2018, un 86% de las cuales fueron identificadas por nuestra tecnología antes de que fueran reportadas. También fueron eliminados 2.5 millones de artículos que contenían discurso de odio, un 38% de los cuales fueron identificado por su tecnología.