REDUSERS | Seguridad | Todo el Mundo

Facebook elimina 8,7 millones de imágenes de abuso infantil en 3 meses


Facebook es una de las redes sociales más importantes a nivel mundial, y cuando se es tan grande también los problemas llegan a gran escala. La compañía creada por Mark Zuckerberg ha sido cuestionada a menudo por cuestiones vinculadas a la privacidad de sus usuarios, la proliferación de noticias falsas y su inacción ante la aparición de sitios que promueven la discriminación y la violencia.

Entre todos estos problemas parece que Facebook ha conseguido un notable avance en la lucha contra la publicaciones de imágenes de abuso infantil. La compañía ha declarado que 8,7 millones de archivos han sido removidos de su red en los últimos 3 meses.

Este progreso ha sido posible gracias a la acción de una herramienta de machine learning, o como puede traducirse al español, aprendizaje automático. El software marca todas las imágenes que contienen desnudes y niños, ayudando así a los moderadores en el proceso de eliminación del material.

Según el encargado de seguridad de Facebook, Antigone Davis, la herramienta distingue los archivos que deben revisarse como prioridad, y de esa manera mejora la eficiencia.

Por supuesto, el sistema está lejos de ser perfecto y a menudo pueden producirse errores. Estos errores han sido señalados no solo por los usuarios, sino también por las empresas de publicidad y otras compañías. Muchas empresas han descubierto que algunos de sus posts han sido bloqueados automáticamente sin razón alguna.

El error más famoso fue la censura de una conocidísima foto ganadora de un pulitzer que tenía a una niña desnuda huyendo de un ataque aéreo durante la guerra de Vietnam. Al respecto de las quejas Davis ha señalado que Facebook prefiere equivocarse en la dirección en la que lo está haciendo y proteger a los niños. El software ha dejado muy conforme a Facebook, y la firma está considerando aplicarlo también a Instagram.

Más leídas

Últimas noticias