REDUSERS | Seguridad | Todo el Mundo

Advierten contra las soluciones puramente técnicas a los deepfake


Un reciente reporte de la organización Data and Society ha cuestionado la posibilidad de que la implementación de mecanismos automatizados pueda ser una solución efectiva contra la propagación de los deepfakes. Según los autores del documento, Britt Paris y Joan Donovan, confiar en las inteligencias artificiales podría empeorar la situación al concentrar una mayor cantidad de datos y poder en manos de corporaciones privadas.

Según Paris es necesario encontrar soluciones que consideren los aspectos sociales y políticos. En el reporte se señala que la relación de los medios con la verdad nunca ha sido estable, y que la tecnología a menudo ha sido utilizada para manipular la verdad y vista con desconfianza por el público.

Los deepfakes son, según los autores, un paso más en la manipulación. El cambio es que han hecho que cualquier persona con un mínimo de acceso a la tecnología tenga la capacidad de producir imágenes y videos alterados que no pueden ser distinguidos de los reales.

Algunos intentos

Facebook anunció hace poco que había puesto sus bases de datos a disposición pública para ayudar a probar nuevos modelos de detección. Algunas empresas han comenzado a utilizar IA y mecanismos blockchain. La Agencia de Proyectos de Desarrollo Avanzado del Departamento de Defensa de los Estados Unidos ha apostado por un sistema de detección por comparación de píxeles.

Otras investigaciones han apuntado a la necesidad de desarrollar sistemas que puedan entender el contexto de una imagen y descubrir aspectos que estén fuera de lugar y puedan delatar una manipulación.

Otros problemas

El problema para los investigadores de la Data and Society no es tanto la eficacia de los métodos, sino el hecho de que los sistemas empleados podrían permitirle a las empresas capturar más datos de los usuarios.

Más leídas

Últimas noticias