Industria    Inteligencia artificial

¿Te atreves a detectar rostros e imágenes falsos? Nadie ha logrado más del 65% de acierto

Más de 2.000 equipos han participado en el Deepfake Detection Challenge lanzado por Facebook, en el que el mejor resultado ha sido un 65% de aciertos. Ahora arranca una nueva convocatoria... con el mismo banco de imágenes

30 JUL. 2020
5 minutos

El concurso Deepfake Detection Challenge lanzado por Facebook convocó a 2.000 equipos que pudieron probar sus modelos de detección de rostros falsos e imágenes manipuladas, utilizando para ello herramientas de deep learning, sobre una base de datos única creada expresamente para el evento. El resultado no deja de ser preocupante: el equipo que consiguió el mayor número de aciertos se quedó en un 65% de eficacia. Un desafío para la comunidad de inteligencia artificial.

En septiembre de 2019 Facebook, la Asociación sobre IA, Microsoft y académicos de la Universidad Técnica de Munich, la Universidad de Nápoles Federico II, Cornell Tech, MIT, la Universidad de Oxford, UC Berkeley, la Universidad de Maryland, College Park y la Universidad de Albany – SUNY lanzaron este reto, una iniciativa abierta y colaborativa para estimular la creación de nuevas tecnologías innovadoras para detectar las falsificaciones y los medios manipulados.

Arrancó con unos 4.000 vídeos para analizar, pero en diciembre del pasado se amplío con un nuevo paqueta de vídeos para el entrenamiento de las herramientas de más de 115.000 vídeos, creados para este desafío, en el que participaron más de 2.100 equipos que presentaron un total del 35.000 modelos de detección de rostros en marzo de este 2020, cuando finalizó el reto. El objetivo es ayudar a los investigadores de IA a d"esarrollar métodos de nueva generación" para la detección de estas falsificaciones.

Ahora, tras anunciar los ganadores el pasado mes de junio, la organización va a someter a prueba la base de datos, en código abierto, para que otros investigadores de inteligencia artificial puedan usarlos en su investigación: en total 3.500 actores y 38,5 días de datos, disponibles en el segundo semestre de este 2020.

"Modificamos los videos usando una variedad de diferentes modelos de generación de deepfake, técnicas de refinamiento como la mejora de la imagen y aumentos y distractores adicionales, como el desenfoque, la modificación de la velocidad de fotogramas y las superposiciones", explican desde la organización. El objetivo era hacer que el conjunto de datos fuera representativo de la variedad de cualidades y métodos adversos que podrían ocurrir en los videos del mundo real compartidos online. 

Entre los cinco ganadores se han identificado algunas prácticas comunes que pueden resultar útiles para próximas investigadores: 

  • Aumentos inteligentes.  Muchos métodos utilizaron una forma de aumento de datos y otros métodos más complejos como el aumento de "confusión", es decir, mezclar una cara real con una generada por IA, y luego usar el coeficiente de mezcla como una etiqueta. En definitiva, los tipos de clasificación visual de 'grano fino' parecen proporcionar una ventaja cuando se trata de averiguar exactamente qué partes de la cara se deben dejar caer para realizar el análisis.
  • Arquitectura.Todos los ganadores utilizaron redes de EfficientNet preformadas, que fueron ajustadas sólo con los datos de entrenamiento del desafío. Lo que difirió entre los competidores fue la forma en que usaron estos modelos: cuántos usaron y cómo combinaron las predicciones de un conjunto. 
  • Ausencia de métodos forenses. Fue interesante ver que ninguna de las soluciones de alto rendimiento utilizaba técnicas forenses digitales, como las huellas dactilares del ruido del sensor u otras características derivadas del proceso de creación de imágenes. Esto sugiere que las técnicas no aprendidas que operan a nivel de píxel (o en imágenes comprimidas) no son útiles para esta tarea o que actualmente no se usan ampliamente entre quienes participaron en este desafío.