De la flamante iniciativa,
bautizada “Reto de la Detección de
Deepfakes”, forman parte también Microsoft, la Asociación de IA y
académicos de siete universidades, que trabajarán para crear “una gran base de datos o un sistema
estandarizado” para detectar este tipo de videos.
Los deepfake -un acrónimo en inglés conformado por las
palabras “aprendizaje profundo” (una técnica de IA conocida como deep learning)
y “falso” (fake)- son falsificaciones muchas veces hiperrealistas y
cada vez más comunes que permiten, por ejemplo, montar la cara de una persona
sobre el cuerpo de otra sin que se note la edición.
“Queremos catalizar la investigación y el desarrollo en esta
área y asegurarnos que haya mejores
herramientas de código abierto para detectar deepfakes”, señaló el CTO de
Facebook, Mike Schroepfer, en un comunicado.
El Reto, que contará con una inversión de 10 millones de dólares, incluirá la construcción de “una
base de datos y una clasificación, junto con financiación y premios para
estimular a la industria a crear nuevas formas de detectar y evitar que los
medios manipulados a través de la IA se utilicen para engañar a otros”, precisó
el directivo.
Para la empresa de Mark Zuckerberg, la aparición cada vez más
común de los deepfakes representa “un problema en constante evolución, al igual
que el spam”, por lo que la idea busca
unir a distintos miembros de la industria y a la comunidad de inteligencia
artificial para “avanzar más rápido”.
De cara a las elecciones de 2020, el gobierno de los Estados
Unidos presiona a las redes sociales y plataformas online para que encuentren
soluciones a esta práctica que atenta contra la credibilidad de los mensajes
digitales, sobre todo después de experimentos como el que al ex presidente
Barack Obama se le hizo decir cosas que no dijo, o el que modificó la voz de la
diputada Nancy Pelosi para que pareciera ebria.
“La gente ha
manipulado imágenes a lo largo de casi toda la historia de la fotografía. Pero
ahora es posible que prácticamente cualquiera pueda crear y pasar
falsificaciones para audiencias masivas. El objetivo de esta competencia es
construir sistemas de IA que puedan detectar las pequeñas imperfecciones en un
imagen manipulada y exponer su representación fraudulenta de la realidad”, sostuvo Antonio Torralba, profesor del MIT, que
participa de la iniciativa.
“Dados los recientes
desarrollos que permiten producir información manipulada a escala (texto,
imágenes, videos y audio), necesitamos la participación total de la comunidad
de investigación en un entorno abierto para desarrollar métodos y sistemas que
puedan ayudar a detectar y mitigar los efectos nocivos de la manipulación de la
multimedia”, coincidió Rama Chellappa, profesor de la Universidad de
Maryland.
Facebook invertirá para detectar “deepfakes” y combatir la desinformación
cargando anuncio