Contra la desinformación: Microsoft desarrolla un detector de videos deepfakes y fotos manipuladas
Microsoft acaba de anunciar Video Authenticator, un sistema que verificará si una pieza de video fue modificada mediante técnicas de edición conocidas como deepfakes. De esta forma, la compañía busca combatir la desinformación mediante una herramienta que permite identificar, mediante una puntuación, si un contenido contenido fue editado de forma artificial, incluso en aquellas producciones donde el ojo humano no logra identificar la modificación digital.
De esta forma, Microsoft busca resolver el desafío que plantean los contenidos sintéticos producidos bajo la técnica conocida como deepfakes, que permiten generar videos, fotos y audios mediante sistemas de inteligencia artificial. En muchos casos, este tipo de producciones son difíciles de identificar y podrían mostrar a personas en lugares que no estuvieron, o realizando declaraciones que nunca dijeron.
Microsoft elaboró sus propias técnicas de aprendizaje automático con un conjunto de 1000 producciones deepfakes y luego evaluó el rendimiento de su detector con otra base de datos de Facebook con una mayor cantidad de registros de videos falsos.
"Las herramientas avanzadas de detección pueden ser una herramienta muy útil para que las personas puedan identificar un deepfake", dijo la compañía en un comunicado sobre el sistema desarrollado. Sin embargo, Microsoft prevé que la tecnología se vuelva más sofisticada a la hora de crear contenido sintético, lo que lleva a los investigadores a elaborar nuevas formas de certificación una producción para asegurar la veracidad del contenido.
Por este motivo, más allá de la herramienta de detección de deepfakes, Microsoft planea ofrecer un sistema de certificados digitales para que los creadores de contenidos puedan asegurar la procedencia de sus videos y fotos. Estas etiquetas digitales permitirán que la audiencia pueda chequear la veracidad de la producción mediante una extensión en un navegador u otro sistema similar.