¿Suele usted mentir cuando habla por teléfono? Pues puede que se le vaya a acabar el truco. Durante la cuarentena se han popularizado las aplicaciones de videollamada que antes solo se usaban para asuntos laborales o relaciones muy lejanas, y es posible que después del confinamiento su uso se mantenga alto.
Esto implica que ya no podrá decir que está saliendo por la puerta cuando llega tarde a una cita y todavía está en pijama y despeinado. Tampoco que va camino a casa cuando está en la puerta del boliche. O que no está con su amante, cuando sí lo está. Las pequeñas y grandes mentiras que sustentan la convivencia y que se basan en la no-visibilidad pueden acabar desapareciendo.
Aquí es donde entra el deep fake, una disciplina que puede ser una amenaza para las sociedades democráticas pero que puede venir bien para nuestras maldades diarias. Mediante estas técnicas, basadas en la inteligencia artificial (deep learning para más señas), se pueden crear imágenes audiovisuales falsas que parezcan reales .
Por ejemplo, se podría crear un vídeo totalmente verosímil del presidente del Gobierno diciendo una burrada que no ha dicho. Estos vídeos hiperrealistas pero falsos son muy peligrosos en sociedades tan expuestas a las fake news y tan poco dispuestas a corroborar la veracidad de la información que recibe a través de las redes sociales. El proceso para la fabricación de deep fakeses largo y complejo, pero al ritmo que avanza la tecnología pronto podría ser útil para crear falsos vídeos que podríamos utilizar como respuesta a las videollamadas, sobre todo cuando queremos mentir o tenemos los rulos puestos.
En algunas aplicaciones de videollamada ya puede uno ponerse un fondo de palmeras tropicales, aunque todavía no cuela. Pero aplicaciones como Avatarify ya trabaja en crear avatares de nosotros mismos en las videollamadas. ¡Que no te atrapen con este truco!