De esta no nos salvan los algoritmos: una receta simple para lidiar con los videos falsos
Esta semana las deepfakes volvieron a los titulares, pese a la pandemia y también un poco a causa de la crisis. Las deepfakes son videos creados por medio de inteligencia artificial para que alguien (usualmente una persona pública) aparezca diciendo o haciendo algo que no dijo ni hizo; y que, en general, no haría ni diría. La tecnología ha avanzado tanto como para que a partir de una sola foto se pueda construir un video. Lo que viene causando impresión, al menos entre los que vimos nacer estas tecnologías, es que ahora es posible crear una producción de calidad aceptable con una computadora convencional. En una demostración que hicieron estos días en el canal TN, hizo falta, además, un imitador profesional para darle al video la voz de las personas en cuestión. Es lo de menos. Primero, porque ya se pueden imitar voces mediante software (obvio). Segundo, y más importante, porque los vectores de esta industria apuntan siempre para adelante.
Es decir, lo único que harán las deepfakes, o para decirlo mejor, sus algoritmos, será progresar. Con un poco más de fuerza bruta informática hoy ya es posible producir metamorfosis imposibles de distinguir de la realidad, sin fisuras, como en el ejemplo impresionante en el que cambiaron el rostro de Bill Hader por el de Tom Cruise, toda vez que aquel imitó al actor. Con Ricardo Sametband y Guillermo Tomoyose analizamos la cuestión en este podcast, donde también pueden ver el video.
FaceApp puso su granito de arena (del tamaño del Peñón de Gibraltar, más o menos) para despedazar cualquier sensación de certeza que podía quedarnos en medio de esta realidad suspendida en la que nos ha sumido la cuarentena. De esta app se habló mucho el año pasado, cuando casi todos (no entendí nunca el porqué) quisieron ver cuál sería su aspecto dentro de 20 o 30 años. En fin, falta de paciencia, supongo. Ahora FaceApp volvió con otra sutileza: cambia el género de la persona en la foto. El resultado, en la mayor parte de los ejemplos que vi, son bastante poco felices, pero, de nuevo, muestra lo que la inteligencia artificial puede hacer con la realidad. La modifica, la retuerce, la anima con las deepfakes y nos deja la sensación de que ya no podemos creer ni siquiera en nuestra imagen en el espejo. ¡Pero esperen, qué idea! En poco tiempo, se los garantizo, saldrán los espejos inteligentes, que te harán ver mejor (o peor, eso se podría configurar) de lo que sos en la realidad, especialmente cuando recién te levantás. De momento, sin embargo, podemos seguir confiando en los espejos. Bueno, es verdad, no siempre.
Si no lo creo, no lo veo
Hablando en serio, el eterno debate, toda vez que las imágenes y los videos falsos muestran los dientes, es cómo hacer para detectarlos. Ese debate es innecesario, inútil y un poco delirante. Para empezar, existe un número de herramientas capaces de detectar si una imagen o un video han sido alterados. Algunas son gratis y están en la web. Pero el problema no es ese. El problema está en otro lado. El problema somos nosotros.
Durante la evolución de todas las formas de vida en la Tierra, los sistemas nerviosos se adaptaron a confiar en sus sensores: visuales, auditivos, de infrarrojos, de ultrasonido, eléctricos, químicos, etcétera. Ningún ser vivo pone en duda lo que percibe. Mi perra Betty tiene pánico a las tormentas. Cuando oye truenos (o pirotecnia) entra en pánico, tiembla, jadea durante todo el tiempo que dure el estrépito, y es incapaz de dormir o comer. Cada tormenta, cada Navidad y cada Año Nuevo son un drama.
Ahora bien, hace algunos años compré (no recuerdo dónde) un instrumento musical que simula con bastante precisión los truenos. Si lo hago sonar, Betty entra en pánico. No hay tormenta, no es Año Nuevo, pero ella confía en sus oídos. ¿Por qué? Por una cuestión de supervivencia. Si ve algo que se puede comer, lo persigue. Si dudara un instante, se le escaparía la presa. Si oye algo que le causa temor, se esconde. Si pusiera en duda si lo que oye son truenos o un instrumento musical, podría perder la vida.
Estamos adaptados a confiar en nuestros sentidos, fin de la discusión. Intentar zafarse de una adaptación evolutiva es, digamos, bastante complicado. Traten de hacer casi cualquier cosa sin usar los pulgares y van a entender lo que quiero decir. Pues bien, las deepfakes apuntan a esa adaptación evolutiva. No importa que la voz sea imitada y que lo que dice el funcionario o el deportista o la celebrity sea absurdo (especialmente si es lo que queremos oír). Lo primero que nuestros sistemas nerviosos hacen es reaccionar dándole crédito a sus sensores. No estaríamos aquí hoy y nos habríamos extinguido hace rato, si no fuera así. Desde un insecto hasta un entomólogo, todos los seres vivos funcionamos sobre ese principio fundamental.
Ahora, nosotros, los humanos, tenemos algunas destrezas únicas. Hemos desarrollado sistemas simbólicos complejos y explotado la razón para crear ciencia y tecnología. Al revés de lo que le ocurre a Betty, somos capaces de poner en duda lo que nuestros sensores le envían al sistema nervioso. En un primer vistazo, no, es casi imposible o hace falta un entrenamiento de décadas para que la primera reacción no sea completamente involuntaria. De entrada, creemos y reaccionamos emocionalmente. Allí anclan sus trampas los piratas que emplean ingeniería social.
El problema es que, como ocurre con las estafas online (loterías, cuentas abandonadas, alertas del banco y otros anzuelos por el estilo), no existe modo de anticipar todos los trucos del delincuente. Solo en mi cuenta de Gmail recibo unas 17.000 estafas de este tipo por año. Así que no solo es ridículo imaginar que cada persona vaya a analizar una foto o una deepfake con pruebas de laboratorio para verificar su autenticidad, sino que es igualmente ridículo esperar que seamos capaces de detectar cada pase mágico de los creadores de noticias falsas. Tarde o temprano, algo nos tocará un nervio sensible y caeremos en la trampa. ¿No hay solución?
La hay. No es fácil, pero la hay. Respecto de las estafas online, en mi último libro, Hackearán tu Mente, publicado por Editorial Planeta, establecí una suerte de dogma: "Si algo te llega por Internet, te afecta emocionalmente y te pide que hagas algo con urgencia, entonces es una estafa". Siempre. Sin dudarlo. Solo es cuestión de no creer en nada que presente tales rasgos. El otro día Spotify me avisó por mail que no había podido procesar el pago con mi tarjeta. Pero se apresuraban a decirme que no me preocupara, que de todos modos tratarían de volver a cobrarme en los próximos días. Me pedían que revisara mis datos de pago, pero sin ninguna urgencia. La receta funciona a la perfección.
Con las imágenes y videos falsos ocurre algo semejante. Se puede establecer una regla. La mía, en todos los casos, es ser consciente de que lo que veo en la pantalla es una ilusión. Punto. Como mínimo, porque se ha retocado un poquito la foto para que la estrella se vea mejor. O porque en realidad ese perro y ese gato no están abrazándose; podría ser un montaje con Photoshop o se estaban peleando y el fotógrafo tuvo suerte. De la pantalla hay que desconfiar siempre, porque detrás de esas imágenes y videos, solo hay unos y ceros, fáciles de hilvanar y transmutar.
Pero sería inviable simplemente no creer en nada de lo que muestra una pantalla, porque vivimos entre pantallas. La otra cara de esta disciplina es la de esperar un poco. No parece difícil. Pero lo es, y mucho.
Pese a eso, hay que tratar de incorporar este hábito: esperar. Si después de unas horas los profesionales de la información replican el contenido y diversas fuentes confirman que aterrizó un plato volador en Plaza de Mayo y los extraterrestres están dándole de comer a las palomas, OK, entonces es muy probable que sea verdad. Muy probable, cuidado, que nadie es perfecto, y menos en tiempos tan disruptivos como los que, para bien o para mal, nos ha tocado vivir. En cualquier caso, hay algo evidente: las imágenes y los videos falsos se viralizan con rapidez explosiva. Viceversa, las noticias verdaderas pueden viralizarse o no (eso depende del humor popular), pero siempre hay fuentes que las confirman.
Y hay algo más que caracteriza a los contenidos falsificados. No tienen crédito. Nadie se hace cargo. El video circula. La foto explota en las redes. Les cuento un secreto: ni las fotos ni los videos tienen vida propia. No circulan. No nacen de forma espontánea. O hay un autor o son fake.
Otras noticias de Covid
Más leídas de Tecnología
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Infancias. Cómo activar el "modo Peter Pan" en WhatsApp
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo