Asesinatos premeditados, alianzas intergalácticas del Vaticano y la invención del coronavirus: los especialistas explican cómo se diseminan algunas de las más extravagantes teorías conspirativas y cómo se pueden generar “defensas”
- 13 minutos de lectura'
Si querés pasar un par de horas interesantes, pero psicológicamente agotadoras, visitá el subreddit r/conspiracy de Reddit, que sería como una gran red donde va a parar toda la paranoia colectiva que da vueltas por Internet. Cualquier miedo y prejuicio que nade en las oscuras profundidades del inconsciente humano cae allí, girando, aleteando y respirando en busca de oxígeno. ”Yo creo que la DNC mató al luchador Kamala”, dice un post. (Un rápido chequeo de datos: Kamala, el luchador de dos metros de la WWE, también conocido como James Harris, murió por un infarto en 2020 como resultado del Covid-19). “¡Las máquinas de votos de Dominion están conectadas con Clinton Global Initiative!”, anuncia otro, y agrega: “No veo la hora de que algún verificador de datos diga que esto de alguna forma es erróneo”. (Un rápido chequeo de datos: esto es cierto. De hecho, es cierto de una manera tan poco controvertida que Clinton Global Initiative lo publicó ¡en su propio sitio web!). Algunos posts de r/conspiracy apuntan a los orígenes más sanos e ingenuos del subreddit, que hoy parecen casi enternecedores considerando el infierno en el que se ha convertido la política partidaria en 2020.
Esta es una de las paradojas fundamentales que enfrenta cualquier aspirante a teórico conspirativo: cuanta más gente cree en la “verdad”, menos cierta se vuelve. El destino de toda teoría conspirativa más o menos extendida es convertirse en objeto de otra teoría conspirativa, como esas bandas que se vuelven tan cool que su masividad de algún modo los convierte en todo lo contrario de cool, como U2 o Coldplay.
Pero las teorías conspirativas ya no parecen bizarras e inofensivas. “Las conspiraciones hoy parecen más reales debido a ciertas consecuencias”, dice Micah Goldwater, Senior Lecturer en Psicología de la Universidad de Sídney. “En los viejos tiempos, si pensabas que la llegada a la Luna había sido un simulacro, no pasaba nada. El mundo no cambiaba en su forma de funcionar. Pero ahora tenemos la pandemia, y nuestra respuesta depende de la cooperación y la acción colectiva, algo que requiere el acuerdo de todos. Es así que nos cuidamos. Entonces, cuando la gente rechaza estos comportamientos por desinformación, es un problema mucho mayor”.
Goldwater es apenas uno de los cientos de investigadores en psicología en todo el mundo que buscan responder las preguntas espinosas y existenciales que solían ser asunto de filósofos morales vestidos con togas. ¿Qué es la verdad? ¿Cómo medimos la realidad los seres humanos? ¿Por qué la gente cree lo que cree y (lo que es igual de importante) cómo podemos evitar que lo haga? Es un campo amplio que Goldwater llama “ciencia de las conspiraciones”.
El subreddit r/conspiracy no te dice mucho de la realidad (debí haberlo sabido antes de meterme en su pantano), pero irónicamente explica mucho sobre la verdad. Nos gusta imaginar que “realidad” y “verdad” son lo mismo, pero si nos enseñaron algo estos últimos años es que la simple pregunta “¿Qué es verdadero?” no es para nada simple, y se puede poner más enroscada y siniestra de lo que jamás nadie se hubiera imaginado. Cuando alguien como Kellyanne Conway, la ex asesora presidencial de Donald Trump, emplea una frase como “hechos alternativos”, probablemente estuviera metiendo el dedo (de manicura) en la llaga de toda la payasada relativista que confronta el discurso político moderno: quizás tu verdad es diferente de la mía.
Edward Kelly es un DJ desempleado de Queensland que dirige el grupo de Facebook basado en Australia “Subconscious Truth Network” (STN, en español, Red de la verdad subconsciente), y cree que el Covid-19 quizás fue creado por el gobierno chino en un laboratorio. Su historia es bastante típica. “Siempre fui de cuestionarme cosas”, dice, “por qué las cosas no son como deberían. Yo era un tipo normal en Facebook, y después vi un video de gente que rompía sus televisores. Eso atrajo a mucha gente como yo, con esperanzas de libertad. Somos el 99%. Merecemos libertad y honestidad, ese tipo de cosas”.
Lo que Kelly de hecho vio fue a Fanos Panayides, la ex estrella australiana de un reality show, un supuesto “escéptico”, cuyo grupo de Facebook “99% Unite Worldwide” recibió a miles de miembros en los inicios de la pandemia, y que animó a sus seguidores a romper sus televisores como forma de protesta contra las organizaciones de medios que estaban, según decía: “Diciéndonos qué pensar”.
Panayides y el “99% Unite” representan una compleja red de teorías conspirativas populares. Sus miembros asistían regularmente a las protestas anticuarentena en Melbourne de mayo de 2020, donde posters hechos a mano diseminaban la iluminadora verdad acerca de todo, desde #QAnon (quizás la teoría conspirativa más candente del mundo, según la cual unos pedófilos adoradores de Satán conspiraban para derrocar a Donald Trump) hasta #RitualChildSacrifice (es decir, #QAnon), pasando por #TeslaFreeEnergy (la creencia de que la tecnología de energía ilimitada y libre de polución está siendo reprimida por las autoridades) y #LuciferTelescope (un telescopio gigante en Arizona, propiedad del Vaticano, que supuestamente busca extraterrestres para trabar una suerte de alianza católica intergalática).
Kelly empezó a moderar 99% Unite, pero al poco tiempo tuvo sospechas de los motivos detrás del grupo y de algunas de sus teorías más flojas de evidencias. “Cuando sos administrador te das cuenta de que la gente no es quien dice ser”, dice. “Estos tipos tenían maestrías en programación y lingüística, control mental e hipnosis. Vendían miedo para que la gente no pensara bien. Así que empecé mi propia página”.
Considerando que dirige un grupo de Facebook en el que los miembros debaten (entre otras cosas) qué podemos aprender de la ciudad perdida de Atlantis, Edward Kelly parece sorprendentemente escrupuloso y considerado. Podríamos decir que es un moderado de las conspiraciones. “No soy una persona de mente cerrada”, dice. “La mayoría de la gente no es así. Hay personas que dicen que los que se ponen barbijos son ovejas, pero después siguen a algún gurú de manera ciega. Yo mantengo abiertas mis posibilidades”.
El cisma en las redes sociales de Kelly es bastante típico y parece ocurrir todo el tiempo. Si hay un patrón en las conspiraciones, es una tendencia en los grupos a dividirse en sub-conspiraciones más pequeñas, las cuales a su vez se dividen en sub-sub-conspiraciones aún más pequeñas (como las células de una ameba, o las sectas fundamentalistas mormonas) porque el único inconveniente de atraer a gente incrédula y orgullosamente independiente es que, eventualmente, van a sospechar de vos.
Goldwater dice que esto pasa porque las teorías conspirativas se relacionan tanto con la dinámica social y la sensación de pertenencia como con nuestra manera de pensar. Tienden a atraer a gente deseosa de sentido, certezas, historias y, sobre todo, comunidad. Todo ellos necesita un nosotros. “Siempre supimos que las creencias compartidas son una parte importante de cualquier pertenencia a un grupo”, dice, “y todas las teorías conspirativas tienen un gran componente social. Algunas investigaciones descubrieron que muchos terraplanistas, por ejemplo, sólo quieren hacerse amigos”.
Este componente social hace que las desmentidas racionales carezcan de todo sentido: desafiar lo que alguien piensa ya es bastante difícil; desafiar cómo se siente, según Goldwater, “se acerca a una confrontación absoluta”.
La inteligencia tampoco tiene el correlato que te podrías imaginar. Sería cómodo pensar que sólo la gente estúpida cree en cosas estúpidas, pero la investigación demuestra que la inteligencia no sólo no te protege contra conspiraciones, sino que además puede volver a la gente más vulnerable a la desinformación, porque la gente inteligente es mejor para racionalizar de manera creativa sus propias creencias. Un estudio de la Universidad de Duke de 2019, por ejemplo, reveló que entre los republicanos blancos conservadores, la conspiración alrededor del certificado de nacimiento de Barack Obama era más aceptada entre los participantes con más conocimiento político. Lo que es peor, cuanto más educado era un participante, menos probabilidad tenía de corregir sus creencias frente a evidencias contrarias, lo cual contradice la famosa frase de Charles Bukowski: “El problema con el mundo es que la gente inteligente está llena de dudas, mientras que la gente estúpida está llena de confianza”.
El mayor problema que enfrentan quienes quieren desmentir estas teorías es que, cuando una información errónea se pega al cerebro humano, es muy, muy difícil sacarla. Las ideas pueden hacer metástasis en tu lóbulo frontal. No es casualidad que los científicos de las conspiraciones y psicólogos cognitivos tomen prestado el lenguaje de la epidemiología para hablar de estas cosas, porque las teorías conspirativas y los virus atacan el sistema humano de manera muy similar (una ironía que no se le escapó a nadie frente a las protestas anticuarentena durante el Covid-19): ambos se diseminan de manera virulenta, ambos mutan y evolucionan cuando los atacan, y ambos responden bien a la “inoculación”.
Funciona así. Según The Debunking Handbook (un paper de 2020 coescrito por 22 científicos cognitivos de todo el mundo), si se expone a gente a formas debilitadas de desinformación (y se las refuta de manera apropiada) se pueden crear anticuerpos cognitivos. “Por ejemplo, si le explicás a la gente cómo la industria del tabaco usó expertos falsos en los sesenta para crear un debate científico imaginario acerca del daño de fumar, la gente se vuelve más resistente a intentos de persuasión posteriores que usen la misma argumentación en el contexto del cambio climático”.
Tres investigadores, John Cook, Ullrich Ecker y Stephan Lewandowsky, de hecho hicieron este experimento. Antes de rebatir varias conspiraciones climáticas de lleno, les mostraron a los participantes un informe del uso de desinformación y expertos falsos por parte de la industria del tabaco para desacreditar el vínculo entre el consumo de cigarrillos y el cáncer de pulmón. Y funcionó. Al leer primero acerca de las oscuras tácticas de lobby de la industria del tabaco, los participantes, incluso los conservadores más inveterados, desarrollaron mayores sospechas acerca de las teorías que niegan el cambio climático.
Esta idea es potencialmente transformadora, y allí puede estar la diferencia entre un futuro de debate humano racional y un mundo esquizoide en el que los hechos son más o menos opcionales y todo el mundo vive en pequeñas burbujas de realidad subjetiva. Si podemos enseñarle a la gente a pensar de manera crítica de antemano, cuestionar presupuestos, verificar las fuentes, investigar por su cuenta, afinar sus detectores de patrañas y medir cosas como la credibilidad de manera objetiva, vamos a avanzar en la lucha contra las teorías conspirativas antes de que estas empiecen.
Pero claro, la ironía acá (habrás notado un patrón de ironía que haría llorar a Kafka) es que los teóricos conspirativos promueven las mismas técnicas, en nombre de la desinformación. No creas lo que te dicen. Cuestioná la autoridad. Pensá por vos mismo. Ahondá más. Del mismo modo que los dictadores siempre asumen el control bajo el disfraz de la “libertad”, los teóricos conspirativos diseminan desinformación en nombre de la iluminación. Y también se lo toman en serio. Al conversar con Edward Kelly, es obvio que los miembros de la Subconscious Truth Network probablemente pasen mucho más tiempo que yo buscando “hechos”, siguiendo pistas, investigando ideas, indagando fuentes primarias y cuestionando autoridades. Lo demente es su perspectiva. Es como inoc
“Es por eso que un bajo conocimiento de la salud no se correlaciona con conspiraciones relacionadas con la salud”, dice Goldwater. “En general, con las seudociencias, la gente tiene algunos elementos que son verdaderos, pero los combina de manera errónea. Como los antivacunas que dicen que la industria farmacéutica es una enorme fuerza corrupta. No dicen que son anticiencia, sólo creen que algunas fuerzas están corrompiendo la ciencia. Y eso en gran medida es cierto, pero no porque las vacunas produzcan autismo. Esa es una mala aplicación de un escepticismo válido”.
Por supuesto, cuando una idea se arraiga todo se vuelve más complicado. Si alguna vez trataste de discutir con un antivacunas acérrimo, un discípulo de QAnon o alguien que no cree en el cambio climático, ya sabés que desacreditarlos es increíble y enloquecedoramente difícil, como para agarrarse de los pelos.
“Es muy difícil que una simple corrección desarme una desinformación”, dice The Handbook, “y decir que algo es cuestionable no es suficiente frente a exposiciones repetidas”. Esencialmente: cuanto más escuchamos una mentira, y cuanto más credibilidad le otorgamos al mentiroso, más difícil es removerla.
The Handbook recomienda un proceso de desacreditación en cuatro pasos, que (seamos sinceros) es esencialmente como una guía anti-lavado de cerebro moderna. Primero, empezá con un hecho (un hecho “claro, firme y sucinto”, si tenés uno a mano). Después, advertí gentilmente acerca de los mitos y la desinformación, y explicá cuál es la falacia central. Finalmente, volvé a repetir el hecho, todas las veces que sea posible, y asegurate de que provee una explicación alternativa para lo que sea que estés discutiendo. Tenés que vender una narrativa coherente. Y esto no siempre es fácil. Por ejemplo, la idea tradicional antivacunas de que las vacunas causan autismo es, psicológicamente hablando, particularmente difícil de desacreditar, porque los científicos no saben exactamente qué es lo que causa el autismo. Es difícil desarmar y volver a construir la perspectiva entera de otra persona cuando tu contraargumento más honesto es: “No sabemos lo que es correcto, pero sabemos que vos estás equivocado”.
Aquí van algunas técnicas de desacreditación que no funcionan. Las retracciones simples (por ejemplo “eso simplemente no es cierto” o “no hay plesiosauros en los lagos de Escocia”) solo hacen que la gente se ponga a la defensiva y que tenga menos receptividad a la información nueva. Ofrecer información más complicada que la desinformación original tampoco es efectivo (The Handbook recomienda hechos “sucintos” más que “lenguaje técnico”). Incluso está el riesgo de empeorar las cosas, lo que se conoce como Efecto Boomerang: esencialmente, si repetís el mito una y otra vez mientras lo desacreditás, en realidad reforzás la desinformación y hacés que el conspirador se aleje aún más de la realidad, lo que sería como darle una conferencia a alguien sobre los peligros del azúcar procesada mientras te comés una torta de chocolate en sus narices.
Esta suerte de investigación solía usarse contra creencias descabelladas o para reprogramar a víctimas de sectas, no para desacreditar teorías políticas. Es tentador pensar que hoy somos más crédulos, o quizás menos inteligentes, pero Goldwater dice que los seres humanos llevan siglos luchando contra estos monstruos mentales. Sufrimos los sesgos cognitivos de siempre, sólo que ahora se volvieron más fáciles de explotar. “Siempre hubo encantadores de serpientes”, dice. “La gente piensa que ahora somos más ingenuos, pero es sólo que las teorías conspirativas se volvieron más prevalentes por sus consecuencias. La gente ahora sale a matar a otra gente en nombre de estas ideas”.