¿Hasta qué punto los algoritmos condicionan nuestra visión del mundo?
"Si un meteorito cae en el medio de campo pero nadie lo postea, ¿cayó realmente?", se preguntaban los actores de Asuntos que queman, un ensayo escénico alrededor de las redes basadas en algoritmos que ordenan y visibilizan (e invisibilizan) la información. La performance, que se reestrenará este año en el Centro Cultural Recoleta, retrataba de qué modo los temas del día se instalan ante nuestros ojos y parecen obligarnos a tomar posición sobre ellos.
Pero no todos los meteoritos caen en todas las pantallas, ni todos los oímos por igual. Lo que "escroleamos" mientras esperamos un colectivo muestra cierta información, polémicas y memes mientras invisibiliza otras. Las plataformas de búsqueda y compras basan sus ofertas en lo que saben de nosotros. Los algoritmos ordenan y jerarquizan la abrumadora cantidad de información digital que consumimos. Y no aparecen solamente cuando Google arroja resultados personalizados según nuestras búsquedas anteriores o ubicación geográfica, o cuando Facebook premastica nuestro muro para que encaje con lo que infiere que nos interesa. Los algoritmos también se usan para otros fines: desde inferir riesgos de enfermedades graves antes de que aparezcan hasta guiar la contratación de nuevos empleados en una compañía.
Esa ubicuidad plantea una serie de preguntas: ¿Qué pasa cuando las huellas que dejamos online, pensando que son privadas y nos pertenecen, son usadas por otros para tomar decisiones sobre nosotros? ¿Cuán conscientes somos de la incidencia que los softwares basados en algoritmos tienen en nuestra vida cotidiana? ¿Las decisiones tomadas por máquinas contribuyen a un mundo más "objetivo" o más opaco?
Si te gustó X te va a gustar Y
La metáfora de un elemento no humano que se va inoculando e imitando la vida cotidiana es recurrente en la cultura popular. La teórica cultural Mercedes Bunz vuelve sobre esa potente idea para referirse a la invasión de los algoritmos en su libro La revolución silenciosa. Cómo los algoritmos transforman el conocimiento, el trabajo, la opinión pública y la política sin hacer mucho ruido, publicado originalmente en 2012 y recientemente editado en la Argentina por Editorial Cruce. En estos años, la influencia de los algoritmos se intensificó: "Esa transformación está entrando en un segundo estadio, con la Internet de las cosas y la inteligencia artificial", explica Bunz desde el Reino Unido, donde vive y enseña.
En su libro recorre los aspectos incipientes de esta revolución. Crónicas deportivas escritas por softwares, la relación con el conocimiento médico y la idea de experto post Google, y la organización de la sociedad civil en la era Twitter. Bunz se detiene en el caso de la Primavera Árabe para indagar en cómo la concentración en la plaza Tahir en Egipto supuso una forma de convocatoria y comunicación novedosa en ese momento. Justamente, el caso de estas revueltas sigue siendo estudiado en el marco del debate sobre si los medios online realmente democratizan las prácticas sociales, y la discusión sobre las "burbujas" de filtros digitales, que brindan información de acuerdo a posturas ideológicas previamente analizadas y leídas por algoritmos. Desde la victoria de Trump en Estados Unidos, el papel de esos algoritmos se volvió un tema de análisis y opinión recurrente. Obama lo retomó en su reciente entrevista con David Letterman para Netflix, planteándolo como uno de los desafíos de la democracia actual. Curiosamente, el ex presidente de Estados Unidos deja de lado que la misma plataforma que produjo y lanzó esa valiosa entrevista está construida sobre un muy sofisticado sistema de recomendaciones algorítmicas que, en definitiva, es parte de la misma cuestión. De hecho, en un análisis publicado en The Atlantic sobre cómo hizo Netflix para "conocer" a sus usuarios, Alexis Madrigal investigó y reveló en 2014 el modo en que la plataforma "deconstruyó" a Hollywood en miles de formas de describir un contenido audiovisual. El algoritmo de Netflix trabaja sobre esa enorme base de datos que se alimenta de los millones de usuarios que muestran sus preferencias. A la hora de producir contenido original, esa información es oro en bytes.
Votantes en la mira
Política, entretenimiento y tecnología convergen como preocupación y posibilidad. En un artículo de la publicación digital Panamá Revista, Pablo Touzon analizaba la práctica y el método del estratega de Cambiemos Jaime Durán Barba como una "política algorítmica ": más bien predictiva, poco amante del riesgo o de los volantazos impopulares. En cambio, esta "nueva política" lee a los votantes como usuarios con preferencias rastreables y genera nuevas preguntas sobre democracias y opinión pública.
El aprovechamiento de las posibilidades tecnológicas para identificar, segmentar y convencer es metafórica y a la vez muy concreta. Hace varios años que las campañas políticas se basan en conocer al usuario-votante por medio de sus clics. Pero ése es un terreno que también se presta a cuestionamientos. Una reciente investigación daba cuenta de cómo en las últimas elecciones de Chile se utilizó el software Instagis para cruzar información privada de los usuarios (como domicilio o identificación tributaria) con su actividad en las redes sociales, y de allí deducir sus simpatías ideológicas. Según el informe del Centro de investigación e información periodística de Chile (Ciper), el partido Renovación Nacional y luego Sebastián Piñera, solo por dar un ejemplo reciente, utilizaron datos algorítmicos al servicio de una campaña electoral, aprovechando los agujeros legislativos en materia de protección de datos personales (y el gris en la definición de qué es un dato personal).
"Los algoritmos pueden ayudar a la representación política cuando permiten identificar con mayor precisión las necesidades de los votantes. Son negativos, por otro lado, cuando permiten la manipulación de los votantes", reflexiona Ernesto Calvo, doctor en Ciencias Políticas, profesor de la Universidad de Maryland y autor de Anatomía politica de Twitter en Argentina: tuiteando #Nisman. Calvo viene investigando el aspecto polarizado de las redes sociales a causa de los algoritmos que priorizan comentarios afines. Y también hasta qué punto estas burbujas online ideológicas se traducen en la polarización offline, teniendo en cuenta las fuertes grietas que lideran las grandes decisiones políticas de los últimos años. "Recientemente realizamos experimentos controlados en la Argentina y en Estados Unidos en donde mostramos el aumento en la percepción de polarización que tienen los votantes cuando son expuestos a mensajes negativos en redes sociales. Aleatoriamente, dos grupos fueron expuestos a tuits políticos mientras un tercer grupo no fue tratado. En el grupo que recibió la información de redes sociales hubo un amento de 15% en la distancia ideológica entre Cambiemos y el FPV reportada por los encuestados. Lo mismo ocurrió en Estados Unidos al medir la distancia entre Donald Trump y Hillary Clinton. Esto no quiere decir que la polarización se deba a las redes sociales, pero hay evidencia muy contundente de que las redes sociales contribuyen a la polarización".
Recientemente, The Guardian publicó otra investigación con foco en el algoritmo de recomendación de YouTube (que venía evitando la pesquisa por la que pasaron otras redes sociales). Allí se describe cómo la plataforma estaría priorizando la recomendación de videos conspirativos y sensacionalistas, y cómo, también, jugó un papel en las elecciones estadounidenses de 2016.
Asimismo -y aunque los partidos políticos parecen más ocupados en hacerse de esta nueva herramienta que en cuestionar sus implicancias-, la pregunta por la inteligencia artificial, la polarización y la democracia vive momentos de auge desde el referéndum británico para salir de las Unión Europea. Recientemente la comisión de información del Reino Unido inició una investigación a partir de que los medios difundieron de qué modo el uso de big data ayudó a influir en el voto por abandonar la Unión Europea. Por su parte, Bunz se detiene en el potencial de la tecnología en relación con la democracia y observa un aspecto ligado a la educación: "Necesitamos comprometernos con la tecnología digital mucho más. Esto no significa necesariamente que tenemos que aprender a programar. Pero votar responsablemente en una democracia significa estar políticamente informados, y usar y moldear la tecnología es lo mismo en el siglo XXI. Si no queremos que este desarrollo global sea un riesgo para nuestras democracias, necesitamos hacer de la tecnología y cómo funciona una parte de nuestra educación".
El factor humano
La académica Taina Bucher investiga desde hace años la vinculación de los algoritmos con la vida social de los usuarios. En una de sus publicaciones más recientes, habla del "imaginario algorítmico"; es decir, reflexiona sobre la vinculación afectiva entre los usuarios y las fórmulas que diseñan sus muros de Facebook y otras redes sociales. En su investigación sobre cómo los usuarios perciben los algoritmos, encuentra frustración, especulación, enojo y, por momentos, una pulseada entre el hombre y lo que la máquina lee sobre él.
Ese despertar de una conciencia que desautomatice nuestra forma de vivir y consumir información digital es un tema recurrente entre unos cuantos académicos, pensadores y activistas. En su charla TED La inteligencia artificial hace que la moral humana sea más importante, la programadora y socióloga Zeynep Tufecki apela a nuevas preguntas morales que deberían plantearse alrededor del poder de la inteligencia artificial. Cita el caso de una colega suya que desarrolló un software que permite, utilizando información de las redes sociales, predecir casos de depresión posparto antes de que aparezcan los síntomas. Tufecki se pregunta cómo podría funcionar una herramienta que tiene un fin "noble" en un contexto de contratación laboral: "¿qué pasaría si el sistema elimina a las personas con alta probabilidad futura de la depresión?", dice.
En definitiva, la huella digital -el historial de búsquedas de Google, clics, "Me gusta", compras, etcétera- podría tener puntos en común con la idea del inconsciente freudiano y la huella mnémica, algo que va más allá de lo que podemos recordar de manera conciente.
Pero también hay una incipiente preocupación por la reproducción de determinandos sesgos en los supuestamente deshumanizados algoritmos. A fin del año pasado, el grupo Liberty advirtió a los legisladores de la comisión de Ciencia y Tecnología del parlamento británico que el software utilizado para predecir si alguien es un criminal basado en su comportamiento anterior era discriminatorio. Eso se hizo después de conocer que la policía de Durham trabajaba con un sistema llamado Harm Assessment Risk Tool (herramienta de evaluación de daño), que usaba información digital para clasificar a los sospechosos según su potencial riesgo de cometer un crimen. Consultada por BBC, la investigadora Sandra Wachter, del Instituto de Internet de Oxford aseguró: "La comunidad que codifica debería ser más diversa. Si solo tenemos programadores varones y blancos, obviamente va a haber un sesgo en los sistemas".
Efectivamente, los sesgos de género también están presentes. Por ejemplo, según una investigación de la Universidad de Boston y Microsoft Research Nueva Inglaterra, las bases de datos vinculadas a la inteligencia artificial consideran la palabra "programador" más cerca de la palabra "varón" que de la palabra "mujer".
El factor humano vuelve a ser decisivo en estas creaciones que tienen un aspecto autónomo. Mercedes Bunz lo menciona en su libro una y otra vez: "Los algoritmos y las máquinas son una creación humana", insiste. "Aunque todos están viendo cómo funciona la inteligencia artificial, rápidamente se dan cuenta de que es fundamentalmente diferente de la humana -los chicos chiquitos no necesitan ver miles de gatos antes de poder identificar a uno-. De todos modos, hay algo profundamente humano dentro de los algoritmos: son creados por nosotros, los seres humanos". Lo cierto es que éste parece un momento más bien salvaje en la evolución de los algoritmos: prácticamente desregulados, opacos, misteriosos, y también invasivos y poderosos. Calvo describe este estado de situación: "Con la excepción del área salud, que tiene estándares claros de depósito y acceso de datos, en casi todas las áreas de nuestra vida informática carecemos de reglas (formales e informales) para dirimir qué tipo de información es aceptable capturar y distribuir, así como las reglas para explotar comercialmente esta información. La regulación de esta área es de una complejidad extraordinaria, dado que la línea que separa lo público de lo privado es casi inexistente. Es un área en el cual no está claro cuáles regulaciones son posibles, necesarias y beneficiosas". Con la revolución iniciada, sus consecuencias todavía están por verse.