“Tienen más capacidad de manipularnos”: tres advertencias sobre la inteligencia artificial
Cuáles son las potenciales dificultades que su uso masivo tiene en Internet; cómo combatir la desinformación, la manipulación y el exceso de contenido
- 4 minutos de lectura'
“Imaginate que entrás a una biblioteca, pero antes de poder buscar un libro tenés que sacar un palo y defenderte de promociones y panfletos neofascistas”. Así define Marcelo Rinesi a la interacción con información en Internet y fue con esa frase que Sonia Jalfin, directora de Sociopúblico, comenzó su presentación en el noveno capítulo de Innovación, evento organizado por LA NACION. En su charla, Jalfin explicó que si navegar por la red en busca de información ya es un desafío hoy en día, la inteligencia artificial puede empeorar el panorama por tres motivos.
El primero es una cuestión de volumen y cantidad. “Hoy, los 100 millones de usuarios que ya tiene ChatGPT son como una piñata que te puede explotar en la cabeza con contenido que te va a caer encima. Va a haber cada vez más contenido dando vueltas”, ilustró. El segundo está íntegramente relacionado con la calidad que, según la especialista, suele ser “promedio, hasta mediocre”.
“Todo el contenido que genera ChatGPT y otras herramientas similares está alimentado con todo el conocimiento que hay en Internet. Entre todo eso están las mejores ideas de la humanidad, pero no son necesariamente las más representadas. Como estas herramientas se basan en toda esa información, no producen las mejores ideas”, explicó.
Pero es quizás el tercer punto el que pueda traer más problemas en el futuro. “Estos nuevos contenidos tienen más capacidad de manipularnos, interactuar con nuestros intereses para convencernos de algo”, sintetizó. Sin embargo, es dentro de este aparatado donde surgen experimentos cada día más interesantes que ayudan a “entender mejor cómo interactuamos los humanos”.
Jalfin trajo al evento un pequeño video de un proyecto hecho en conjunto entre Stanford y Google. Especialistas diseñaron una serie de bots que trabajan con IA para que hablasen entre ellos. La única consigna humana en esa interacción fue, a uno solo, que organice una fiesta. “Ver a estos bots interactuando permite aprender -y lo va a hacer cada vez más- cómo interactuamos los humanos en distintas situaciones. Así, el contenido que pueden producir las herramientas generativas podría responder con bastante precisión a lo que estamos buscando, tratando de manipularnos y convencernos”, advirtió la experta. Si todos esos patrones de comportamiento individual son tan tenidos en cuenta, podrían empezar a aparecernos contenidos demasiado alineados a lo que queremos, más alejados de la realidad y sin la calidad que se espera.
No todo es malo en Internet
Pero así como se ponen sobre la mesa los potenciales peligros de estas inteligencias artificiales, también se evalúan soluciones y buenos usos. “La misma tecnología que nos asombra y nos preocupa en iguales dosis puede venir a nuestra ayuda”, señaló Jalfin, previo a mencionar que son las IA las que pueden “construir mejores filtros que nos permiten lidiar con esta sobrecarga de información”.
“En potencia, es posible que un filtro estudie nuestros intereses y nos acerque las voces más interesantes, no las más representadas en Internet, con información valiosa para nosotros, o que filtren el propio contenido generado por IA, que nos haga daño o desinforme”, continuó.
No obstante, estas tecnologías todavía no existen y su existencia depende de “que estemos dispuestos a pagar por ellos y setearlos para recibir lo que queremos”. “Los buscadores y las redes sociales todavía funcionan con el modelo de negocios donde nos muestra contenido pago o el que tiene más interacciones, no necesariamente el más útil para nosotros. Lo que sí empiezan a aparecer son productos y servicios que nos dan alguna esperanza, como buscadores que acercan información basada en fuentes o evidencia como Perplexity, Elicit y AgentGPT”, amplió.
El punto, más allá del desarrollo de nuevas herramientas, será aprovechar las existentes. Una arista sería “escribir para los bots como nueva audiencia” y “preguntarse si nuestro contenido está siendo optimizado para ser leído por bots” o “construirnos nuestros propios filtros usando estas herramientas de IA, sabiendo que vamos a lograr valor si encontramos la información mientras otros están perdidos en el berenjenal de la sobrecarga”.
“Si no, podemos hacer como sigue haciendo Rinesi, que sigue buscando a mano los especialistas con los que se quiere informar a pesar de saber mucho de inteligencia artificial”, bromeó Jalfin para cerrar.
Otras noticias de Eventos LN
Más leídas de Negocios
Negocios sustentables. Cómo combinar rentabilidad con impacto positivo
"Empezamos a sacar la cabeza del agua". Paladini amplía la inversión en Santa Fe para sumar producción
Del jardín a los libros. Dos historias de vida que inspiran a miles de mujeres en redes sociales
"Era la única, pero ahora no". El desafío de las mujeres en un trabajo donde los hombres son mayoría