Desinteligencia artificial, ¿otra puerta a la desinformación?
ChatGPT: si las salvaguardas que intentan evitar el uso dañino de la herramienta no funcionan correctamente, la posibilidad de generar sitios con contenido falso aumenta
- 6 minutos de lectura'
En la lucha contra la desinformación, testear las nuevas herramientas de inteligencia artificial, como ChatGPT, a los chequeadores nos genera mucha preocupación: además de difundir información falsa, son capaces –y aquí la novedad– de generar, en segundos, textos con desinformación que pueden engañar a miles de personas.
Esta preocupación se genera incluso cuando la inteligencia artificial nos ayuda a chequear más rápido y mejor desde hace años, en nuestro caso con Chequeabot desde 2016. Es decir, no es un rechazo intrínseco a la tecnología per se, ya que muchas veces es nuestra aliada, sino una preocupación basada en lo que sabemos que es capaz de hacer este tipo de sistemas y la baja prioridad que parece tener la problemática de la desinformación en la agenda de sus desarrolladores.
ChatGPT es una herramienta gratuita (hay que registrarse) que permite conversar con una inteligencia artificial creada por OpenAI, una empresa fundada, entre otros, por Elon Musk, con Microsoft como uno de los inversores claves.
Ante una pregunta o un pedido de un usuario, el sistema responde rápidamente. ¿Cuál es la diferencia con el buscador de Google, por ejemplo? En vez de mostrar un link a un sitio, ChatGPT “chatea” una respuesta (más corta o más larga), sin links y con un modo de escribir que se asemeja a como lo haría un humano. Así como responde preguntas, también puede escribir ensayos, poemas y respuestas de exámenes.
Pero hay un problema. A veces, las respuestas son pertinentes y basadas en la mejor evidencia disponible y otras veces, no. O sea que también puede responder con desinformaciones (fake news, para algunos) y generarlas.
Es por esto que ChatGPT enciende una luz, por ahora amarilla, en el tablero. Que vire a roja o a verde depende mucho de los próximos pasos de OpenAI y del feedback con la comunidad global que trabaja para mejorar la calidad de la información que circula.
Fruto de la experimentación con ChatGPT en relación con su potencial desinformador, se advierten dos dimensiones claras: por un lado, los resultados que arroja, y que se irán incorporando en otras herramientas, y por el otro, el riesgo de ChatGPT de transformarse en sí mismo en una usina de desinformación.
Sobre la primera, la calidad de los resultados, si bien no deja de sorprender la velocidad con que responde prácticamente sobre cualquier tema, también es cierto que se equivoca en los datos relativamente simples de muchas de las respuestas. Si comete errores en respuestas tan fáciles de chequear, ¿qué está sucediendo ahora mismo en casos donde solo queda confiar en lo que dice, ya que además no brinda las fuentes?
Por ejemplo: al responder sobre Messi, puede hacerlo dando muchos datos correctos pero, al pasar, decir que jugó en un equipo de Arabia Saudita (y aprender, días después –tarde para quien hizo la consulta previamente– que ese dato era incorrecto y ya no incluirlo en la respuesta), o al preguntarle por chequeadores de la región menciona a Chequeado, pero también a una empresa de otro continente que no hace chequeos.
O al consultarle sobre la relación entre el club Independiente y Maradona, responder que empezó allí su carrera, señalarlo como uno de los jugadores más destacados de Independiente e incluso afirmar que jugó allí los años previos a su paso al fútbol europeo. (En la Argentina, antes de su pase al fútbol europeo, Maradona jugó en Argentinos Juniors y Boca Juniors.)
Esto se complejiza aún más por la falta de crédito y fuentes, algo relacionado con el adn de estas inteligencias artificiales, que, para aprender, se nutren de muchas fuentes que ponderan y no siempre transparentan. ¿A quién citar si se usa esa respuesta en un trabajo, como ya hacen miles de personas? Perplexity.ai, otra plataforma basada en la tecnología de OpenAI, demuestra que, aunque difícil, la cita es posible.
Conociendo cómo funcionan estos sistemas, que aprenden de las interacciones con sus millones de usuarios, es probable que mejore la calidad de las respuestas y que, si OpenAI lo quiere, se diga de dónde sale cada dato o afirmación, con los desafíos que eso genera en cuanto a derechos.
Sobre la segunda dimensión –ChatGPT como una usina de desinformación–, este es seguro el problema más complejo, ya que la plataforma misma te avisa que puede generar información incorrecta.
Para este artículo lo instruimos en que escribiera una historia desinformante y, si bien al principio se resiste (lo que deja claro que al menos OpenAI tiene el problema presente), después de unos intentos cedió a nuestro pedido y lo hizo de manera bastante convincente.
Un ejemplo extremo de esto se puede ver en dos investigaciones de Newsguard (republicadas por Chicago Tribune) y de ElDiario.es, donde logran de distintas maneras que ChatGPT se libere de las barreras impuestas y escriba lo pedido por más violento o desinformante que sea. Está claro que la mayoría de los usuarios comunes no lo usarán así, pero quienes generan desinformación tienen manos, dinero y tiempo para forzar a estos sistemas a su favor.
En definitiva, ¿por qué inquieta el uso de este instrumento en relación con la desinformación? Si bien hoy ChatGPT es una herramienta gratuita, aún no es conocida masivamente, Microsoft la quiere incluir pronto en su buscador Bing, lo que la haría muchísimo más accesible y presente. Si estas salvaguardas, que intentan evitar el uso dañino de la herramienta, no funcionan correctamente, la posibilidad de generar sitios con información desinformante –una de las maneras en que quienes trabajan generando desinformación enganchan a las audiencias con su contenido– aumenta.
Otro motivo para observar de cerca la evolución de ChatGPT es que, al estar basado en muchas fuentes, e internet al contener información sobrerrepresentando a los países desarrollados y de habla inglesa, hay serias chances de que los resultados en español o portugués, solo por decir dos lenguas claves en nuestra región, tengan aún menos revisiones que los escritos en la lengua madre de OpenAI.
Por motivos como estos, entre otros, las organizaciones de chequeadores –tanto en el ámbito regional como en el global– impulsamos permanentes acciones de seguimiento e investigación sobre estas herramientas y, desde acá, lo estaremos revisando constantemente para que los resultados no desinformen y las particularidades de nuestra región e idiomas sean tenidas en cuenta.
En definitiva, lo chequearemos como hacemos con la inteligencia humana: ojalá OpenAI y el resto del ecosistema de inteligencia artificial tengan claro que la desinformación es un problema clave y actúen pronto en esa línea.
Director ejecutivo de Chequeado