En Estados Unidos Google activó una nueva función que genera una respuesta a una búsqueda sintetizando en el momento varias fuentes de contenido; usa Gemini, una inteligencia artificial al estilo ChatGPT, pero hay muchas quejas por el suministro de respuestas con información errada
- 4 minutos de lectura'
Una receta para pizza casera que incluye plasticola como ingrediente es el nuevo fiasco viral de AI Overview, la nueva función con la que Google quiere darle una vuelta de tuerca al motor de búsqueda que creó hace 25 años, y que debutó hace unos días en Estados Unidos (y se puede probar en la Argentina).
Hace unos días Google activó AI Overview en Estados Unidos, una función que usa a Gemini (el asistente potenciado por inteligencia artificial tipo ChatGPT de Google) para generar una respuesta a una búsqueda compilando información en varios sitios y sintetizando los datos en una única respuesta, que Gemini genera para ese usuario.
La función, que Google anunció hace un año y ahora está disponible (y llegará a más países con el correr del tiempo) aspira a reemplazar la lista de links clásica de Google con un texto generado en base a información en esos sitios. La nueva herramienta es polémica, porque acrecienta una práctica que la compañía tiene hace tiempo, que es tratar de resolver todas las búsquedas en su sitio, sin derivar a los usuarios a otra página; para el usuario es conveniente porque recibe toda la información procesada; para los creadores de contenido que generaron esos sitios en los que Google encontró los datos significa recibir todavía menos visitas. Google pone los links a las fuentes de información al final de la respuesta generada por inteligencia artificial, y permite desactivar esa nueva forma de buscar; pero el usuario ya sabe que lo importante ya lo tiene en esa respuesta que generó Gemini, la inteligencia artificial de Google, y que es poco probable que encuentre algo más en esos links.
El problema es que Gemini -al igual que otras inteligencias artificiales generativas, como ChatGPT, Copilot, Claude, Grok y más- no sabe si lo que leyó y está repitiendo es correcto o no: sólo se apoya en la reputación del contenido del que está sacando la información. En el caso de la pizza con pegamento, todo sale de un acuerdo que firmaron Google y Reddit en febrero último, por el que el gigante de las búsquedas pagó 60 millones de dólares por el derecho a usar el contenido que los 73 millones de usuarios de Reddit dejaron en comentarios a lo largo de los años, y que le permitió a Reddit alcanzar un valor bursátil de 9000 millones de dólares un mes después, cuando salió a la bolsa.
Reddit le abrió la puerta a la inteligencia artificial de Google, que tomó esa información cómo válida, incluyendo un comentario de un usuario de Reddit que hace once años dejó, y que cualquier persona con sentido común puede reconocer como humorístico. “Para que el queso se pegue [a la pizza] recomiendo mezclar un 1/8 de taza de pegamento Elmer’s [una marca de cola vinílica] con la salsa”, dice el comentario. “No se deslizará el queso y le dará un sabor único”, agrega; Gemini probablemente lo valoró más porque recibió valoraciones positivas de usuarios festejando la humorada.
Seems the origin of the Google AI’s conclusion was an 11 year old Reddit post by the eminent scholar, fucksmith. https://t.co/fG8i5ZlWtl pic.twitter.com/0ijXRqA16y
— Kurt Opsahl @kurt@mstdn.social (@kurtopsahl) May 23, 2024
Otras respuestas incorrectas que están viralizándose en redes sociales tienen que ver con la afirmación de Gemini de que los perros han jugado en forma profesional en las ligas de fútbol americano, basket y hockey, o con considerar que una víbora es un mamífero:
I saw someone else mention this one on another post
— Raven - 🍉 (@RavenTenebris13) May 20, 2024
Ah yes , the snake very famous for being a mammal 🤣 pic.twitter.com/xo538FcqoK
Un ejemplo más: alguien le preguntó a Google por qué un gato podía estar lamiéndole las manos... y a las respuestas clásicas (afecto, ansiedad) le agregó otra, también sacada por Reddit, en la que alguien sugería que era porque el felino estaba decidiendo si se comía a esa persona o no.
La respuesta de Google
Según le dijo Google a The Verge, este tipo de situaciones solo sucederán con búsquedas poco populares, donde hay pocas fuentes de información y -más importante- el algoritmo de valoración de Google no está seguro de cuál es la mejor fuente de información. Y AI Overview sigue siendo experimental. Pero en cualquier caso es un problema para la compañía: muchos usuarios están acostumbrados a las alucinaciones de ChatGPT (y a veces se meten en problemas por ello), pero buscar algún dato es una de las múltiples tareas de ChatGPT; en el caso del buscador de Google, ofrecer información confiable es la principal.
Otras noticias de Internet
Más leídas de Tecnología
Imágenes. Cómo se vería el histórico Renault Fuego modelo 2025, según la IA
Un pizarrón infinito y a medida. Las lecciones que dejan dos años de ChatGPT en el aula
Prototipo. Compró un iPhone usado en China y resultó ser un modelo único de Apple
Una por una. Qué tipo de proteínas ayudan a aumentar la masa muscular, según la inteligencia artificial