La Directora de Estrategia de Investigación en Inteligencia Artificial en Google Research explicó cómo se debe regular correctamente el desarrollo de la IA
- 8 minutos de lectura'
La lengua y la informática son dos pasiones de igual intensidad para la española Pilar Manchón, Directora de Estrategia de Investigación en Inteligencia Artificial en Google Research. Con un doctorado en Lingüística Computacional, su paso por la física y la filología le dan un perfil único que ha dejado huella en Silicon Valley. En empresas como Intel, Amazon y Google ha liderado proyectos clave en IA conversacional y procesamiento del lenguaje natural. Y desde su cargo en Google, sus contribuciones a la investigación en IA, especialmente en la comprensión del lenguaje natural y los sistemas conversacionales, la posicionan como una figura clave en la innovación tecnológica. En diálogo en exclusiva para LA NACIÓN, Manchón abordó los grandes debates que genera la tecnología estrella de la actualidad.
-Muchas grandes empresas de IA de Silicon Valley están utilizando perfiles de las áreas humanísiticas (poetas, literatos, entre otros) para el entrenamiento de los grandes modelos. ¿Por qué se da esa sinergia?
-La inteligencia artificial tiene un impacto tan profundo en cómo podemos construir una sociedad nueva que lo más importante ahora no es avanzar y ver cómo podemos hacer más, sino hacia dónde vamos, qué tipo de sociedad queremos, qué es lo justo, qué es lo necesario, qué tipo de relaciones sociales queremos, qué tipo de humanismo queremos. Las humanidades llevan estudiando eso durante milenios, y en esos milenios han surgido muchísimas filosofías, ideologías y formas de ver la vida. ¿Cómo podemos hacer que la inteligencia artificial nos ayude a ser mejores si no podemos definir lo que “ser mejores” significa? En algo tan importante, tan profundo y de tanta trascendencia tienen que haber más voces involucradas. No es solamente qué tecnología, sino hacia dónde nos va a llevar esa tecnología y cuáles son los valores que nos van a guiar. Tiene que haber un equilibrio entre lo que se puede hacer tecnológicamente y lo que se debe hacer tecnológicamente, para eso tenemos que aprovechar a las personas que se han dedicado más en profundidad a estudiar la riqueza de la esencia humana.
-¿Qué tanta preocupación genera en tu visión el nivel de alucinaciones que hoy arroja la IA, sobre todo en áreas críticas como puede ser la Salud o la Economía?
-Lo principal desde el punto de vista de Google es ser responsable. Es muy difícil que la inteligencia artificial llegue a ser perfecta, porque las tecnologías en ningún caso son perfectas, pero dependiendo de qué aplicación y qué dominio hay distintos niveles de riesgo. Por ejemplo, si yo utilizo la inteligencia artificial para buscar una canción que me guste, y no es la canción que me gusta, o no es la canción que yo pedía, el impacto que eso tiene no es significativo. Sin embargo, en aplicaciones donde esa decisión puede tener un impacto económico, financiero, en salud, el riesgo es otro. Desde Google Research y en todas las áreas de producto, trabajamos en minimizar no solamente las alucinaciones sino en poder identificar cuándo no estamos seguros de si algo es cierto. De hecho hace muy poquito se ha lanzado una nueva interfaz donde se puede ver en verde cuando el resultado es de una fuente segura, si están en amarillo es que creemos que es cierto (pero puede que no) y si están en rojo no hay certeza de que sea cierto. De esta manera queda a criterio del usuario comprobar la fuente, hacer otra búsqueda, lo que sea.
-Ahí sobreviene una discusión de esta época que es la fuente versus la verdad. ¿Cómo se consigue automatizar esa distinción en millones de datos?
-Realmente distinguir ambas cosas de manera automática es complicadísimo, incluso si lo querés hacer de manera manual, no necesariamente todo el mundo estaría de acuerdo en la interpretación, en cómo clasificás un tipo de verdad o un tipo de hecho y otro. Pero hacerlo de manera automática, de forma coherente, en múltiples contextos y demás, sube la complejidad exponencialmente.
-Hay una sensación de que la inteligencia artificial como interfaz se va convirtiendo en un “nuevo normal” o estándar de uso para el usuario, quien se va acostumbrando a interactuar con este tipo de tecnología que incluso tiene una narrativa y propone una estilo de conversación propio. ¿Puede llegar un momento en que no nos demos cuenta que estamos interactuando con una IA hasta el punto de hacerse invisible?
-Yo creo que la naturaleza propia humana es dar por sentado y entrar en modo automático y no pensar siquiera en la complejidad de lo que viene detrás. Entonces, nos está pasando mucho, por ejemplo, con los GPS. Hace unos años, muchos años antes de que todo el mundo tuviera GPS en el móvil, tenías el aparatito de GPS que tenías que comprar para poner en el auto; de lo contrario, tenías que pensar y prestar atención a cómo llegar y a las rutas. Hoy ni siquiera lo pensás. De la misma manera, las tecnologías pasan a ser parte de nuestra vida cotidiana sin pensar que son tecnologías muy avanzadas.
-Si esta interfaz de uso se convierte en la norma, ¿es un reto para aquellas organizaciones o empresas que aún no lo utilicen? La sensación es que podría generar rechazo ver un centro de salud, un banco, una servicio de atención al cliente que prescinda de IA.
-Yo creo que llegado al nivel de madurez que tenemos, y la calidad de las tecnologías, el impacto que está teniendo a tantos niveles la está convirtiendo en muy útil, es más que un efecto “súper cool”. A mejor calidad en algunas cosas, a mayor eficiencia, más tiempo para nosotros. Ya no hay marcha atrás, es una cuestión de cómo abordamos ese cambio, ya sea como sociedad, como gobierno, como industria o como compañía. Lo que está claro es que vamos en esa dirección. Muchas de estas iniciativas que impulsamos desde Google Research para apoyar a las distintas oficinas de Google en todo el mundo son también para dar una visión más global. Un estudio publicado por McKinsey en 2023 indicó que esta tecnología podría generar entre 17 y 25 billones de dólares anuales a la economía global para 2030, entonces cambia un poco la perspectiva, esto va a pasar con o sin nosotros. Vivimos en un mundo global y conectado donde la economía de mercado va a depender de cómo me lleve con los mercados externos, entonces, ¿qué papel quiero jugar? ¿Quiero ser líder? ¿Quiero ser pionero? ¿Quiero ser participante o quiero quedarme rezagado y esperar a ver qué pasa? Todo tiene sus consecuencias, pero lo que queremos es intentar ayudar en la medida de lo posible a guiar a las distintas comunidades y Gobiernos con la información que tenemos para que tomen las mejores decisiones posibles, para que implementen políticas que ayuden a sus respectivas regiones a avanzar, a montarse, a incrementar las capacidades.
-Mencionaste claramente que la regulación en IA no debe ser barrera a la innovación. ¿Cómo se hace ese balance teniendo en cuenta el poderío que tiene este tipo de herramientas?
-Creo que al principio, antes que regular, hay que dejar hacer y cuando se vea qué problemas se pueden identificar, entonces regular con respecto a esos problemas y hacerlo ampliando las leyes ya existentes. No es necesario hacer una ley masiva, nueva, sino que lo que se puede hacer es incluir los casos de inteligencia artificial. Se trata de esperar un poco a ver hasta dónde se llega para luego regular en función de las necesidades, y no pre-regular y truncar la posible creatividad innovadora.
-¿Qué impacto tiene la computación cuántica en el futuro de la IA? ¿Qué viene por delante?
-Una opinión educada del futuro es que lo que viene va a ser incluso más impactante de lo que ya hemos visto en términos de agilidad, de capacidad de cómputo. Ahora mismo no somos capaces ni siquiera de anticiparlo, porque la mente humana piensa de manera lineal y esto es una multiplicación aritmética que siempre nos cuesta mucho trabajo dimensionar. Cuando lleguemos a un punto de madurez suficiente con el quantum computing y con la inteligencia artificial y esa interacción esté en acción, va a ser incluso otro salto cuántico, en avances de todo tipo, estamos apenas llegando a los primeros brotes, por ejemplo en el proyecto AlphaFold. En ese caso ya hemos distinguido las 200 millones de proteínas que las están utilizando en 190 países no sé cuántos miles de científicos. ¿Y ahora qué? ¿Siguiente fase? Inventar las proteínas. Hay que imaginarse casos como éste pero a nivel exponencial. Lo que tarda ahora, por ejemplo, semanas, meses, se puede reducir a segundos o minutos y en un día podŕas hacer experimentos que antes te llevaban tres años. No es solamente la creatividad de probar combinaciones, sino cuántas combinaciones se pueden probar, a qué coste y optimizándolo todo. Por supuesto que habrá cuestiones que habrá que mitigar y hay riesgos asociados, pero las ventajas y el avance es tan espectacular que no hay más remedio que seguir adelante e invertir en esa dirección.
Otras noticias de FuturIA
De 20 minutos a 20 segundos. La impactante aceleración que la IA puede traer a un sector profesional donde el tiempo es vital
"Las redes sociales son grandes generadores de experiencias de fracaso". Qué opina la generación Z sobre Tiktok y otras redes sociales
Ya tiene más de 10.000 usuarios. Son argentinos y crearon el primer banco digital para trabajadores remotos
Más leídas de Tecnología
En enero. ChatGPT prepara una función clave para transformarse en un verdadero asistente
Para incentivar más descubrimientos. Cómo funciona la nueva IA de la Nasa que recopila toda la información científica de la Tierra
Seguridad. Las tres nuevas herramientas de Google para proteger tu celular si te lo roban
Darío Werthein, presidente de Vrio Corp. “Ya estamos en el nuevo mundo que nos impone la IA”