X Eyeé es referente en tecnologías responsables e inclusivas; estuvo en la Argentina y dio su visión de cómo construir IA de manera escalable, respetando diversidad, culturas y geografías
- 10 minutos de lectura'
Cautivante y con magnetismo, X. Eyeé lidera Malo Santo, una consultora que capacita a empresas de la talla de L’Oreal o Mozilla para crear inteligencia artificial (IA) que pueda escalar en todas las geografías, culturas y dentro de comunidades específicas, y también se dedica a la asesoría política en la Universidad de Berkeley en California.
Previamente, y durante 17 años, se desempeñó como líder de ingeniería, gerente de producto e investigación en Microsoft, Google y en el Departamento de Defensa (de hecho, estuvo en Afganistán como oficial del Ejército). En Microsoft, trabajó en soluciones de inteligencia ambiental de vanguardia que combinaban blockchain, IA e IoT para empresas Fortune 500 de todo el mundo.
En Google trabajó en todos los productos e investigaciones de inteligencia artificial de la compañía para garantizar que se crearan de manera responsable y ética. Allí creó nuevos equipos de investigación, incluido el equipo Skin Tone, que desarrolló técnicas para mejorar la capacidad de la IA para reconocer diversos tonos de piel, un trabajo que estableció nuevos estándares en la industria para medir el tono de la piel en IA y mejorar el desempeño de productos como la cámara del teléfono Pixel y la búsqueda de imágenes de Google.
Dialogó en exclusiva para LA NACION en el marco de su llegada al país para el Bid Lab Forum, encuentro internacional organizado por el laboratorio de innovación y venture capital del BID que impulsa soluciones innovadoras de impacto a escala en América Latina y el Caribe cuya tercera edición se celebró en Buenos Aires la semana pasada.
Un inversor afirmó recién que en América Latina “no vamos a construir IA sino que vamos a ser consumidores de IA”. ¿Cuál es tu visión al respecto?
Investigación realizada en Estados Unidos muestra que los latinoamericanos son los más rápidos en adoptar IA. La idea de que no van a construirla o formarla, está equivocada. Creo que en la región existen formas únicas de vivir que son diferentes de cualquier otro lugar del mundo; una compañía de afuera no puede construir una IA para ella. Existen desafíos únicos dentro de cada país, dentro de cada cultura, que solo aquellos que los entiendan profundamente pueden construir soluciones. Quizás sí creo que no habrá tanta infraestructura de IA que provenga de América Latina. Si mirás ChatGPT o Gemini, son modelos pueden hacer un poco de todo, pero no son muy buenos en algo en particular. Hay mucho espacio para que América Latina construya modelos que sean buenos en cuestiones específicas, en trabajos específicos, en problemas específicos, en países y comunidades específicas.
Como consultora, cuando estás frente a frente con empresas, ¿cuáles son tus principales preocupaciones respecto a las implementaciones de IA?
Creo que mi principal preocupación es que la gente se está moviendo demasiado más rápido de lo que efectivamente progresa. Por ejemplo, todo el mundo quiere usar la IA de algún modo, pero nadie quiere hacer una pausa y preguntarse: ¿cuáles son las formas en las que NO deberíamos usar la IA? Falta conocimiento de la tecnología en el caso de la gente que la está construyendo e incluso ignorancia voluntaria, cuando saben que no funciona pero no les importa. Y otra cosa que me preocupa es que las personas reales son “los sujetos de prueba” para estos sistemas de tecnología, porque no tenemos políticas fuertes que obliguen a probar lo que se está haciendo antes de ponerlo en marcha; es decir el lanzamiento de la tecnología -que realmente afecta a las vidas de las personas reales- es en sí mismo el periodo de prueba.
¿Y cómo creés que se puede equilibrar la innovación y la regulación?
Creo que la lógica de innovar en IA y luego regular beneficia a las empresas que quieren ganar dinero rápidamente. En medicina no se lanzan fármacos sin testear y estudiar previamente. Honestamente, moverse así va en contra de la innovación, porque se construyen productos que no funcionan y afectan la vida de las personas. Lo que ocurre es que luego, para arreglarlo, es mucho más complicado que corregir una aplicación convencional. La IA aprende de patrones, de enormes cantidades de datos. Para arreglar un error, primero hay que dejar de usarla y entender por qué tomó la decisión. Luego, hay que brindarle suficientes datos para desaprender el patrón y aprender el nuevo. Si las empresas no quieren pensar críticamente sobre estos sistemas, pueden ser las primeras en comercializar, pero serán las últimas en arreglar lo que funciona mal, y es contraintuitivo para la innovación ignorar estas fronteras.
¿Dónde debería estar el foco al momento de regular?
El reto con la regulación de la IA es cuando mirás el riesgo y los casos de utilidad. Si Amazon recomienda un producto que no quiero comprar, probablemente no me va a dañar, tampoco Netflix; pero si un médico recomienda una cirugía que no necesito porque la IA lo dijo es realmente peligroso, o si un banco decide otorgar o no un crédito o si las autoridades utilizan IA para decidir cuánto tiempo alguien debería ir a la cárcel, y estos son todos casos de utilidad activos en los Estados Unidos, en Europa y en otros países. No creo que haya que regular la tecnología en general, podés regular las formas en que no querés que sea usada, los casos de uso. Por ejemplo, si no querés que la IA sea usada para hacer pornografía falsa de niños reales, entonces hay que promulgar una ley que lo haga ilegal, aunque no sean niños reales. En California, existe una ley que dice que si usás IA en tu campaña política, tenés que declararla y no podés usarla a 120 días de la elección. Y ahora es ilegal hacer un deepfake de tu oponente político.
¿Cuál es la relación entre IA e implementación? Me refiero a lo relacionado a ciertos países y geografías con diferencias políticas o culturales.
La investigación muestra que ChatGPT o Gemini no funcionan bien para personas que no hablan inglés como primer idioma, tiene un enorme sesgo contra otros idiomas. ¿Por qué estamos tan emocionados por un predictor de texto que no puede entender las palabras que estamos diciendo si no hablás inglés como primera lengua?. Es un instrumento que no fue construido para otras comunidades, ¿por qué esperamos que pueda reconstruir nuestras sociedades de una manera que sea significativa e impactante? Al ser un calculador de lenguaje, te da la capacidad de ampliar tu propio genio ayudándote a formar tus ideas, pero no tiene capacidad de entender lo que dice, por eso alucina; y es difícil poder resolver las alucinaciones de un modelo que tiene 200 millones de estas interacciones cada día, no es sostenible como negocio. Mucho de lo que está sucediendo es que las grandes empresas están “atajando” los problemas en vez de replantearse su uso, probablemente porque hay una competencia enorme por sacar tajada a esta tecnología. Pero la pregunta es: ¿por qué limpiar los errores de una tecnología que podés simplemente utilizar de la manera que funciona bien, en lugar de intentar forzarla de maneras que no funcionan?
¿Cómo ayudás a las compañías a construir una IA más responsable y menos sesgada?
Hay tres áreas claves en las que Malo Santo trabaja: la primera es la educación. Trabajé durante muchos años en grandes empresas tecnológicas como Google en todos sus productos para hacer este tipo de trabajo, para descubrir cuándo un producto no está funcionando, cómo arreglarlo, cómo operacionalizarlo, la gobernación y el proceso de revisión, etc. Pero Google es una empresa tecnológica, por lo que es su obligación hacerlo, pero muchas empresas no son empresas tecnológicas y sus departamentos tecnológicos son pequeños y no pueden contratar a los mejores. Educamos a todos los niveles, podemos educar a ejecutivos sobre cómo pensar estratégicamente sobre cuáles son los riesgos para diferentes personas, con los equipos técnicos y legales para entender cómo funcionan los algoritmos, cuestiones de seguridad, privacidad, la seguridad, responsabilidad y gobernanza. No hay clase alguna que te pueda enseñar esto, no podés enviarlos a “la clase de privacidad de la IA”, no existe. Además, nuevas regulaciones surgen cada día, puede ser muy difícil entender cuáles aplican a tu organización y cómo efectivamente manejar todo esto mientras tus empleados están construyendo la IA.
¿Cómo construís, entonces, una IA que escale en diferentes geografías y/o culturas?
Tradicionalmente, para las empresas, la escalabilidad es simplemente alcanzar a más usuarios en diferentes regiones y para hacer eso, tenés algo que se llama localización, que es, cambiás de lenguaje, cambiás de color, quizás una funcionalidad para que se adecue a las leyes locales. Pero, en general, tu modelo de negocio se mantiene mayormente igual. Lo que ocurre con la IA es que cuando la entrenás en una región y querés ponerla en otra no es tan fácil como otras aplicaciones, porque hay diferentes aspectos que tenés que considerar sobre las normas culturales, sobre las normas sociales, sobre las necesidades y el modo en que una comunidad en particular puede funcionar en forma diferente de la tuya. Un ejemplo: una empresa había creado un producto para niños, un juguete educativo. Yo quise probar el juguete y me dijeron que no era necesario porque iba a estar disponible en todos los lenguajes de los países donde iban a vender. Luego de conversar con el robot y hacerle una pregunta sobre género que podría considerarse “controversial” el juguete respondió “está bien amar a cualquiera siempre que seas feliz”. ¿Se podría vender este juguete en Medio Oriente? ¿O qué tal padres en países o zonas más conservadores o en lugares donde ser LGBTQ+ es literalmente ilegal? Ellos pensaron que era un buen producto porque lo construyeron con una comprensión de lo que es el bien y mal en el mundo basado en una parte de California, y eso no significa que ese producto pueda generalizarse y escalarse en todos los lugares. Si querés escalar globalmente, entonces tenés que hacer el esfuerzo de pensar tu producto dentro de las diferentes fronteras geográficas, las diferentes fronteras sociales y las diferentes necesidades de la comunidad.
¿Sos una persona optimista respecto de la IA y el futuro? ¿A dónde vamos?
Creo que estoy entusiasmada por el futuro de la IA, porque creo en nuestra capacidad colectiva de decidir qué sucede a continuación. Creo que para muchas personas es fácil mirar a Elon Musk, Sam Altman, Mustafa Suleyman, Satya Nadella y a Sundar Pichai y preguntarse“¿qué tipo de mundo nos van a dar?, porque esto de la IA está demasiado lejos de mí”. La realidad es que nadie lo sabe. Ahora mismo estamos en un punto de comienzo con esta tecnología y podemos formar el futuro que viene con ella. Si no queremos un mundo donde haya robots que tomen nuestros trabajos, hagámoslo ilegal y que sean usados en ciertos casos. Pensemos: ¿de verdad queremos un doctor basado completamente en IA? No quiero que Elon Musk o Sam Altman decidan esto, la realidad es que tenemos que imaginarlo juntos y decidirlo juntos. La IA puede convertirse en un superhéroe o un supervillano en el futuro: la pregunta es, ¿qué elegiremos?.
Otras noticias de Inteligencia artificial
- 1
Las 5 señales que muestran que tenés una mentalidad positiva, según un análisis de IA
- 2
Netflix, Spotify y más: los precios del streaming sin el impuesto PAIS
- 3
Qué significa recibir un mensaje en WhatsApp con el número 7642
- 4
Sigue el debate por el uso de ChatGPT en el ámbito universitario: “desde que lo uso, pienso menos por mí misma”