La historia de personas que se hacen pasar por máquinas para generar la ilusión de “inteligencia” no es para nada nueva. A fines del siglo XVIII, empezó a circular el rumor de un autómata que podía jugar al ajedrez: se trataba del Turco, un mueble de madera del tamaño de un escritorio que en uno de sus lados tenía un maniquí vestido de túnica y turbante. En su interior, podía verse un intrincado mecanismo que “jugaba” contra sus atónitos oponentes humanos, muchas veces ganándoles. Pero el Turco era en realidad una ilusión mecánica, que permitía a un jugador de ajedrez experto operar la máquina desde adentro. En sus 84 años de juegos y demostraciones, llegó a derrotar a jugadores de la talla de Napoleón Bonaparte y Benjamin Franklin. Finalmente, fue Silas Weir Mitchell, hijo del último dueño del Turco, quien reveló el secreto del (falso) ajedrecista mecánico.
Entre tanto mal periodismo sobre la “ inteligencia artificial ”, se vuelve interesante detenernos a espiar detrás de la cortina para ver a los humanos que están del otro lado. El año pasado, se armó cierto escándalo alrededor de Facebook cuando se descubrió que algunas de las noticias recomendadas eran elegidas por un equipo editorial y no por meros algoritmos. En parte, el rechazo surgió a partir del posible sesgo que este equipo editorial pudiera tener frente a la alegada fría objetividad de los algoritmos (que sabemos que tampoco es tal). Los algoritmos que heredan y reproducen invisiblemente los sesgos humanos, que pueden ser discriminatorios o incluso peligrosos, como también pueden ser favorables. Pero lo que esto puso en evidencia fue algo mayor: muchas de las empresas que venden la omnipotencia de la inteligencia artificial, su rapidez para resolver tareas mecánicas y —sobre todo— su neutralidad, rara vez pueden cumplir con estas promesas sin involucrar a personas de carne y hueso, los “invisibles” que hacen posible el sueño de la (supuesta) inteligencia artificial. Por eso es que su auditabilidad y transparencia se vuelve indispensable.
Como señalan Mary L. Gray y Siddharth Suri, la “inteligencia artificial” muchas veces es tan mecánica como lo es el “grande y poderoso Oz” en aquella escena en que Dorothy y sus amigos descubren que el mago es, simplemente, un hombre moviendo palancas y tocando botones detrás de una cortina. De forma análoga, gran parte del trabajo sucio de la web lo hacen personas encargadas de denunciar material inapropiado en YouTube (pornografía y videos explícitos de asesinatos, entre otros asuntos que le quitarían el apetito a cualquiera); transcribir los textos presentes en imágenes; o entrenar algoritmos para que “aprendan” a reconocer ciertos patrones.
Por lo pronto, esta relación simbiótica entre máquinas y humanos, que aparece cuando las máquinas no son capaces de resolver correctamente la tarea, no va a irse a ningún lado. Este fenómeno es conocido como la “paradoja de la automatización”: a medida que la automatización de tareas avanza, se eliminan ciertos trabajos repetitivos y se crean otros. Estos nuevos trabajos, muchas veces también repetitivos, apoyan el funcionamientos de los sistemas automáticos. El mayor ejemplo actual de esta pseudo-automatización es el servicio “Mechanical Turk” de Amazon, nombrado en alusión al Turco ajedrecista, que permite coordinar el uso de inteligencia humana distribuida para realizar tareas que las computadoras actualmente no pueden realizar.
Las noticias sobre “inteligencia artificial” se multiplicaron tanto en los últimos años que prácticamente vaciaron al concepto de su significado, denuncia Ian Bogost. En una columna publicada en marzo, Bogost despliega un buen número de ejemplos que señalan como mucho de lo que se llama “inteligencia artificial” simplemente es software con distinto grado de sofisticación. Desde algoritmos que se supone pueden detectar comentarios negativos en internet (pero son engañados con simples errores de tipeo), a chatbots automatizados que son abandonados luego de una sola interacción por, al menos, el 40% de los interlocutores. Estos ejemplos alientan una noción de “inteligencia artificial” tan alejada de la realidad que no le sirve a nadie. Una posibilidad para lograr mayor madurez en la forma en que discutimos estos temas es usar una terminología más precisa. Alejandro Crosa, emprendedor y ex ingeniero de Software en LinkedIn y Twitter, propone hablar de “machine learning” o “aprendizaje automático”, que en la mayoría de los casos es de lo que efectivamente se está hablando. “Si usan el término ‘inteligencia artificial’ es probable que lo estén haciendo para intimidarte o simplemente para venderte humo”, sostiene Crosa.
Jerry Kaplan, científico de la computación de Stanford y autor de Humans Need Not Apply (2015), advierte también que este temor desmesurado frente a la “inteligencia artificial” se ve agravado por la manera en que suele hablarse de ella. En las últimas semanas, por ejemplo, muchos medios se hicieron eco de una noticia ridículamente exagerada acerca de una supuesta “inteligencia artificial” de Facebook que “tomó vida propia luego de que sus creadores perdieran el control”. Es difícil siquiera empezar a marcar todas las maneras en que eso es aberrante, pero en resumidas cuentas lo que pasó fue que dos agentes automáticos o “bots” empezaron a “conversar” en función de ciertos objetivos, y desarrollaron un lenguaje anómalo. Esto sucedió porque sus desarrolladores olvidaron incluir la regla de que conversaran en correcto inglés. El objetivo era que los bots pudieran comunicarse efectivamente con humanos y no entre ellos. Pero, frente a su inutilidad, el experimento fue dado de baja.
Sin duda, los desarrollos en el campo de la inteligencia artificial son fascinantes. Pero la disciplina puede verse afectada en forma negativa si en lugar de tener discusiones serias sobre el verdadero impacto de estos avances o la particular relación entre algoritmos y humanos, damos cabida al sensacionalismo. Tenemos que dejar de describir a la “inteligencia artificial” como un ente cuasi-humano que va a dominar la Tierra, y empezar a pensar en sus distintas variedades como herramientas, hechas por humanos y por lo tanto profundamente falibles, que si son aprovechadas correctamente pueden hacernos la vida más fácil. Esto no implica abandonar el espíritu crítico hacia las máquinas o quitarnos el escepticismo, sino todo lo contrario: orientar nuestras críticas correctamente.
Hace unos días, en las calles de Arlington, VA, EE. UU., se vio pasar un auto que se manejaba solo. Curiosamente, no parecía contar con los aparatosos sensores a los que nos tienen acostumbrados los autos de este tipo que se vienen desarrollando desde Waymo (Google) o Uber. Dispuesto a llegar al fondo del asunto, un periodista persiguió el auto y, en un semáforo, se arrimó a la ventanilla para tomar buenas imágenes del interior. Pero no encontró sofisticados sistemas informáticos, sino a un hombre disfrazado de asiento del conductor.
Alert!!! We found the supposed self driving van in Arlington - and there's a guy hiding behind the seat!!! @nbcwashingtonpic.twitter.com/EeI7rhQi1R&— Adam Tuss (@AdamTuss) 7 de agosto de 2017
Aunque no se conoce la historia completa, se especula que se trató de un experimento del instituto Virginia Tech para analizar la reacción de los transeúntes y conductores frente a este tipo de autos. Una vez más, a veces lo que se hace conocer como “inteligencia artificial” solo esconde a un hombre disfrazado.
Otras noticias de Inteligencia artificial
Más leídas de Tecnología
Clave. Los trucos de WhatsApp más simples y prácticos que son fáciles de aplicar
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo
Auto clásico. Cómo se vería el histórico Dodge GTX modelo 2025, según la IA