Solemos preferir tratar con una persona antes que con un sistema tecnológico, incluso cuando este ofrece mejor rendimiento, pero estamos más dispuestos a confiar en las máquinas si nos demuestran que son capaces de aprender
- 5 minutos de lectura'
Entre humanos, es habitual perdonar el error ajeno y admitir el propio. “Al mejor escribano se le va la pluma”, dice el refranero que tan bien nos conoce. Cuando la que mete la pata es una máquina, nos volvemos inmisericordes. Así lo revelan estudios como el que acaba de publicar un equipo de investigadores de las universidades de Munich y Darmstadt, en Alemania. Cuando un sistema de decisión basado en algoritmos comete un error, nuestra confianza en ellos se daña más que la depositamos a en personas que nos han dado el consejo equivocado. Sin embargo, esta crisis de fe tiene cura: que el modelo demuestre su capacidad de aprender.
El fenómeno, bautizado en la academia como aversión al algoritmo, no es nuevo. “En los años 60 había estudios que observaban la atención sanitaria y las decisiones médicas, comparando sus juicios clínicos con aquellos basados en estadísticas. Pese a que estos métodos eran realmente precisos en sus predicciones, los humanos siempre se abstenían del juicio puramente estadístico”, explica Benedikt Berger, autor del estudio, junto con Martin Adam, Alexander Rühr y Alexander Benlian.
Los investigadores han trasladado ese modelo a la relación entre humanos y sistemas de aprendizaje automático, y han encontrado una tendencia parecida. “En general, somos más reacios a confiar en algoritmos para tareas subjetivas”, explica Berger. Esto ocurre en el caso de los diagnósticos médicos, pero también en otros marcos de decisión, como la determinación de si un chiste es gracioso o la posibilidad de que dos personas sean pareja. “Cuanto más subjetiva es la tarea, más ignoramos a los algoritmos”, precisa el investigador.
En el caso de las tareas objetivas, de entrada, estamos dispuestos a escuchar la opinión de la maquina. De acuerdo con el estudio, en el que han participado casi 500 personas que han interactuado con consejeros humanos y sistemas de decisión basados en algoritmos, no hay una aversión general en estos casos. El problema llega cuando la máquina da señales de torpeza. “Cuando empezamos a conocer el algoritmo y su rendimiento, y vemos que puede fallar, que no es perfecto, surge la aversión”, añade Berger.
Una sola oportunidad
¿Cómo se rompe la magia? El experto apunta a diferentes hipótesis. Por un lado, la concepción que tenemos de los algoritmos como conjuntos de reglas fijas podría generarnos mayores expectativas que las que tenemos ante un imperfecto humano. Por otro, esa mayor disposición a perdonar las equivocaciones de nuestros congéneres puede estar fundamentada en el reconocimiento de nuestra capacidad para aprender de los errores. Al primer traspié de la máquina, damos por hecho que inevitablemente volverá a tropezar en la misma piedra.
“Pero esto no es cierto para cualquier sistema. Hay ejemplos de algoritmos que pueden aprender de resultados previos que no hayan sido óptimos”, matiza Berger. De acuerdo con sus investigaciones, esta habilidad podría guardar la clave de la redención de las máquinas. “Si el sistema demuestra un rendimiento que se optimiza continuamente y la gente reconoce que está mejorando, esto puede compensar el shock inicial”.
Es una relación similar a la que tenemos con el sistema de recomendación de Spotify. En el momento de la creación de la cuenta es inevitable que algunas de sus sugerencias musicales nos parezcan un sinsentido. “Estos sistemas necesitan observar el tipo de música que escuchas o los artículos que compras para saber qué ofrecerte. Es lo que se conoce como problema de arranque en frío”, explica Berger.
Una manera de salvar este escollo es tratar de recabar algo de información al inicio. Amazon, por ejemplo, recurre a esto con sus Kindle: ofrece a cada nuevo usuario la posibilidad de introducir libros que ha disfrutado o está interesado en leer. “Otra opción es comunicar que inicialmente las sugerencias pueden no ser muy precisas y que, con el tiempo, irán mejorando”, señala el investigador. La opción de reforzar la comunicación, afirma, también es válida para sistemas en los que no hay aprendizaje automático, pero sí mejoras introducidas por parte de los ingenieros. “No vale una lista enorme de actualizaciones en lenguaje técnicos”.
Cuestión de equilibrio
Pasarse de optimismo en la comunicación de estas mejoras también es peligroso. Es más, nos devuelve al punto de partida. “Sobreprometer es arriesgado. Y es algo que la inteligencia artificial en general ha sufrido en el pasado. Si elevas las expectativas y no las cumples, tendrás usuarios insatisfechos”, advierte Berger. “En ciertos aspectos, puede ser peligroso. Por ejemplo, en Alemania, se le ha prohibido a Tesla llamar piloto automático a su sistema de conducción avanzada porque lleva a la gente a pensar que no tiene que hacer nada mientras conduce. Pero es un asistente”.
También hace falta equilibrio en la confianza que depositamos en los algoritmos, por muy duchos que sean en aprender de sus errores. “Existe un fenómeno opuesto que se conoce como sobreconfianza en sistemas tecnológicos”, señala el investigador. En este extremo, las investigaciones demuestran que podemos pecar de exceso y seguir ciegamente a las máquinas hasta desenlaces que nos perjudican. Berger pone como ejemplo en los que se presentan escenarios ficticios donde los que un robot actúa como guía dentro de un edificio en llamas. “La gente seguía al robot incluso cuando sus indicaciones eran claramente erróneas. Definitivamente tenemos que ser cautos y juzgar las decisiones de los algoritmos con sano escepticismo”.
EL PAIS