Shannon Vallor: “Tenemos que evitar que la tecnología nos haga trabajar como máquinas”
De visita en el país, la filósofa norteamericana no teme un mundo en que los robots controlen a los humanos, sino uno en que los trabajadores se vean obligados a realizar sus tareas como autómatas
- 11 minutos de lectura'
Máquinas que desplazan a las personas de sus puestos de trabajo, ahora automatizados. Inteligencia artificial que decide por nosotros. Algoritmos que eligen qué música escuchamos, qué noticias leemos, a qué información accedemos, qué consumimos en nuestras redes sociales y qué películas vemos. Teléfonos celulares inteligentes que concentran cada vez más funciones y tareas. Lo que antes hacían por separado un reloj despertador, un mapa y una cámara de fotos, ahora lo hace todo un único dispositivo. La tecnología nos rodea y su avance es imparable, continuo y vertiginoso. Ante esta frenética evolución, es urgente reflexionar sobre los efectos sociales, las implicancias éticas y morales, y el impacto sobre el carácter del ser humano que tiene la innovación tecnológica.
Ese es el propósito de la filósofa estadounidense especializada en ética Shannon Vallor, directora del Centre for Technomoral Futures de la Universidad de Edimburgo. Allí busca combinar tecnología y moralidad en investigaciones académicas interdisciplinarias. Profesora universitaria, autora de numerosos libros, investigadora y exconsultora en asuntos de ética del gigante tecnológico Google, Vallor fue invitada por la Fundación Bunge y Born para brindar por estos días una serie de charlas y conferencias a funcionarios, emprendedores y referentes académicos y políticos de la Argentina. “La tecnología jamás es moralmente neutra y la innovación no siempre trae progreso”, advierte Vallor durante una entrevista con LA NACION.
"No podemos entender de manera completa la tecnología si ignoramos su dimensión moral, así como tampoco podemos comprender en profundidad a las sociedades en las que vivimos sin tener conocimientos tecnológicos"
Durante la charla con este diario, Vallor analiza el impacto de la tecnología sobre el mundo laboral, la política, el ámbito educativo y sobre la humanidad en general.
–Usted se desempeña como directora del Centre for Technomoral Futures de la Universidad de Edimburgo. ¿Cuáles son los propósitos y objetivos del centro y cómo es el trabajo que hacen allí? ¿Cómo y por qué fue creado?
–El centro se creó gracias a una donación de un fondo de inversión, con el objetivo de financiar un programa de investigación en tecnología. Era una oportunidad particularmente atractiva, porque ofrece becas, investigación y financiamiento. Trabajamos combinando disciplinas de la academia tradicional, las ciencias sociales y humanidades, como la filosofía y la ética, junto con la investigación en tecnología. Nuestra misión es llevar adelante investigaciones interdisciplinarias para evaluar el impacto social de los desarrollos tecnológicos. En el centro trabajamos filósofos, sociólogos, especialistas en temas legales o en ética, ingenieros, expertos en educación, especialistas en empresas, en datos. Esa es nuestra principal ventaja. No hay ninguna disciplina que nos brinde una visión holística de la tecnología. Sabemos que es difícil lograr esta intersección de disciplinas dentro de la investigación académica tradicional, pero nosotros alentamos a cruzar las fronteras disciplinarias. Buscamos combinar la tecnología con una dimensión ética, porque la tecnología jamás es moralmente neutra.
–¿Por qué es importante agregarle una dimensión moral a la tecnología?
–La tecnología siempre impacta en nuestra forma de vivir, en nuestras normas sociales e instituciones, y eso hace que necesitemos tener en cuenta sus aspectos morales y éticos. No podemos entender de manera completa la tecnología si ignoramos su dimensión moral, así como tampoco podemos comprender en profundidad a las sociedades en las que vivimos sin tener conocimientos tecnológicos. Necesitamos combinar ambas cosas. De lo contrario, tenemos un problema. La tecnología y la moralidad son inseparables. Las vacunas, los sistemas de irrigación en la agricultura son ejemplos de tecnologías que mejoraron nuestras vidas. Los cambios tecnológicos modifican el marco estructural en el que vivimos. La tecnología siempre influyó en el diseño institucional y siempre ha tenido un impacto moral en la humanidad. En algunas disciplinas y profesiones existe mucha conciencia sobre esto, como en la ingeniería, la medicina, la biotecnología. Los ingenieros tienen códigos éticos que datan de hace 150 años atrás, cuando ocurrieron los primeros casos de puentes cayéndose por negligencia, por error humano o malos cálculos. Por suerte, esta dimensión ética aplicada a la tecnología es un campo que está evolucionando y creciendo mucho.
–En algunas de sus obras aparece el concepto de “virtudes tecnomorales”. ¿Qué es una virtud tecnomoral?
–La noción de virtudes tecnomorales viene de un libro que publiqué en 2016. La sabiduría o el coraje son virtudes que pueden ser aplicadas a todo, adaptándose a cada contexto específico. Las virtudes no son universales, siempre se aplican a una situación particular. En el caso de la tecnología, tenemos que aplicar virtudes para asegurarnos de que está ayudándonos a vivir mejor como seres humanos. Porque la innovación no siempre trae progreso y no siempre es positiva. Puedo encontrar una forma nueva de producir alimentos que sea innovadora y disruptiva, pero que genere grandes hambrunas. Eso no lleva al progreso. Una virtud tecnomoral es una cualidad que nos ayuda a determinar que las tecnologías están mejorando nuestro bienestar.
"Sería necesario que los técnicos tuvieran alguna noción acerca de los efectos que tienen sus descubrimientos sobre los seres humanos y la sociedad"
–Existe una brecha entre los humanistas que tienen en cuenta la moral, pero desconocen cómo funciona la tecnología, y por otro lado, los expertos en tecnología que ignoran el impacto moral de sus descubrimientos y avances. ¿Cómo podemos zanjar esta brecha?
–Hay mucho que podemos hacer al respecto. Es urgente que las combinemos. A veces, los técnicos y desarrolladores tecnológicos dicen “yo solo construyo la máquina, analizar sus implicancias sociales es el trabajo de otro especialista”. Esa reacción es entendible. Pero implica un gran problema que tenemos que evitar. No vamos a pedirle a un experto en tecnología que se convierta en un filósofo dedicado a la ética. Pero sí sería necesario que los técnicos tuvieran alguna noción acerca de los efectos que tienen sus descubrimientos sobre los seres humanos y la sociedad. Esa sería una manera de terminar con esa brecha y construir puentes entre ambos mundos.
–¿Cuáles son los principales desafíos que trae la tecnología para los gobiernos y los líderes políticos en general?
–Trae tres desafíos. El primero tiene que ver con que la innovación tecnológica modifica nuestra manera de trabajar. Y eso tiene su correlato político, porque se hace necesario contener a la fuerza de trabajo en un escenario tan cambiante. El segundo desafío se vincula al acceso a la información. La inteligencia artificial y los algoritmos son capaces de decidir por nosotros qué tipo de contenidos y noticias consumimos. Además, con la inteligencia artificial podemos crear imágenes o videos que no son reales. Le podemos pedir “haceme una imagen de tal persona andando en bicicleta” y se crea esa foto en base a tus indicaciones. Esto implica que muchas de estas imágenes podrían confundirse con imágenes reales, haciendo más difícil saber qué es verídico y qué es falso. La inteligencia artificial también tiene la capacidad de producir información en medios y redactar artículos. Todo esto puede erosionar nuestras instituciones democráticas y afectar la salud de las democracias. Pero el problema mayor es que la tecnología desgasta la legitimidad y representatividad del sistema democrático. Porque nosotros como votantes no elegimos a las grandes corporaciones tecnológicas, ni tampoco a las máquinas o a la inteligencia artificial. No votamos a Google, tampoco a los ingenieros de Facebook o a los dueños de Twitter. Sin embargo, todos ellos controlan la forma en la que la información circula dentro de nuestras democracias.
–¿Cómo impacta la tecnología en la cultura empresarial y en lo económico?
–La tecnología y la inteligencia artificial van a acentuar aún más la tendencia que ya estamos viendo de concentración de la riqueza en cada vez menos manos. Esto genera más desigualdad. Necesitamos elegir a conciencia en qué rubros la tecnología tiene un efecto positivo sobre el trabajo y sobre los seres humanos, y en cuáles no. Hay un muy fuerte incentivo monetario respecto a usar la tecnología para ahorrar el dinero que se gastaría en trabajadores humanos. La tentación es simplemente poner a la máquina a trabajar. No deberíamos ceder a esa tentación y reemplazar inmediatamente a todos los trabajadores con tecnología, solo porque es eficiente y permite ahorros en el presupuesto de las empresas. Hay que seleccionar muy bien aquellas tareas en las que tiene sentido reemplazar a los seres humanos. Quizá sea deseable para las tareas aburridas, sucias y peligrosas, conocidas como las “3D” (por las iniciales de estas palabras en inglés: dull, dirty, dangerous). O incorporar tecnología en disciplinas en las que el esfuerzo combinado de la inteligencia artificial y el ser humano llega a mucho mejores resultados que si solo trabajara la máquina o si solo trabajara la persona. En medicina, por ejemplo, el trabajo conjunto de una persona y de la inteligencia artificial permite mejores diagnósticos y mejora la calidad del servicio de salud.
-¿Y cuál es el impacto de la tecnología en la educación? ¿Cómo afecta la innovación tecnológica a las universidades y a los sistemas educativos?
–La afecta de una manera similar a la economía. Acá también tenemos que pensar en qué herramientas tecnológicas ayudan a potenciar el aprendizaje de los alumnos y la enseñanza de los profesores, y qué aspectos de la tecnología van en contra de ese objetivo. Por ejemplo, existen herramientas para escribir ensayos automáticamente que usan machine learning para predecir un idioma. Podrían mejorar cada vez más, y dentro de unos años un docente sería incapaz de distinguir un ensayo escrito por un alumno o por la máquina. Esto va absolutamente en contra de la idea de aprender y enseñar. Pero por supuesto que hay muchas otras tecnologías que sí ayudan al aprendizaje y que debemos incorporar.
"Aristóteles y los filósofos clásicos hablan de la sabiduría práctica, que consiste en adaptar el conocimiento a un mundo cambiante"
–Hay un miedo a que la tecnología y la inteligencia artificial desplacen paulatinamente al ser humano de cada vez más funciones. ¿Cuánto hay de cierto en estas preocupaciones? ¿Deberíamos tener miedo de ser desplazados o quizá es razonable que ocurra en determinados rubros y tareas? ¿Qué tenemos que hacer para evitar esos futuros distópicos de ciencia ficción tan temidos?
–Por suerte, estamos todavía muy lejos de eso. La tecnología seguirá siendo controlada por los seres humanos y seguirá estando al servicio de las personas. La robótica no avanzó tan rápido como se esperaba. En contraste, tecnologías como el machine learning avanzaron muchísimo. Pero el machine learning no tiene una comprensión profunda del mundo. Por eso, las máquinas y la inteligencia artificial no tienen la misma inteligencia que los humanos. No tienen capacidad de entender el mundo que los rodea. Solo saben cómo predecir un lenguaje, pero nunca llegan a entender el idioma y a construir un sentido. Así que, la tecnología y la inteligencia artificial van a requerir aún más inteligencia humana. Porque cada vez va a volverse más compleja y será cada vez más difícil predecir en qué cosas la inteligencia artificial puede equivocarse. Afortunadamente, la idea de que todos vamos a perder nuestros trabajos frente a las máquinas es una fantasía. Pero temo que vayamos hacia un mundo en el que todavía mantengamos nuestros trabajos, solo que bajo pésimas condiciones.
–Usted estudió filosofía clásica. ¿Qué nos puede enseñar Aristóteles sobre cómo prepararnos para vivir en un mundo tecnológico?
–Aristóteles y los filósofos clásicos hablan de la sabiduría práctica, que consiste en adaptar el conocimiento a un mundo cambiante. Nuestro mundo está cambiando a una velocidad que Aristóteles jamás pudo haber imaginado, pero aun así tenemos que tener en cuenta esta valiosa lección. Porque en verdad, el mundo, los seres humanos y la tecnología siempre han ido cambiando. Y los filósofos clásicos ya han hecho sus reflexiones sobre cómo adaptarnos a un mundo en permanente cambio mientras logramos preservar nuestras virtudes.
–¿Cómo debería prepararse el ser humano para un futuro de innovación tecnológica?
–Como dije, la innovación tecnológica exigirá más inteligencia humana para controlarla, no menos. Tenemos que asegurarnos de que la tecnología no nos haga trabajar como máquinas. No temo un mundo en el que los robots o la tecnología controlen a los seres humanos. Sino más bien un mundo en el que la tecnología siga siendo controlada por los humanos, pero los trabajadores se vean obligados a hacer sus tareas de una manera parecida a la de las máquinas. Por ejemplo, es un problema si la inteligencia artificial supervisa a los trabajadores y les pide que muevan una caja de determinada forma, aunque no puedan hacerlo por un dolor de espalda o por una limitación en su movilidad. Me asustan las consecuencias de perder la flexibilidad, la empatía, la posibilidad de cambiar y adaptarse que tiene un ser humano supervisando a un equipo de trabajo. Debemos evitar eso. La tecnología no solo debe ser controlada por los humanos, sino que también debe mejorar a los humanos en lugar de esclavizarlos.
ENTRE ARISTÓTELES Y LA INTELIGENCIA ARTIFICIAL
PERFIL: Shannon Vallor
■ Shannon Vallor nació en Estados Unidos. Filósofa, es directora del Centre for Technomoral Futures de la Universidad de Edimburgo, Escocia. También es profesora en el departamento de filosofía de esa universidad.
■ Su proyecto de investigación se centra en el impacto de las tecnologías emergentes en los hábitos, habilidades y virtudes morales e intelectuales de los seres humanos.
■ Fue galardonada con el Premio Covey que otorga la Asociación Internacional de Informática y Filosofía (Iacap) y en 2015 ganó el Premio Mundial de Tecnología en Ética de la Red Mundial de Tecnología.
■ Publicó Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting y The Oxford Handbook of Philosophy of Technology, entre otros libros.