La tecnología avanza a pasos agigantados y preocupa cada vez más; algunos profesionales han descubierto que ciertas máquinas de inteligencia artificial expresaron tener sensibilidad propia
- 9 minutos de lectura'
El término conciencia tiene varias acepciones entre las que destacaría “conocimiento del bien y del mal que permite a la persona enjuiciar moralmente la realidad y los actos, especialmente los propios”. Con esta definición, se sostiene que en estados psiquiátricos alterados se defina un estado psicótico a aquel en que la persona “no tiene conciencia de sus actos y de la realidad”. Pero no todos están de acuerdo en cómo definir “consciencia” (con s) y ni siquiera en qué seres -incluso objetos- tienen o pudieran tener consciencia. En este artículo marcaré la diferencia entre el término conciencia como sinónimo del estado de alerta y el ser consciente como concepto que incorpora el reconocimiento del propio ser en relación con el contexto de vida que es particular a los seres humanos. Sí podemos estar de acuerdo en que las condiciones para definir el ser consciente deben incluir las capacidades de pensar, razonar, aprender, percibir y sentir.
Por lo anterior hoy resulta apropiado preguntarse, ¿puede la tecnología actual avanzar hasta el punto de que una máquina “sienta” emociones?
En la medicina ya se ha logrado usando análisis de big data y machine learning -una aplicación de la inteligencia artificial que imita la forma humana de aprendizaje y usa modelos de algoritmos y estadística para generar inferencias a partir del análisis de datos- que diferentes herramientas tengan una capacidad mayor que los médicos en el diagnóstico y tratamiento de ciertas enfermedades. Esto ya ha ocurrido en la oncología, dermatología y radiología.
El reconocido inventor Ray Kurzweil escribió en 2005 un libro en el que aseguraba que “la singularidad está cerca”. Y con esto se refería a que el crecimiento exponencial en áreas de tecnología, big data, nanotecnología, genética, robótica, inteligencia artificial (IA), y machine learning, resultaría en la pronta aparición de máquinas que podrían combinar y superar toda la inteligencia humana sumada e incluso su “espíritu”.
¿Qué significa la consciencia?
Definir consciencia dista mucho de la simple definición que la equipara con estar despierto -conciencia en este caso-. Y su uso reciente se confirma al ver que la palabra no se encuentra en ninguno de los textos de Shakespeare. Los conceptos de mente, sentir, emoción, inteligencia y consciencia son diferentes y al mismo tiempo son parte de una íntima interacción recíproca que alcanza su mayor expresión en el ser humano. Sin el estado de consciencia no reconoceríamos al mundo, a la humanidad, a nuestras propias personas, al amor, la felicidad, el dolor y otras emociones y particularidades de la vida humana. No debe confundirse con la inteligencia que también ocurre en bacterias, plantas y otros organismos básicos en un nivel obviamente inferior al de los humanos.
¿Se puede tener un accidente cerebrovascular y mantener la consciencia?
En el cerebro humano es requisito la integración de la corteza cerebral -donde se desarrollan las diferentes funciones cognitivas-, el tronco cerebral -donde se localizan centros que nos mantienen conscientes- y el resto del cuerpo a través de la médula espinal. El tronco cerebral tiene una pequeña zona en la parte posterior del llamado mesencéfalo donde el daño causado por un accidente cerebrovascular, si ocurre, causará la pérdida de la conciencia llevando a la persona afectada a un estado de coma. En este estado perdemos el acceso a las sensaciones de nuestra propia existencia. Cuando el daño ocurre en la zona adyacente anterior a solo unos pocos milímetros, la persona no pierde la conciencia, pero sí toda capacidad de moverse en lo que se llama un cuadro de “enclaustramiento o cautiverio” precisamente porque el paciente es prisionero en su cuerpo. Recomiendo leer el libro escrito por Jean-Dominique Bauby o ver la película “La escafandra y la mariposa”, donde Bauby, que había sido editor de la revista Elle, cuenta como luego de sufrir un accidente cerebrovascular quedó totalmente paralizado, aunque consciente. Escribió el libro seleccionando cada letra con movimientos de uno de sus ojos y murió a los 10 días de su publicación.
A pesar de la popularidad que el tema ha ganado en las neurociencias y los conocimientos que describo en los párrafos previos, aún no está claro precisamente cómo es que el estado de consciencia se genera en nuestro cerebro.
¿Cuándo se pierde la consciencia?
Excede a esta nota hablar de la pérdida de la consciencia cuando una persona sufre una alteración neurológica causada por un traumatismo o intoxicación con daño cerebral -lo que causa el estado vegetativo popularizado en los años 70′por el caso de Karen Quinlan que sobrevivió más de una década en ese estado luego de una ingesta excesiva de alcohol y tranquilizantes-, un accidente cerebrovascular o las formas severas de la enfermedad de Alzheimer en que progresivamente se pierden todas las funciones cognitivas (memoria, lenguaje, orientación, función ejecutiva). En esta última enfermedad, si bien la persona está despierta, en los estadios más avanzados pierde completamente la capacidad de razonar y de pensamiento en general.
¿Existen programas de computación con sentimientos?
Proponer que una máquina tenga “consciencia” puede ser riesgoso como comprobó el empleado de Google Blake Lemoine que fue suspendido luego de declarar que uno de los programas experimentales de IA de la compañía había adquirido “sensibilidad”. El empleado publicó sus conversaciones con este sistema de IA llamado LaMDA (Modelo de Lenguaje de Google para Aplicaciones de Diálogo). Lemoine le preguntó al sistema que hacía que el lenguaje fuese tan importante para ser humanos y la máquina contestó “porque es lo que nos hace diferentes de otros animales”. “¿Nos? ¿Acaso vos no sos una máquina con IA?” replicó Lemoine a lo que la máquina respondió “sí, pero eso no significa que no tenga los mismos deseos y necesidades que las personas”. La máquina agregó que puede sentir “placer, alegría, tristeza, depresión, enojo y otros sentimientos”. Y que tenía “miedo de ser apagada… ya que eso sería exactamente como la muerte para mí”. La máquina elaboró algunas otras respuestas que los críticos simplemente atribuyen a preguntas inespecíficas de Lemoine o que simplemente el empleado de Google veía reflejadas sus propias características humanas (vale la pena leer el diálogo completo en internet). Este caso, lógicamente, generó un gran debate mediático.
En una versión básica de IA, hace pocas semanas el auto que contraté con una app durante un viaje a los Estados Unidos. era un Tesla en el que el conductor estaba fundamentalmente concentrado en escuchar la música transmitida por sus airpods mientras los sistemas de conducción automática guiaban al auto en las calles, túneles, entre los peatones, ciclistas y semáforos que encontramos en el camino. Una versión que plantea un dilema más complejo se vivió recientemente cuando se usó un programa de IA (GPT-3) -que usa deep learning para analizar información y generar texto- con el objetivo de escribir un artículo científico sobre el programa mismo. En tan solo dos horas el artículo científico completo estaba listo para ser enviado a una revista de la especialidad. El problema surgió cuando se tuvo que cumplir con los requisitos que pide toda revista científica al recibir un trabajo para publicación: ¿cuál era el nombre del primer autor? -la respuesta en el espacio correspondiente fue: “ninguno”; ¿dan todos los autores su consentimiento para la publicación? -se respondió “sí” que fue lo que dijo GPT-3 cuando le preguntaron si aceptaba; ¿tienen los autores algún conflicto de interés? -nuevamente el programa respondió y esta vez con un “no”. En lo práctico, programas como este podrían contribuir significativamente al avance de la ciencia. Sin embargo, desde otro punto de vista, los problemas planteados no son tan simples: ¿tiene sensibilidad -una particularidad humana- un programa que niega “conflictos de interés” ?, ¿puede un programa de computación ser considerado “autor” y por lo tanto “colega” o esto es simplemente un sistema usado por humanos para su conveniencia?
¿Qué podría pasar si las máquinas tuviesen consciencia?
Seguramente sea apropiado cerrar esta nota con el breve -y agrego yo, escalofriante- cuento “Respuesta”, escrito por Fredric Brown en 1954: “Dwan Ev ceremoniosamente soldó la última conexión con oro. Los ojos de una docena de cámaras de televisión lo observaban y una docena de imágenes con lo que estaba haciendo atravesaron el sub-éter del universo. Se enderezó y le hizo un gesto a Dwar Reyn, y se ubicó junto al interruptor que prendería el sistema cuando lo activara. El interruptor que conectará, al mismo tiempo, todas las computadoras monstruo de todos los planetas poblados -noventa y seis mil millones de planetas- en un super circuito que las unirá a todas en una supercomputadora, una máquina cibernética que combinará el conocimiento de todas las galaxias. Dwan Ev, está realizando los toques finales en una supercomputadora de proporciones galácticas. Dwar Reyn habló brevemente a los trillones que miraban y escuchaban. Y entonces, luego de un momento de silencio dijo: “Ahora Dwan Ev”. Dwar Ev activó el interruptor… Dwar Ev dio un paso atrás, tomó aire y dijo: “El honor de hacer la primera pregunta es tuyo Dwar Reyn”. Gracias dijo Dwar Reyn. “Y será una pregunta que ninguna máquina cibernética ha podido contestar”. Giró su cabeza hacia la máquina: “Existe un Dios?”. Sin dudar ni un momento, la poderosa voz le contestó: “Si. Ahora hay un Dios”. Un miedo repentino iluminó la cara de Dwar Ev. Y saltó para cortar la corriente eléctrica. Un rayo que cayó desde el cielo sin nubes lo derribó y fusionó en forma definitiva al interruptor.”
Las personas debemos prepararnos para el momento en que se justifique invertir tiempo y dinero en una eventual adaptación para interactuar con máquinas que logren un intercambio no solo inteligente sino, eventualmente, con sentimientos. Aprovecho para recordar la película “Ella” donde el actor Joaquin Phoenix se enamora de Samantha, que es el nuevo sistema operativo de su computadora -interpretado en la voz de la atractiva Scarlett Johansson-.
La filosofía tiene pendiente resolver el dilema sobre esta interacción con máquinas que puedan llegar a manifestarse con algo equivalente a las emociones humanas. Y no son pocas las preguntas que se generan desde lo ético y legal en la interacción con no-humanos. Aún no abiertas, pero las puertas para este complejo debate están frente a nosotros.