Durante una entrevista, el CEO de la empresa que creó la aplicación dijo que hay que “tener cuidado” con los usos que se le da a la IA; anticipó también posibles escenarios que podrían darse en un futuro cercano
- 4 minutos de lectura'
Sam Altman, CEO de OpenIA, la empresa que creó la controvertida aplicación de inteligencia artificial ChatGPT, advirtió que este tipo de tecnología conlleva peligros reales para la sociedad. “Estamos un poco asustados por esto”, admitió en diálogo con ABC News, entrevista que fue replicada por The Guardian.
Almatn enfatizó en la necesidad de “tener cuidado” respecto de las posibles consecuencias que el uso de estas novedosas herramientas puedan tener en la humanidad. Entre otras cosas, señaló estar “particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala”.
Y señaló: “Se están mejorando en la escritura de código de computadora, por lo que estos podrían usarse para llevar a cabo ataques cibernéticos ofensivos”. Aun así, con la intención de traer calma, destacó que, de emplearse para el bien “sería el mayor invento que la humanidad haya desarrollado hasta ahora”.
La advertencia de Alman se produjo pocos después de que OpenAI lanzase la última versión de su modelo de lenguaje AI, denominada GPT-4. En menos de cuatro meses desde que se lanzó el modelo original, rememoró el medio británico, se convirtió en la aplicación de consumo de más rápido crecimiento en todo el mundo.
Los seres humanos, reemplazados por máquinas
El empresario de 37 años también abordó un temor común de la ciudadanía: la posibilidad de que los seres humanos sean reemplazados por máquinas. “Por el momento, la inteligencia artificial es una herramienta que está en gran medida bajo el control humano”, indició al respecto.
Sumó sin embargo que “seguro existirán otras personas y compañías que no impongan los límites de seguridad que ponemos nosotros”. Y opinó: “Creo que la sociedad tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante eso, cómo regularlo, cómo manejarlo”.
Finalmente, abordó el fenómeno de “respuestas extrañas” provistas por el ChatGPT. “Lo que más trato de advertir a la gente es lo que llamamos el ‘problema de las alucinaciones. El modelo afirmará las cosas con confianza como si fueran hechos completamente inventados”, explicó”.
Y profundizó: “La forma correcta de pensar en los modelos que creamos es un motor de razonamiento, no una base de datos de hechos. No me memoriza, razonan”.
Las posturas de Elon Musk y Bill Gates
En los últimos días, tanto Musk como Gates se expresaron sobre los peligros -tanto actuales como a futuro- de la inteligencia artificial. El flamante CEO de Twitter advirtió que esta combinación de algoritmos que parece tener vida propia es “más peligrosa que un arma nuclear”.
Se quejó también de la falta de supervisión sobre la IA. “¿Qué nos quedará por hacer a los humanos?”, lanzó Musk a través de la red social la semana pasada.
Mientras tanto, Bill Gates sostuvo en su sitio web Gates Notes que, junto con gran cantidad de usos benignos que pueden hacerse de la inteligencia artificial, también hay “riesgos y preocupaciones”. “Existe la amenaza que representan los humanos armados con IA”, resalta el magnate y confundador de Microsoft.
“Luego existe la posibilidad de que las IA se salgan de control. ¿Podría una máquina decidir que los humanos son una amenaza, concluir que sus intereses son diferentes a los nuestros o simplemente dejar de preocuparse por nosotros? Posiblemente”, dijo Gates sin reparos.
Tras la alarmante afirmación, indició que este último problema “no es más urgente hoy que antes de los desarrollos de IA de los últimos meses”. “¿Qué sucede si la inteligencia artificial entra en conflicto con los intereses de la humanidad? Esta preguntas se volverán más apremiantes con el tiempo”, sostuvo.
“La inteligencia artificial todavía no controla el mundo físico y no puede establecer sus propios objetivos, aun cuando el ChatGPT declaró en conversaciones con The New York Times que quería convertirse en un ser humano. Es una mirada fascinante pero no un indicador de independencia significativa”, concluyó.
LA NACION