El Consejo Nacional de Justicia de Brasil inició una investigación contra el juez Jefferson Rodrigues, que publicó una sentencia hecha con ayuda de ChatGPT, que incluyó jurisprudencia inventada
- 3 minutos de lectura'
Las autoridades brasileñas abrieron una investigación a un juez federal por usar una herramienta de inteligencia artificial que se equivocó en la redacción de una sentencia, en lo que sería la primera decisión de este tipo en Brasil. El Consejo Nacional de Justicia (CNJ), órgano encargado de mejorar el sistema judicial, pidió al juez Jefferson Rodrigues que explique la publicación de una decisión que contenía fragmentos erróneos formulados por la herramienta ChatGPT.
Rodrigues, que se desempeña en el estado de Acre (norte), fundamentó su sentencia con antecedentes procesales falsos, atribuidos al Supremo Tribunal de Justicia (STJ), uno de los más altos tribunales de Brasil, según el pedido de investigación consultado este lunes por la AFP.
Según el documento, el magistrado alegó que la decisión redactada con la ayuda de inteligencia artificial (IA) fue elaborada por un “asesor de confianza”. “Las disconformidades ocurrieron debido a la utilización de alguna herramienta virtual que se mostró inadecuada”, se defendió el magistrado.
Rodrigues calificó la situación de “un mero equívoco” originado en la “frecuente sobrecarga de trabajo que recae sobre los hombros de los jueces”. El magistrado dijo además que el autor del equívoco fue un asesor “experimentado” de su gabinete, por lo que no vio necesidad de “revisar” cada una de las jurisprudencias citadas erróneamente.
“Creemos que se trata del primer caso” de este tipo, dijo el CNJ, que dio al magistrado Rodrigues 15 días, a partir del miércoles pasado, para que preste esclarecimientos. De acuerdo con el propio CNJ, cada vez más tribunales brasileños han utilizado herramientas de inteligencia artificial, aunque la tecnología todavía no ha sido regulada por una ley.
Antes de la decisión de la CNJ, un juzgado regional había decidido archivar la investigación, ya que no detectó ninguna “infracción disciplinaria” por parte de Rodrigues ni de su ayudante. Alertó, no obstante, sobre los “perjuicios que pueden ser causados por la utilización inadecuada de herramientas de inteligencia artificial” para la búsqueda de antecedentes procesales.
Otros casos y las razones por las que sucede
El caso se suma al del estudio de abogados que en mayo de este año usó a ChatGPT para buscar jurisprudencia en una demanda contra una aerolínea; en ese caso, al igual que en el brasileño, la herramienta ofreció como fundamentos juicios previos inexistentes.
Lo que el magistrado brasileño debería haber tenido en cuenta es que uno de los mayores peligros al usar ChatGPT (incluso en tareas relativamente inocentes como un trabajo escolar) es que la herramienta es bastante propensa a inventar respuestas (entre otros problemas que tiene), una práctica conocida en el ámbito de la inteligencia artificial generativa como “alucinación”, y que no es excluyente de ChatGPT.
Estos chatbots intentan por todos los medios cumplir con el pedido de los usuarios, y por eso tienden a caer en la fabulación cuando no tienen información certera o verificada sobre un tema; tanto OpenAI (desarrolladora de ChatGPT) como Google (que tiene su propio chatbot, llamado Bard) están implementando mecanismos para evitar esto.
Los chatbots, además, no tienen noción de lo que dicen: son modelos estadísticos que encadenan palabras según la probabilidad de que una siga a la otra, basados en un enorme cúmulo de contenido con el que fueron educados, pero que a su vez puede contener errores.
LA NACION