Dos abogados le pidieron precedentes legales a ChatGPT para usar en una demanda, y no verificaron que fueran reales; las presentaron en un juicio, el juez confirmó que esos casos no habían existido, y ahora les impuso una multa
- 3 minutos de lectura'
Un juez federal impuso el jueves multas de 5000 dólares a dos abogados y a un bufete jurídico en un ejemplo sin precedentes en que se responsabilizó a ChatGPT por el hecho de que ellos presentaran investigaciones jurídicas ficticias en una reclamación por lesiones de aviación.
El juez P. Kevin Castel dijo que actuaron de mala fe. Pero reconoció sus disculpas y los pasos tomados para remediar el daño al explicar por qué no era necesario aplicar sanciones más duras para asegurar que ellos u otros no vuelvan a permitir que herramientas de inteligencia artificial los impulsen a producir historias jurídicas falsas para usarlas en sus argumentaciones.
“Los avances tecnológicos son comunes y no hay nada inherentemente inadecuado con respecto a utilizar una herramienta confiable de inteligencia artificial para que proporcione apoyo”, escribió Castel. “Pero las normas existentes les imponen a los abogados un papel de verificación para asegurar la exactitud de sus declaraciones”.
El juez dijo que los abogados y su firma, Levidow, Levidow & Oberman, P.C., “abandonaron sus responsabilidades cuando presentaron opiniones judiciales inexistentes con declaraciones falsas y referencias creadas por la herramienta de inteligencia artificial ChatGPT, y luego continuaron respaldando las opiniones falsas después de que órdenes judiciales pusieron su existencia en entredicho”.
En un comunicado, el bufete jurídico dijo que acataría la orden de Castel, pero añadió: “Respetuosamente estamos en desacuerdo con el hallazgo de que alguien en nuestra firma actuó de mala fe. Ya hemos ofrecido disculpas a la corte y a nuestro cliente. Seguimos creyendo que, ante lo que incluso la corte reconoció que era una situación sin precedentes, cometimos un error de buena fe al no creer que una unidad de tecnología pudiese estar inventando casos sin basarse en hechos ni la realidad”.
El bufete indicó que estaba sopesando si apelaría.
Castel dijo que la mala fe fue resultante de las fallas de los abogados en responder adecuadamente al juez y a sus adversarios jurídicos cuando se observó que seis casos jurídicos enumerados para respaldar sus argumentos escritos del 1 de marzo no existían.
Cómo llegaron a usar pruebas inventadas por ChatGPT
El juez citó “explicaciones cambiantes y contradictorias” ofrecidas por el abogado Steven A. Schwartz. Dijo que el abogado Peter LoDuca mintió cuando dijo que estaba de vacaciones y fue deshonesto con relación a confirmar la veracidad de las declaraciones presentadas ante Castel.
En una audiencia este mes, Schwartz dijo que usó el chatbot que funciona con inteligencia artificial para que le ayudara a hallar precedentes jurídicos que respaldaran el caso de un cliente contra la aerolínea colombiana Avianca por una lesión que sufrió en un vuelo de 2019.
ChatGPT, que genera respuestas similares a ensayos a las solicitudes que le hacen sus usuarios, sugirió varios casos que involucraban percances de aviación que Schwartz no había podido hallar a través de los métodos usuales utilizados en su bufete jurídico. Varios de esos casos no eran reales, identificaban erróneamente a jueces o involucraban aerolíneas que no existían.
En una opinión escrita por separado, el juez desechó la reclamación subyacente de aviación, diciendo que el asunto ya había prescrito.
Abogados para Schwartz y LoDuca no respondieron de momento a una solicitud de comentarios.
AP