Multan a dos abogados por usar Chat GPT para inventarse precedentes legales
El juez considera que actuaron de mala fe al aportar declaraciones engañosas al tribunal
Un juez estadounidense ha condenado a dos abogados a pagar una multa de 5.000 dólares (unos 4.593 euros) por presentar un escrito judicial utilizando la popular herramienta de inteligencia artificial (IA) ChatGPT que se inventó una serie de precedentes legales inexistentes.
El juez Kevin Castel considera que el abogado Steven Schwartz y su compañero Peter LoDuca "obviaron conscientemente" las señales que apuntaban a que los casos que había incluido ChatGPT eran falsos, y que ofrecieron declaraciones "engañosas" al tribunal, por lo que considera que actuaron de mala fe.
El togado cree que si bien no hay "nada inherentemente impropio en el uso de una herramienta de inteligencia artificial fiable como asistente", las normas "imponen a los abogados una función de control para garantizar la exactitud de sus declaraciones".
En la sentencia también se subraya que ambos "hicieron dejación de responsabilidades cuando presentaron las opiniones judiciales no existentes acompañadas de citas falsas creadas por la herramienta artificial de ChatGPT, y continuaron manteniendo esas opiniones falsas después de que las ordenes judiciales pusieran en duda su existencia".
Ambos trabajaban en una demanda contra la aerolínea Avianca presentada por un pasajero que asegura que sufrió una lesión al ser golpeado con un carrito de servicio durante un vuelo.
Schwartz, que representaba al demandante, utilizó ChatGPT para elaborar un escrito en el que se oponía a una solicitud de la defensa para que el caso fuese desestimado.
"UNA SITUACIÓN INÉDITA"
En el documento de diez páginas el abogado citaba varias decisiones judiciales para apoyar sus tesis, pero no tardó en descubrirse que el conocido chatbot de la compañía OpenAI se las había inventado.
"La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes", escribió entonces el juez Kevin Castel.
El propio abogado presentó una declaración jurada en la que admitió haber usado ChatGPT para preparar el escrito y reconoció que la única verificación que había llevado a cabo era preguntar a la aplicación si los casos que citaba eran reales.
Schwartz se justificó asegurando que nunca antes había usado una herramienta de este tipo y que, por tanto, "no era consciente de la posibilidad de que su contenido pudiese ser falso".
El abogado subrayó que no tenía ninguna intención de engañar al tribunal y exculpó totalmente a otro abogado del bufete que se expone también a posibles sanciones.
{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{/text}} {{/kicker}} {{#title}} {{#text}}{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{/text}} {{/title}}{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{#href}} {{ text }} {{/href}} {{^href}} {{ text }} {{/href}}
{{/text}} {{/kicker}} {{#title}} {{#text}}