Un juez estadounidense condenó a dos abogados a pagar una multa de 5.000 dólares por presentar un escrito judicial utilizando la popular herramienta de inteligencia artificial (IA) ChatGPT que se inventó una serie de precedentes legales inexistentes.
Esto también podría interesarte: Artista alemán crea impresionante pinturas con estiércol (+Video)
El juez Kevin Castel considera que el abogado Steven Schwartz y su compañero Peter LoDuca «obviaron conscientemente» las señales que apuntaban a que los casos que había incluido ChatGPT eran falsos, y que ofrecieron declaraciones «engañosas» al tribunal, por lo que considera que actuaron de mala fe.
El togado considera que si bien no hay «nada inherentemente impropio en el uso de una herramienta de inteligencia artificial fiable como asistente», las normas «imponen a los abogados una función de control para garantizar la exactitud de sus declaraciones».
En la sentencia también se subraya que ambos «hicieron dejación de responsabilidades cuando presentaron las opiniones judiciales no existentes acompañadas de citas falsas creadas por la herramienta artificial de ChatGPT y continuaron manteniendo esas opiniones falsas después de que las órdenes judiciales pusieran en duda su existencia».
Ambos trabajaban en una demanda contra la aerolínea Avianca presentada por un pasajero que asegura que sufrió una lesión al ser golpeado con un carrito de servicio durante un vuelo.
Esto también podría interesarte: Hombre afirma “hablar” el idioma de los gatos
Schwartz, que representaba al demandante, utilizó ChatGPT para elaborar un escrito en el que se oponía a una solicitud de la defensa para que el caso fuese desestimado.
En el documento de diez páginas el abogado citaba varias decisiones judiciales para apoyar sus tesis, pero no tardó en descubrirse que el conocido chatbot de la compañía OpenAI se las había inventado.
«La Corte se encuentra ante una situación inédita. Una presentación remitida por el abogado del demandante en oposición a una moción para desestimar (el caso) está repleta de citas de casos inexistentes», escribió entonces el juez Kevin Castel.
Esto también podría interesarte: Pidieron una dirección a una vaca y esta contestó
El propio abogado presentó una declaración jurada en la que admitió haber usado ChatGPT para preparar el escrito y reconoció que la única verificación que había llevado a cabo era preguntar a la aplicación si los casos que citaba eran reales.
Schwartz se justificó asegurando que nunca antes había usado una herramienta de este tipo y que, por tanto, «no era consciente de la posibilidad de que su contenido pudiese ser falso».
El abogado subrayó que no tenía ninguna intención de engañar al tribunal y exculpó totalmente a otro abogado del bufete que se expone también a posibles sanciones.
Con información de EFE
Visite nuestra sección Curiosidades
Para mantenerte informado sigue nuestro canal en Telegram https://t.me/Diario2001Online