Dos abogados condenados a pagar una multa de 5.000 dólares tras utilizar la popular herramienta de inteligencia artificial (IA) ChatGPT para presentar un escrito judicial que incluía una serie de precedentes legales inexistentes.
El juez Kevin Castel determinó que los abogados Steven Schwartz y Peter LoDuca «obviaron conscientemente» las señales que indicaban que los casos incluidos por ChatGPT eran falsos y ofrecieron declaraciones «engañosas» al tribunal, actuando así de mala fe.
El juez Castel reconoce que no hay nada inherentemente incorrecto en el uso de una herramienta de IA confiable como asistente, pero sostiene que las normas legales imponen a los abogados la responsabilidad de garantizar la exactitud de sus declaraciones.
En la sentencia se destaca que los abogados «descuidaron su deber» al presentar opiniones judiciales inexistentes respaldadas por citas falsas generadas por ChatGPT, y continuaron manteniendo esas opiniones falsas incluso después de que se pusiera en duda su existencia por órdenes judiciales.
Los abogados estaban trabajando en una demanda contra la aerolínea Avianca presentada por un pasajero que afirmaba haber sufrido una lesión por el impacto de un carrito de servicio durante un vuelo.
Schwartz, quien representaba al demandante, utilizó ChatGPT para redactar un escrito en respuesta a la solicitud de la defensa de desechar el caso.
En el documento de diez páginas, el abogado citó varias decisiones judiciales para respaldar sus argumentos, pero pronto se descubrió que esas citas habían sido inventadas por el chatbot desarrollado por OpenAI.
Responsabilidad profesional en el uso de inteligencia artificial: lecciones aprendidas tras el caso ChatGPT
El juez Kevin Castel expresó su sorpresa ante la situación, al recibir un escrito del abogado del demandante que estaba lleno de citas de casos inexistentes. «La Corte se encuentra ante una situación inédita», afirmó.
El propio abogado admitió haber utilizado ChatGPT para preparar el escrito y reconoció que la única verificación que realizó fue preguntar a la aplicación si los casos citados eran reales.
Schwartz argumentó que nunca antes había utilizado una herramienta de este tipo y que no era consciente de la posibilidad de que el contenido pudiera ser falso.
El abogado señaló que no tenía intención de engañar al tribunal y eximió por completo a otro abogado del bufete que también podría enfrentar sanciones.
Esta sentencia destaca la importancia de que los abogados ejerzan un control diligente sobre las fuentes de información utilizadas en sus escritos judiciales, verificando la exactitud de los precedentes citados.
El caso también plantea interrogantes sobre el papel de la inteligencia artificial en la práctica legal y la necesidad de establecer salvaguardias para garantizar su uso responsable y ético.
Esperamos que este caso siente un precedente en el ámbito legal y sirva como recordatorio para que los profesionales del derecho sean diligentes en la verificación de la información que utilizan en sus presentaciones judiciales.