En la primera década de los años dos mil, muchos periodistas evitaban emplear Wikipedia como fuente, argumentando que no era confiable. Sin embargo, la mayoría cedía a su practicidad, con precauciones. Algo similar puede estar ocurriendo con los abogados y ChatGPT.

Aunque a pocos clientes les gustaría pensar que sus abogados usan ChatGPT, un tercio de los letrados admiten haber empleado herramientas de inteligencia artificial (IA) generativa, según el estudio Generative AI & the Legal Profession 2023 de LexisNexis. Sorprende que el 86% de los abogados está al tanto de estas herramientas, un conocimiento superior al del público en general, con un 59%.

El principal uso que los abogados le dan a ChatGPT es investigación y documentación (60%) y redacción de documentos (casi 50%). Alrededor del 40% lo utiliza para redactar correos electrónicos y un cuarto lo usa para comprender conceptos legales, como Wikipedia jurídica. Incluso hay quienes diseñan estrategias procesales con la ayuda de la inteligencia artificial. Otras aplicaciones incluyen el análisis de documentos y la realización de due diligences.

UN CASO RECIENTE

Un juez estadounidense condenó a dos abogados a pagar una multa de 5.000 dólares por presentar un escrito judicial usando ChatGPT, que inventó precedentes legales falsos. El juez Kevin Castel consideró que actuaron de mala fe al presentar declaraciones engañosas basadas en información falsa creada por ChatGPT. Aunque el uso de herramientas de IA es válido, los abogados deben garantizar la exactitud de sus declaraciones.

En el caso, un abogado utilizó ChatGPT para oponerse a la desestimación de un caso contra Avianca, citando decisiones judiciales inventadas. El juez descubrió la falsedad y señaló que el abogado había usado la herramienta sin verificar su contenido. El abogado alegó desconocimiento y falta de intención de engañar al tribunal. Otro abogado en el caso también podría ser sancionado.