La Inteligencia Artificial tiene la capacidad de reemplazar muchas de las tareas más repetitivas del trabajo de los abogados. Pero sin duda no es rival para aquellos dispuestos a hacer la tarea y a investigar apropiadamente sus procesos.
Esa es la dura lección que aprendió el abogado Steven A. Schwartz, un jurista de la firma Levidow, Levidow & Oberman, licenciado en Nueva York. A pesar de una experiencia legal de más de tres décadas, el profesional no tuvo problema en utilizar a ChatGPT para crear un caso a favor de Roberto Mata, un pasajero que demandó a Avianca tras haber sido golpeado por un carro de servicio a bordo deun vuelo entre El Salvador y Nueva York.
En el documento que entregó a la Corte, Schwartz cita seis ejemplos distintos en los que los pasajeros demandaron y ganaron contra distintas aerolíneas en casos similares. Esto incluye nombres altisonantes como 'Martinez v. Delta Air Lines', 'Zicherman v. Korean Air Lines' y 'Varghese v. China Southern Airlines'. ¿El problema? Ninguno de estos casos existe.
La línea de tiempo
El 27 de agosto de 2019, Roberto Mata era un pasajero en el vuelo Avianca 670 que salió de El Salvador y llegó a Nueva York. Durante el viaje, asegura Mata, fue golpeado por uno de los carritos dentro del avión, lo que lo llevó a demandar a la aerolínea contratando los servicios de Schwartz.
Inicialmente Avianca pidió al juez descartar el caso por vencimiento en las fechas, pero Mata y sus abogados apelaron la petición y reforzaron su caso con otros que luego serían comprobados como falsos.
Después de la apelación, los abogados de Avianca le comunicaron al juez que no podían encontrar ninguno de los casos que mencionaba Mata. De hecho, le pidieron más documentación para poder identificar los casos.
Dado que los casos fueron generados por ChatGPT, Schwartz también le pidió a la IA que le mostrara la documentación de los casos relacionados, que en últimas se acabó convirtiendo en más de seis páginas con anotaciones, números de ID y otros detalles. Como todo lo demás, resultó que toda esa documentación fue 'alucinada' por la IA.
El caso de Zicherman v. Korean Air Lines fue, según ChatGPT, procesado por la Corte de Apelaciones de Estados Unidos para el Circuito 11 en el 2008. El juez le escribió a la corte para consultar el número de referencia, pero la corte respondió que el número entregado correspondía a un caso que nada tenía que ver con lo que había generado ChatGPT.
Un espejismo de la verdad
La firma Condon & Forsyth, especialista en aviación y contratada por Avianca para hacerse cargo del caso, explicó que sus abogados sospechaban del uso de la IA, por lo que decidieron pedir más documentos y pruebas. En últimas, el abogado Schwartz admitió al juez y la corte que en efecto había utilizado ChatGPT para encontrar los casos y complementar su propia investigación, pero confesó que nunca comprobó los datos por sí mismo.
Tal vez lo más curioso es que Schwartz admitió preguntarle a ChatGPT si los casos eran ciertos, a lo que la IA respondió que ‘sí.’ Incluso cuando el abogado ahondó en las preguntas, ChatGPT seguía negando que los casos eran falsos y generando referencias y números que nada tenían que ver.
El juez del caso expresó que había sido presentado con ‘circunstancias sin precedentes’, con decisiones judiciales y citaciones falsas. Schwartz, por su parte, dijo que lamentaba profundamente haber confiado a ciegas en ChatGPT y que ’nunca lo hará en el futuro sin una verificación absoluta de la autenticidad de la información’.
El juez convocó a una audiencia el próximo 8 de junio para discutir sanciones potenciales al abogado y la firma involucrados.