El abogado afirmó en un escrito que no comprendía que ChatGPT "no era un motor de búsqueda, sino una herramienta de procesamiento de lenguaje generativo".
El abogado de un hombre que demanda a Avianca en un caso rutinario de lesiones personales utilizó ChatGPT para preparar un escrito, pero el bot de inteligencia artificial proporcionó casos falsos que el abogado presentó ante el tribunal, lo que llevó a un juez a considerar sanciones mientras la comunidad legal lidia con uno de los primeros casos de “alucinaciones” de IA que llega a los tribunales.
Datos clave:
- A principios de este año, la aerolínea Avianca, con sede en Colombia, intentó desestimar un caso en el tribunal federal en el que un hombre, Roberto Mata, alegaba que fue ” golpeado por un carrito de servicio de metal ” a bordo de un vuelo en 2019 y sufrió lesiones personales.
- Al presentar una respuesta, los abogados de Mata citaron al menos otros seis casos para mostrar precedentes, incluidos Varghese v. China Southern Airlines y Shaboon v. Egypt Air, pero el tribunal descubrió que los casos no existían y tenían ” decisiones judiciales falsas con citas falsas y referencias internas falsas “, lo que llevó a un juez federal a considerar sanciones.
- Un miembro del equipo legal de Mata reveló entonces que había utilizado ChatGPT para realizar investigaciones legales para la presentación ante el tribunal que hacía referencia a los casos y que la herramienta de inteligencia artificial le aseguró que los casos eran reales.
- Steven Schwartz, el abogado que utilizó ChatGPT y representó a Mata antes de que el caso se trasladara a un tribunal donde no está licenciado para ejercer, firmó una declaración jurada admitiendo que utilizó el chatbot de IA pero afirmó que no tuvo la intención de engañar al tribunal y no actuó de mala fe, argumentando que no debería ser sancionado.
- Schwartz luego afirmó en un escrito del 8 de junio que se sentía “horrorizado” al enterarse de los casos falsos, y cuando utilizó la herramienta “no entendía que no era un motor de búsqueda, sino una herramienta de procesamiento de lenguaje generativo”.
- El abogado explicó que no había utilizado ChatGPT para investigaciones legales antes y había conocido la tecnología “a través de sus hijos universitarios”, agregando que leyó artículos sobre los beneficios de la IA en entornos profesionales y cómo las herramientas “podrían hacer que la investigación legal sea obsoleta”.
- Los abogados de Schwartz se negaron a hacer comentarios y Forbes se ha puesto en contacto con los representantes de Avianca.
Tangente:
El uso de ChatGPT fue descubierto después de que los abogados de Avianca no pudieran encontrar algunos de los documentos judiciales de los casos a los que el equipo de Mata se refería, y presentaron una solicitud pidiendo más información sobre ellos. Schwartz luego volvió a ChatGPT para obtener copias de los documentos del caso, aún creyendo que era un motor de búsqueda, y se los entregó al otro abogado de Mata, Peter LoDuca, explicaron los abogados de Schwartz en los documentos presentados ante el tribunal. Al revisar los documentos proporcionados, el juez federal con sede en Nueva York, P. Kevin Castel, determinó que los casos eran falsos y anunció que el tribunal se enfrentaba a una “circunstancia sin precedentes” y consideraría imponer sanciones.
Para observar:
El juez federal con sede en Nueva York, P. Kevin Castel, ordenó que Schwartz y el otro abogado de Mata, Peter LoDuca, comparecieran en una audiencia presencial el jueves al mediodía para explicar por qué no deberían enfrentar sanciones por citar “casos inexistentes”. Se espera que Castel determine si las sanciones son justificadas o si el castigo que Schwartz y su bufete de abogados dicen que ya han enfrentado, acusaciones de fraude y daño irreparable a su reputación, es adecuado, pero no se tomó ninguna decisión durante la audiencia, según un reportero de Courthouse News. El periodista Josh Russell dijo que el juez expresó un “reconocimiento firme” y sugirió que aún podría imponer sanciones.
Cita crucial:
Cuando argumentaron que las sanciones “no servirían para nada” en su presentación previa a la audiencia de sanciones, el equipo de Schwartz escribió: “El Sr. Schwartz y el bufete ya se han convertido en los ejemplos vivientes de los peligros de experimentar con nuevas tecnologías; su lección ha sido aprendida”.
Antecedentes clave:
ChatGPT, un chatbot impulsado por inteligencia artificial creado por OpenAI, se hizo muy popular a principios de este año una vez que estuvo ampliamente disponible, aunque su crecimiento trajo consigo preocupaciones sobre sus capacidades.
Los estudiantes han admitido usar IA para hacer tareas y los políticos han comenzado a utilizar imágenes creadas artificialmente en anuncios de campaña, pero hay una gran preocupación de que la tecnología para alterar imágenes o redactar textos con IA esté avanzando más allá de la capacidad humana para detectar falsificaciones, lo que podría generar más desconfianza en la sociedad.
En la vida cotidiana, los chatbots como ChatGPT o el chatbot Bard de Google son arriesgados debido a su capacidad para inventar información o tomar incorrectamente datos de sus bases de conocimiento y proporcionar información falsa a los usuarios, como le sucedió a Schwartz, a quien ChatGPT le aseguró que los casos que le fueron proporcionados eran reales. Estas plataformas y sus algoritmos se entrenan con bases de datos existentes de imágenes o texto y se les enseña a generar respuestas en función de la base de datos, pero a menudo confunden información o crean respuestas falsas a preguntas.
The Verge comparó ChatGPT, el chatbot de Microsoft Bing y el Bard de Google y encontró que algunos eran mejores que otros, pero aún los describió a todos como “difusos, en más de un sentido”. En el campo legal, la startup con sede en Nueva York DoNotPay creó una forma basada en IA para que las personas impugnen multas de tráfico; un usuario usaría gafas inteligentes que le proporcionarían información generada por IA para usar en el tribunal. Sin embargo, antes de que el creador pudiera presentarlo en el tribunal, dijo que recibió amenazas de múltiples asociaciones de abogados sobre la “práctica no autorizada de la ley”, según informó NPR.
Dato sorpresivo:
Aunque el Tribunal del Distrito Sur de Nueva York decidirá qué hacer en respuesta al uso de ChatGPT por parte de Schwartz, otro tribunal en otro lugar de Estados Unidos ya ha tomado medidas en respuesta a la situación. Un juez federal en el Distrito Norte de Texas emitió una orden permanente a fines de mayo, después de que la situación de Schwartz apareciera en los titulares, en la que establece que cualquier persona que comparezca ante el tribunal debe afirmar que “ninguna parte de ninguna presentación será redactada por inteligencia artificial generativa” o señalar cualquier lenguaje redactado por IA para que se verifique su exactitud. El juez escribió que si bien estas “plataformas son increíblemente poderosas y tienen muchos usos en el ámbito legal”, las presentaciones de argumentos no son uno de ellos, ya que las plataformas son “propensas a alucinaciones y sesgos” en sus estados actuales.