NUEVA YORK — Dos abogados que se disculparon respondiendo a un enojado juez de la corte federal de Manhattan culparon a ChatGPT el jueves por engañarlos para que incluyeran una investigación legal falsa en una presentación judicial.
Los abogados Stephen A. Schwartz y Peter LoDuca enfrentan un posible castigo por presentar una demanda contra una aerolínea que incluía referencias a casos judiciales anteriores que Schwartz pensó que eran reales, pero que en realidad fueron inventados por el chatbot impulsado por IA.
Schwartz dijo que usó el innovador software para buscar precedentes legales que respaldaran el caso de un cliente contra la aerolínea colombiana Avianca por una lesión en un vuelo en 2019.
El chatbot, que ha deslumbrado al mundo al producir respuestas similares a ensayos a los reclamos de los usuarios, ha sugerido varios casos relacionados con accidentes aéreos que Schwartz no pudo encontrar a través de los métodos habituales utilizados en su bufete de abogados.
El problema era que muchos de estos casos no eran reales o involucraban aerolíneas inexistentes.
Schwartz le dijo al juez federal de distrito B. Kevin Castle declaró que «estaba operando bajo la idea errónea… de que este sitio obtenía estos problemas de algunas fuentes a las que yo no tenía acceso».
Dijo que «fracasó miserablemente» al realizar una investigación de seguimiento para asegurarse de que las citas fueran correctas.
«No entendí que ChatGPT podría inventar problemas», dijo Schwartz.
Microsoft ha invertido alrededor de mil millones de dólares en OpenAI, la empresa detrás de ChatGPT.
Su éxito, que ha demostrado cómo la inteligencia artificial puede cambiar la forma en que los humanos trabajan y aprenden, ha generado preocupación para algunos. Cientos de líderes de la industria firmaron una carta en mayo advirtiendo que «mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos sociales como las pandemias y la guerra nuclear».
El juez Castell se mostró desconcertado y molesto por el evento inusual y decepcionado de que los abogados no actuaron rápidamente para corregir las citaciones legales falsas cuando los abogados de Avianca y el tribunal les alertaron por primera vez sobre el problema. Avianca citó jurisprudencia espuria en la presentación de marzo.
El juez confrontó a Schwartz con un solo caso legal que había inventado el programa de computadora. Inicialmente se describió como un caso de muerte por negligencia presentado por una mujer contra una aerolínea, pero luego se convirtió en una acción legal sobre un hombre que perdió un vuelo a Nueva York y tuvo que incurrir en gastos adicionales.
«¿Podemos estar de acuerdo en que esto es una tontería legal?» Preguntó Castell.
Schwartz dijo que creía erróneamente que la presentación confusa fue causada por extractos tomados de diferentes partes del caso.
Cuando Castel terminó de interrogarlo, Schwartz le preguntó si tenía algo más que decir.
“Me gustaría disculparme sinceramente”, dijo Schwartz.
Agregó que había sufrido personal y profesionalmente como resultado del error y se sentía «avergonzado, humillado y profundamente arrepentido».
Dijo que él y la compañía para la que trabajaba, Livido, Livido y Opperman, habían implementado medidas de seguridad para garantizar que nada similar volviera a suceder.
Luduca, el otro abogado que trabajó en el caso, dijo que confiaba en Schwartz y que no había revisado adecuadamente lo que había recopilado.
Después de que el juez leyera partes de uno de los casos citados en voz alta para mostrar lo fácil que era discernir que se trataba de «tonterías», Loduca dijo: «Nunca se me ocurrió que se trataba de un caso falso».
Dijo que el resultado «me duele muchísimo».
Ronald Minkoff, abogado del bufete de abogados, le dijo al juez que la solicitud «causó negligencia, no mala fe» y no debería dar lugar a sanciones.
Históricamente, los abogados han tenido dificultades con la tecnología, especialmente con la nueva tecnología, dijo, «y no se ha vuelto más fácil».
El Sr. Schwartz, que apenas realiza investigaciones federales, optó por utilizar esta nueva tecnología. Minkoff dijo que pensó que estaba tratando con un motor de búsqueda estándar, y lo que estaba haciendo era jugar con fuego real.
Daniel Shen, profesor asociado y subdirector de investigación en el Centro de Tecnología Legal y Judicial de la Facultad de Derecho William & Mary, dijo que presentó el caso de Avianca durante una conferencia la semana pasada que atrajo a decenas de participantes en persona y en línea de representantes estatales y federales. . Tribunales de los Estados Unidos, incluido el Tribunal Federal de Manhattan.
Dijo que el tema causó conmoción y confusión en la conferencia.
«Estamos hablando del Distrito Sur de Nueva York, el distrito federal que se ocupa de los grandes casos, el 11 de septiembre para todos los grandes delitos financieros», dijo Sheen. «Este fue el primer caso documentado de posible mala conducta profesional por parte de un abogado que usa IA generativa».
Dijo que el caso demostró cómo los abogados pueden no entender cómo funciona ChatGPT porque tiende a alucinar, hablando de cosas ficticias de una manera que parece realista pero no lo es.
«Destaca los peligros de usar tecnologías prometedoras de inteligencia artificial sin conocer los riesgos», dijo Shen.
El juez dijo que se pronunciará sobre las sanciones en un momento posterior.
«Viajar ninja. Alborotador. Erudito del tocino. Experto en alcohol extremo. Defensor de los zombis».
More Stories
Decisión del Banco de Japón, PMI de China, resultados de Samsung
Las acciones suben a medida que la inteligencia artificial logra ganancias récord
Europa impone aranceles más altos a los coches eléctricos fabricados en China