Este sitio web fue traducido automáticamente. Para obtener más información, haz clic aquí.
NUEVO¡Ahorapuedes escuchar los artículos Fox News !

Dos jueces estadounidenses de distintos tribunales federales anularon sus sentencias la semana pasada después de que sus abogados les alertaran de que los escritos contenían datos inexactos sobre los casos o citas aparentemente «alucinadas» que tergiversaban los casos citados, el último de una serie de errores que sugieren el uso creciente de la inteligencia artificial en la investigación y la presentación de documentos legales.

En Nueva Jersey, el juez federal Julien Neals retiró su denegación de una moción para desestimar un caso de fraude bursátil después de que los abogados revelaran que la decisión se basaba en documentos con «inexactitudes generalizadas y sustanciales».

La presentación señalaba «numerosos casos» de citas inventadas presentadas por los abogados, así como tres casos distintos en los que el resultado de los juicios parecía haber sido erróneo, lo que llevó a Neals a retirar su decisión.

EL PLAN ARANCELARIO DE TRUMP SE ENFRENTA A UN FUTURO INCIERTO A MEDIDA QUE SE INTENSIFICAN LAS BATALLAS JUDICIALES

ChatGPT ayudar a los solicitantes de empleo con sus currículums.

El uso de la IA generativa sigue aumentando vertiginosamente en casi todas las profesiones, especialmente entre los trabajadores más jóvenes.  (Foto de Jaap Arriens/NurPhoto a través de Getty Images)

En Misisipi, el juez federal Henry Wingate sustituyó su orden de restricción temporal original del 20 de julio, que suspendía la aplicación de una ley estatal que bloqueaba los programas de diversidad, equidad e inclusión en las escuelas públicas, después de que los abogados notificaran al juez graves errores cometidos por el fiscal. 

Informaron al tribunal que la decisión «se basaba en el supuesto testimonio de cuatro personas cuyas declaraciones no figuran en el expediente del caso». 

Posteriormente, Wingate emitió una nueva resolución, aunque los abogados del estado han solicitado que se vuelva a incluir su orden original en el expediente. 

«Todas las partes tienen derecho a obtener un registro completo y preciso de todos los documentos presentados y las órdenes dictadas en esta acción, en beneficio de la revisión de la apelación del Quinto Circuito», afirmó el fiscal general del estado en un escrito. 

Una persona familiarizada con la orden temporal de Wingate en Misisipi confirmó a Fox News que la presentación errónea enviada al tribunal había utilizado inteligencia artificial, y añadió que nunca habían visto «nada parecido» en un tribunal.

Ni la oficina de los jueces ni los abogados en cuestión respondieron inmediatamente a las solicitudes Fox News para comentar sobre la orden retirada de Nueva Jersey, informada por primera vez por Reuters. No quedó claro de inmediato si la IA fue la razón de esa presentación judicial errónea en ese caso.

JUEZ FEDERAL AMPLÍA LOS ARGUMENTOS EN EL CASO ABREGO GARCÍA Y CRITICA A ICE QUE «NO SABÍA NADA»

Tribunal Supremo de los Estados Unidos

El Tribunal Supremo. (Valerie Plesch/picture alliance vía Getty Images)

Sin embargo, los errores en ambos casos —que fueron rápidamente señalados por los abogados y llevaron a los jueces a tomar medidas para revisar o modificar sus órdenes— se producen en un momento en el que el uso de la IA generativa sigue aumentando vertiginosamente en casi todas las profesiones, especialmente entre los trabajadores más jóvenes. 

En al menos uno de los casos, los errores guardan similitudes con las imprecisiones propias de la inteligencia artificial, entre las que se incluye el uso de citas «fantasma» o «alucinadas» en los documentos presentados, en las que se citan casos incorrectos o incluso inexistentes.

Para los abogados colegiados, estas presentaciones judiciales erróneas no se toman a la ligera. Según las directrices de la Asociación Americana de Abogados, los abogados son responsables de la veracidad de toda la información incluida en los documentos judiciales, incluso si se trata de materiales generados por IA.

En mayo, un juez federal de California a varios bufetes de abogados sanciones por valor de 31 000 dólares por utilizar IA en documentos judiciales, alegando en ese momento que «ningún abogado razonablemente competente debería externalizar la investigación y la redacción a esta tecnología, especialmente sin intentar verificar la exactitud de ese material».

La semana pasada, un juez federal de Alabama tres abogados por presentar documentos judiciales erróneos que posteriormente se reveló que habían sido generados por ChatGPT.

LOS JUECES CONTRA TRUMP: ESTAS SON LAS BATALLAS JUDICIALES CLAVE QUE ESTÁN FRENANDO LA AGENDA DE LA CASA BLANCA

Un edificio del tribunal federal

El juzgado federal E. Barrett Prettyman en Washington, D.C. en la mañana del 10 de diciembre de 2024. (David Getty Images)

Entre otras cosas, los documentos en cuestión incluían el uso de la cita generada por IA «alucinaciones», según indicó la jueza federal Anna en su auto, que también remitió a los abogados en cuestión al colegio de abogados del estado para que se les impusieran medidas disciplinarias.

«Falsificar autoridad legal es una falta grave que exige una sanción severa», afirmó en la demanda.

Los nuevos datos del Pew Research Center subraya el aumento de las herramientas de IA entre los usuarios más jóvenes. 

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Según una encuesta realizada en junio, aproximadamente el 34 % de los adultos estadounidenses afirman haber utilizado ChatGPT, el chatbot con inteligencia artificial, lo que supone aproximadamente el doble del porcentaje de usuarios que afirmaban lo mismo hace dos años, en 2023. 

La proporción de adultos empleados que utilizan ChatGPT trabajar se ha disparado en nada menos que 20 puntos porcentuales desde junio de 2023; y entre los adultos menores de 30 años, su adopción está aún más extendida, ya que una mayoría del 58 % afirma haber utilizado el chatbot.