Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.
NUEVO¡Ahorapuedes escuchar los artículos Fox News !

Dos jueces estadounidenses de tribunales federales distintos anularon sus sentencias la semana pasada, después de que los abogados les alertaran de escritos que contenían detalles inexactos de casos o citas aparentemente "alucinadas" que citaban erróneamente casos citados: el último de una serie de errores que sugieren el creciente uso de la inteligencia artificial en la investigación y los escritos jurídicos.

En Nueva Jersey, el juez de distrito Julien Neals retiró su denegación de una moción para desestimar un caso de fraude de valores, después de que los abogados revelaran que la decisión se basaba en archivos con "inexactitudes omnipresentes y materiales".

El escrito señalaba "numerosos casos" de citas inventadas presentadas por los abogados, así como tres casos distintos en los que el resultado de los pleitos parecía haber sido erróneo, lo que llevó a Neals a retirar su decisión.

EL PLAN ARANCELARIO DE TRUMP SE ENFRENTA A UN FUTURO INCIERTO A MEDIDA QUE SE INTENSIFICAN LAS BATALLAS JUDICIALES

ChatGPT puede ayudar a los solicitantes de empleo con sus currículos

El uso de la IA generativa sigue disparándose en casi todas las profesiones, especialmente entre los trabajadores más jóvenes. (Foto de Jaap Arriens/NurPhoto vía Getty Images)

En Mississippi, el juez de distrito Henry Wingate sustituyó su orden de restricción temporal original del 20 de julio, que ponía en pausa la aplicación de una ley estatal que bloqueaba los programas de diversidad, equidad e inclusión en las escuelas públicas, después de que los abogados notificaran al juez los graves errores presentados por el fiscal. 

Informaron al tribunal de que la decisión "se basaba en la supuesta declaración testifical de cuatro personas cuyas declaraciones no constan en el expediente de este caso". 

Posteriormente, Wingate dictó una nueva resolución, aunque los abogados del Estado han pedido que se vuelva a incluir su orden original en el sumario. 

"Todas las partes tienen derecho a un registro completo y preciso de todos los documentos presentados y las órdenes dictadas en esta acción, en beneficio de la revisión de apelación del Quinto Circuito", declaró el fiscal general del estado en un escrito. 

Una persona familiarizada con la orden temporal de Wingate en Misisipi confirmó a Fox News Digital que la presentación errónea remitida al tribunal había utilizado IA, y añadió que "nunca antes habían visto algo así" en el tribunal.

Ni la oficina del juez ni los abogados en cuestión respondieron inmediatamente a las peticiones de Fox News Digital para que hicieran comentarios sobre la orden de Nueva Jersey retractada, de la que informó por primera vez Reuters. No quedó claro de inmediato si la IA fue el motivo de la presentación judicial errónea en ese caso.

EL JUEZ FEDERAL AMPLÍA LOS ARGUMENTOS EN EL CASO ABREGO GARCÍA, ARREMETE CONTRA EL TESTIGO ICE QUE "NO SABÍA NADA

Tribunal Supremo de los Estados Unidos

El Tribunal Supremo. (Valerie Plesch/Alianza Fotográfica vía Getty Images)

Sin embargo, los errores en ambos casos -que fueron rápidamente señalados por los abogados y llevaron a los jueces a tomar medidas para revisar o redactar sus órdenes- se producen cuando el uso de la IA generativa sigue disparándose en casi todas las profesiones, especialmente entre los trabajadores más jóvenes. 

En al menos uno de los casos, los errores guardan similitudes con las imprecisiones al estilo de la IA, que incluyen el uso de citas "fantasma" o "alucinadas" en los expedientes, citando casos incorrectos o incluso inexistentes.

Para los abogados colegiados, estas presentaciones judiciales erróneas no se toman a la ligera. Los abogados son responsables de la veracidad de toda la información incluida en las presentaciones judiciales, incluso si incluye materiales generados por IA, según las orientaciones del Colegio de Abogados de Estados Unidos.

En mayo, un juez federal California California impuso a los bufetes de abogados sanciones de 31.000 dólares por utilizar IA en los escritos judiciales, afirmando que en aquel momento que "ningún abogado razonablemente competente debería subcontratar la investigación y la redacción a esta tecnología, sobre todo sin ningún intento de verificar la exactitud de ese material".

La semana pasada, un juez federal de Alabama sancionó a tres abogados por presentar escritos judiciales erróneos que, según se reveló posteriormente, habían sido generados por ChatGPT.

JUECES CONTRA TRUMP: ESTAS SON LAS BATALLAS JUDICIALES CLAVE QUE FRENAN LA AGENDA DE LA CASA BLANCA

El edificio de un tribunal federal

El Palacio de Justicia E. Barrett Prettyman en Washington, D.C., la mañana del 10 de diciembre de 2024. David Ake/GettyGetty Images)

Entre otras cosas, los expedientes en cuestión incluían el uso de "alucinaciones" de citas generadas por IA, dijo en su auto Anna juez de distrito Anna Manasco, que también remitió a los abogados en cuestión al colegio de abogados del estado para que siguieran un procedimiento disciplinario.

"Fabricar autoridad legal es una falta grave que exige una sanción grave", dijo en la presentación.

Nuevos datos del Centro de Investigación Pew subrayan el auge de las herramientas de IA entre los usuarios más jóvenes. 

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Según una encuesta realizada en junio, aproximadamente el 34% de los adultos estadounidenses dicen haber utilizado ChatGPT, el chatbot de inteligencia artificial, aproximadamente el doble del porcentaje de usuarios que dijeron lo mismo en el mismo punto hace dos años, en 2023. 

La proporción de adultos empleados que utilizan ChatGPT para trabajar ha aumentado nada menos que 20 puntos porcentuales desde junio de 2023; y entre los adultos menores de 30 años, la adopción está aún más extendida, con una mayoría del 58% que afirma haber utilizado el chatbot.