Este sitio web fue traducido automáticamente. Para obtener más información, haz clic aquí.
¡Ahora puedes escuchar Fox News de Fox News !

Dos jueces federales admitieron que miembros de su personal utilizaron inteligencia artificial para preparar órdenes judiciales durante el verano que contenían errores.

Las admisiones, que provinieron del juez federal de distrito Julien Xavier Neals, de Nueva Jersey, y del juez federal de distrito Henry Wingate, de Misisipi, se produjeron en respuesta a una consulta del senador Chuck ,Iowa, que preside la Comisión Judicial del Senado.

Grassley describió las recientes órdenes judiciales como «llenas de errores».

En cartas publicadas por la oficina de Grassley el jueves, los jueces afirmaron que las sentencias de los casos, que no estaban relacionados entre sí, no pasaron por los procesos de revisión habituales de sus salas antes de ser publicadas.

Senador Chuck

Las declaraciones de los jueces se produjeron en respuesta a una pregunta del senador Chuck . (AlBloomberg Getty Images)

Los jueces afirmaron que desde entonces han adoptado medidas para mejorar el proceso de revisión de las sentencias antes de su publicación.

Neals dijo en tu carta que un borrador de decisión del 30 de junio en una demanda por valores «se publicó por error —un error humano— y se retiró tan pronto como se lo comunicaron a tu despacho».

El juez dijo que un pasante de la facultad de derecho utilizó ChatGPTOpenAI para realizar investigaciones jurídicas sin autorización ni revelación, lo que, según él, también era contrario a la política de la cámara y a la política pertinente de la facultad de derecho.

«La política de mi despacho prohíbe el uso de GenAI en la investigación jurídica para la redacción de dictámenes o órdenes», escribió Neals. «En el pasado, mi política se comunicaba verbalmente al personal del despacho, incluidos los becarios. Ahora ya no es así. Actualmente cuento con una política escrita inequívoca que se aplica a todos los asistentes jurídicos y becarios».

JUEZ FEDERAL MULTA Y AMONESTA A ABOGADO QUE UTILIZÓ IA PARA REDACTAR DOCUMENTOS JUDICIALES

Senador Grassley

El senador Chuck describió las recientes órdenes judiciales como «llenas de errores». (Tom Call, Inc vía Getty Images)

Wingate dijo en tu carta que un asistente legal utilizó Perplexity «como asistente fundamental para redactar y sintetizar la información disponible públicamente sobre el expediente», y añadió que la publicación del borrador de la decisión del 20 de julio «fue un descuido humano».

«Ha sido un error. He tomado medidas en mi despacho para garantizar que este error no vuelva a repetirse», escribió el juez.

Wingate había retirado y sustituido la orden original en la demanda por derechos civiles, negándose en ese momento a dar una explicación, pero alegando que contenía «errores administrativos».

Grassley había solicitado a los jueces que explicaran si se había utilizado la IA en las decisiones después de que los abogados de los respectivos casos plantearan sus inquietudes sobre inexactitudes fácticas y otros errores graves.

ERRORES APARENTES DE IA OBLIGAN A DOS JUECES A RETIRAR SUS SENTENCIAS INDEPENDIENTES

Senador republicano Grassley

El senador Chuck había pedido a los jueces que explicaran si se había utilizado la inteligencia artificial en las decisiones después de que los abogados plantearan sus inquietudes sobre inexactitudes fácticas y otros errores. (Foto de SUSAN AFP Getty Images)

HAZ CLIC AQUÍ PARA DESCARGAR LA APP DE FOX NEWS

«La honestidad siempre es la mejor política. Felicito a los jueces Wingate y Neals por reconocer sus errores y me alegra saber que están trabajando para garantizar que esto no vuelva a suceder», afirmó Grassley en un comunicado.

«Cada juez federal, y el poder judicial como institución, tienen la obligación de garantizar que el uso de la IA generativa no viole los derechos de los litigantes ni impida un trato justo ante la ley», continuó el senador. «El poder judicial debe desarrollar políticas y directrices sobre IA más decisivas, significativas y permanentes. No podemos permitir que la pereza, la apatía o la dependencia excesiva de la asistencia artificial socaven el compromiso del poder judicial con la integridad y la precisión factual. Como siempre, mi supervisión continuará».

Los abogados también han sido objeto de escrutinio por parte de jueces de todo el país por acusaciones de uso indebido de la IA en los documentos judiciales. En respuesta, los jueces han impuesto multas u otras sanciones en varios casos durante los últimos años.

Reuters a este informe.