© 2025 WGLT
A public service of Illinois State University
Play Live Radio
Next Up:
0:00
0:00
0:00 0:00
Available On Air Stations

En las cortes, las alucinaciones de la IA pueden eclipsar su potencial parar reducirde la brecha de "acceso a la justicia"

The gravel in front of House Rules Committee chairman Rep. Jim McGovern, D-Mass., during a House Rules Committee hearing on the impeachment against President Donald Trump, Tuesday, Dec. 17, 2019, on Capitol Hill in Washington.
Andrew Harnik
/
AP Pool file
La Corte Suprema de Illinois promulgó una nueva regla sobre A. I. en enero, generalmente permitiendo su uso en todas las cortes de Illinois, pero recordando a los jueces y abogados que en última instancia son responsables de su trabajo.

Un abogado del centro de Illinois ha sido sancionado después de presentar un escrito redactado parcialmente con inteligencia artificial que citaba varios casos "alucinados" o inexistentes. Se cree que es uno de los primeros casos conocidos de un abogado de Illinois sancionado por el mal uso de la inteligencia artificial en un caso real.

El hecho ocurrió en la Corte de Apelaciones del Cuarto Distrito, que incluye al condado de McLean. El abogado, William Panichi de Springfield, dijo que usó IA para ayudar a redactar un escrito para un caso en el que una mujer corría el riesgo de perder sus derechos parentales. El escrito incluía referencias a múltiples casos inexistentes, algo que solo se descubrió cuando los jueces de apelación revisaron el caso.

"Fui descuidado e imprudente al hacerlo", dijo Panichi a los jueces en una audiencia este verano. "No tengo excusa, solo una explicación. En el momento en que lo presenté, estaba extremadamente ocupado y cometí un error, y no fui lo suficientemente cuidadoso.

La IA está revolucionando muchas industrias, pero lo que está en juego es inusualmente alto en las cortes, donde las sentencias de un juez pueden quitarle a alguien sus derechos parentales, su sustento o su libertad.

La Corte Suprema de Illinois promulgó una nueva regla sobre la IA en enero, que generalmente permite su uso en todas las cortes de Illinois, pero recuerda a jueces y abogados que, en última instancia, son responsables de su trabajo. La corte advirtió que la IA podría "poner en peligro el debido proceso, la igualdad de protección o el acceso a la justicia". La política establece que "el contenido generado por IA sin fundamento o deliberadamente engañoso que perpetúe sesgos, perjudique a los litigantes u oculte la búsqueda de la verdad y la toma de decisiones no será tolerado".

Inquietando a los jueces

Eso fue lo que sucedió en el caso ante la Corte de Apelaciones del Cuarto Distrito. Panichi fue designado para el caso el otoño pasado por la corte de circuito del condado de Sangamon, cuando la mujer apeló la terminación de sus derechos parentales. Fue entonces cuando Panichi presentó el escrito, aparentemente usando la IA para redactar un borrador sin revisar lo que había generado.

A judge gestures while on the bench during a hearing
Emily Bollinger
/
WGLT
El juez de la Corte de Apelaciones del Cuarto Distrito James Knecht de Normal, visto aquí durante los argumentos orales celebrados en Illinois State Univeristy en un caso no relacionado.

La jueza Kathryn Zenoff le dijo a Panichi que el departamento de investigación y los asistentes legales de la corte de apelaciones tuvieron que hacer un gran trabajo adicional para desentrañar el misterio de los casos ficticios.

"La magnitud del trabajo realizado, francamente, fue significativa y consumió mucho tiempo", dijo Zenoff.

Finalmente, a Panichi se le ordenó devolver los $6,925 que se le pagaron por trabajar en el caso, además de una multa de $1,000 y se informó del caso a la Comisión de Registro y Disciplina de Abogados de Illinois. (Por separado, los jueces confirmaron la decisión de la corte de primera instancia de terminar los derechos parentales de la mujer). Panichi, quien ha ejercido la abogacía durante 56 años, le dijo a WGLT la semana pasada que "aceptó su culpa" y planea entregar su licencia de abogado.

El caso pareció inquietar a los tres jueces que presidían, quienes escribieron en julio que es la primera vez que abordan el uso de la IA en la preparación de documentos legales. El juez James Knecht de Normal lo comparó con cómo se siente alguien después de sufrir un robo en su casa.

"He sido juez durante 50 años, y ahora la santidad de mi servicio ha sido invadida por la IA y por abogados que han decidido que tal vez la IA es un atajo o una herramienta útil, de cualquier forma que lo veas", dijo.

El caso ha causado revuelo en los círculos legales de Illinois.

"Tenemos el deber de ser sinceros con la corte y citar casos que no existen es inconsistente con nuestras obligaciones como profesionales y como abogados", dijo Amelia Buragas, directora del programa de Estudios Legales de Illinois State University. "Pero eso siempre ha sido cierto, que tenemos esas obligaciones. Necesitamos verificar el trabajo, sin importar de dónde provenga".

Buragas señaló que la regla de la Corte Suprema de Illinois sobre la IA es bastante permisiva y no prohíbe que los abogados la utilicen. Dijo que las reglas de conducta profesional exigen que los abogados se mantengan al día con las nuevas tecnologías. "No significa que tengamos que ser expertos. No significa que tengamos que usar la tecnología, pero si lo hacemos, debemos hacerlo de manera responsable", dijo Burgas.

Cerrando la brecha de 'acceso a la justicia'

Al anunciar su nueva política, la Corte Suprema de Illinois también reconoció el potencial de "eficiencias potenciales y un mejor acceso a la justicia".

La brecha de "acceso a la justicia" a menudo se refiere a los casos civiles. Los acusados en casos penales tienen derecho a un abogado de oficio. Aquellos en casos civiles, como divorcios o tribunales de familia, no lo tienen. Los estadounidenses de bajos ingresos no recibieron ayuda legal, o fue inadecuada, para un asombroso 92% de todos los problemas legales civiles que los afectaron sustancialmente, según un informe de la Legal Services Corporation. Eso deja a muchos litigantes que se representan a sí mismos.

Imagina una aplicación impulsada por IA a disposición de los inquilinos, capaz de responder preguntas sobre cómo recuperar su depósito de seguridad de su arrendador. ¿Cuál es el proceso? ¿Cuáles son los plazos? ¿Qué necesito hacer antes de mudarme? ¿Cómo evalúo si soy realmente responsable de los daños?

"Y ahora, con las herramientas de IA generativa, con estas herramientas de IA conversacional, podemos crear herramientas aún mejores que... realmente pueden conectar con la gente y encontrarlos donde están, para ayudarlos a entender cómo la ley se aplica a su situación", dijo Daniel Linna Jr., profesor principal y director de iniciativas de derecho y tecnología Northwestern University.

Linna formó parte del comité que ayudó a elaborar la política de la Corte Suprema de Illinois sobre la IA. Ve un gran potencial para la IA en la mejora de la calidad del trabajo legal, no solo en hacerlo de manera más eficiente. Dijo que podría ayudar a los jueces a procesar una avalancha de pruebas y escritos, o ayudar a los abogados a resumir más fácilmente cientos de páginas de transcripciones de declaraciones.

"Puede ayudar en algunas de las áreas donde se realiza mucho 'trabajo pesado', ayudar a que sea un poco más fácil de hacer y ayudar a obtener mejores resultados y de mayor calidad al hacerlo", dijo Linna.

Hay una distinción importante entre las herramientas de IA de uso general, como Chat GPT o Google Gemini, y las herramientas propietarias habilitadas con IA construidas específicamente para quienes trabajan en el campo legal, que tendrán "acceso a todos los casos y tratados que existen", dijo Linna. Eso detendría las "alucinaciones".

Cuando se usa correctamente, la IA tiene un enorme potencial, dijo Linna.

"Por supuesto, necesitamos medir estas 'alucinaciones' y los aspectos negativos. Pero la otra cara de la moneda es comprender los beneficios positivos que estas herramientas están aportando a todo este ecosistema para abogados, jueces y, especialmente, para los litigantes que se representan a sí mismos", concluyó.

Esta historia fue escrita en inglés por un ser humano y luego traducida al español con la ayuda de una herramienta de inteligencia artificial. Posteriormente, esa traducción fue revisada y editada por un ser humano.