MIE, 20 / AGO / 2025

Otro caso de IA inventando casos judiciales

Ocurrió en Australia y produjo una demora en la resolución de un juicio. Los abogados defensores se confiaron, el fiscal no revisó las referencias. El juez advirtió que no hay excusas, ya existen normas para el uso de las IA.

No es la primera vez que ocurre y es muy poco probable que sea la última. En Australia, Rishi Nathwani, un abogado defensor de destacada trayectoria, ha tenido que disculparse por un error que ha retrasado unas 24 horas el cierre de un proceso judicial. Y todo esto por querer ahorrar tiempo utilizando un sistema de inteligencia artificial.

La disculpa

Nathwani defendía a un menor de edad en un caso de homicidio. Como parte de sus labores entregó un escrito en el que incluía citas y referencias a casos pertinentes. Una parte del material había sido generada por una IA.

Los ayudantes del juez revisaron los textos y luego intentaron encontrar los casos referidos, pero no pudieron. Le pidieron entonces a los abogados que les dieran el material original.

Fue entonces cuando los abogados advirtieron que los casos y las citas que habían provistos eran falsos.

Según explican los abogados defensores el error se produjo porque las primeras citas que obtuvieron del sistema fueron confirmadas. Como consecuencia asumieron que el resto sería igualmente confiable.

La bronca del juez

Por supuesto, a la Suprema Corte de Victoria no le cayó bien lo ocurrido. Nathwani asumió inmediatamente la culpa. Afirmó: “lamentamos profundamente lo ocurrido y nos sentimos avergonzados”. El juez a cargo del caso, James Elliott, mantuvo sus dichos dentro del protocolo, pero sin dudas no estaba muy contento con la situación. “A riesgo de quedarnos cortos, la manera en que se desarrollaron estos eventos es insatisfactoria. La habilidad de la corte para confiar en lo presentado por el consejero es fundamental para la administración de justicia”.

Pero los abogados defensores no son los únicos que quedaron mal parados. El texto también fue recibido por el fiscal, Daniel Porceddu, quien al parecer no examinó las citas.

Ahora bien, podríamos pensar que se trata de un caso más de una nueva tecnología que todavía no sabemos como usar. Pero el juez ha señalado que ya existen guías de uso para las IA promulgadas en 2024. “No es aceptable usar inteligencia artificial salvo que el producto de su uso sea verificado de forma independiente”.

Así pues, la IA nos engañó ya no es una excusa. Y la verdad es que no podemos dejar de remarcar este punto, han pasado ya varios años desde que esta tecnología quedó a disposición del público. Conocemos sus beneficios y problemas. Hacer las cosas mal y luego decir que la IA te engaño es cada vez más ridículo.

Como nota al margen el menor fue exonerado del caso de homicidio por problemas mentales.

Comentarios
¡Comparte esta noticia!

Comments are closed.