¿Justicia bajo amenaza digital? El peligro creciente del uso indebido de la inteligencia artificial en los tribunales
Errores generados por IA en sistemas judiciales: advertencias desde Australia hasta EE. UU.
La inteligencia artificial (IA) se ha convertido en una herramienta poderosa con aplicaciones valiosas en diferentes ámbitos, desde la salud hasta la industria del entretenimiento. Sin embargo, su incursión en el sistema judicial ha comenzado a generar preocupación, especialmente cuando se usa sin supervisión adecuada. En tribunales de todo el mundo, han comenzado a reportarse casos alarmantes de documentos legales con errores generados por IA, lo que plantea serias dudas sobre la fiabilidad de estas tecnologías en procesos tan sensibles como los judiciales.
Un caso emblemático en Australia
La más reciente advertencia proviene de la Corte Suprema del estado de Victoria, Australia, donde un abogado de alto perfil, Rishi Nathwani, portador del título de King's Counsel, se vio obligado a disculparse ante el juez James Elliott por presentar demandas legales que contenían citas falsas y referencias jurídicamente inexistentes.
El origen del error: una herramienta de inteligencia artificial usada por el equipo de defensa para redactar documentos que terminaron incluyendo frases fabricadas y jurisprudencia imaginaria. La situación, según el juez Elliott, fue "insatisfactoria" y provocó un retraso de 24 horas en el juicio, en el que se evaluaba la culpabilidad de un menor de edad por asesinato. Al final, el menor fue absuelto por razones de impedimento mental.
Este incidente no fue aislado, y mucho menos el primero.
Cuando el ChatGPT se infiltra en los tribunales estadounidenses
Ya en 2023, dos abogados estadounidenses y su firma fueron multados con 5.000 dólares por incluir jurisprudencia ficticia en una demanda por daños en aviación. El culpable: ChatGPT. El juez federal P. Kevin Castel acusó a los letrados de actuar "de mala fe" aunque reconoció que se habían disculpado y habían tomado medidas correctivas, razón por la que evitó imponer sanciones más graves.
Ese mismo año, el equipo legal de Michael Cohen, exabogado personal del entonces presidente Donald Trump, también presentó documentos con fallos similares, provocados supuestamente por confiar en un sistema de búsqueda basado en inteligencia artificial que ofrecía lo que se conoce como alucinaciones de IA: resultados ficticios presentados como si fueran reales.
El problema de fondo: ¿puede confiarse en la IA para asuntos legales?
Las herramientas de IA generativa —como ChatGPT, Google Bard o Claude— funcionan modelando patrones de texto a partir de miles de millones de datos disponibles en internet. Pero al no estar diseñadas para diferenciar entre información verificada y contenido ficticio, frecuentemente "inventan" citas, leyes inexistentes o precedentes judiciales irreales.
La Corte Suprema de Victoria había emitido directrices en 2024 para regular el uso de tecnologías basadas en IA en los tribunales. Entre sus disposiciones más claras se lee: "No es aceptable utilizar inteligencia artificial salvo que el producto haya sido verificado de forma independiente y exhaustiva". Sin embargo, este mensaje parece no haber calado en todos los actores legales.
El auge de los errores jurídicos provocados por IA
Algunos ejemplos adicionales y recientes:
- Caso Mata v. Avianca (EE. UU., 2023): un abogado presentó una moción con seis decisiones judiciales inexistentes originadas por ChatGPT.
- Brasil, 2025: Un juez revocó una sentencia de custodia tras comprobar que un fiscal había utilizado Copilot (IA de Microsoft) sin verificación para redactar su alegato final.
- España, 2025: Un despacho de abogados fue multado por utilizar una IA que aconsejaba prácticas fiscales ilegales en documentos presentados a Hacienda.
Estos tipos de casos ponen de relieve una tendencia preocupante: el creciente número de profesionales que delegan tareas críticas a la inteligencia artificial sin comprobar el resultado.
Consecuencias legales y éticas
Expertos advierten que la presentación de argumentos falsos en un tribunal puede ser considerada, según la jurisdicción, como desacato o incluso obstrucción a la justicia. La jueza británica Victoria Sharp advirtió en junio de 2025 que usar material falso como si fuera auténtico "podría constituir en los casos más graves una perversión del curso de la justicia, castigada con hasta cadena perpetua".
Además del daño a la reputación profesional de quienes incurren en estos errores, se arriesga la credibilidad del sistema judicial en conjunto. A medida que los tribunales avanzan en la digitalización, la necesidad de establecer límites claros se vuelve urgente.
La solución no es prohibir, sino regular
La mayoría de los expertos legales coinciden en que la inteligencia artificial puede tener un papel útil en los procesos judiciales: agilizar trámites, buscar jurisprudencia, redactar borradores. Pero estos recursos deben utilizarse como herramientas de apoyo, de ningún modo como reemplazo del análisis crítico humano.
Organizaciones como la American Bar Association y el Consejo General del Poder Judicial de España ya han comenzado a impulsar talleres y guías sobre el uso ético de IA en el ámbito legal. Lo mismo ocurre en Francia y Alemania, donde se estudia integrar estas prácticas en programas obligatorios de formación continua para abogados.
Un llamado a la precaución
La historia jurídica del mundo se construye sobre la confianza: entre jueces, abogados, fiscales y ciudadanos. La entrada de un nuevo actor —la inteligencia artificial— no debería dinamitar esa confianza, sino fortalecerla con nuevas reglas, nuevas capacidades y una clara delimitación de responsabilidades.
Como declaró el juez Elliott en Melbourne: "La capacidad del tribunal para confiar en la exactitud de las presentaciones hechas por los abogados es fundamental para la correcta administración de justicia". Estas palabras, lejos de ser una crítica aislada, son hoy un eco global ante el avance vertiginoso de la tecnología en nuestros sistemas más sagrados.