Avatares en la Corte y el Límite de la Inteligencia Artificial en el Sistema Judicial

El controvertido uso de herramientas de IA como presentadores de argumentos legales abre un debate crítico sobre ética, legalidad y tecnología en los tribunales

En una época marcada por avances tecnológicos sin precedentes, los sistemas judiciales del mundo enfrentan un nuevo desafío: el uso de avatares y herramientas de Inteligencia Artificial (IA) en procesos legales. Aunque estas tecnologías prometen eficiencia y accesibilidad, su mal uso o implementación sin pautas claras puede tener consecuencias éticas y legales preocupantes.

Un avatar en la corte sorprende al tribunal de Nueva York

Un reciente caso en el estado de Nueva York ha levantado serias preguntas sobre el uso de tecnología IA en el ámbito legal. Jerome Dewald, un ciudadano sin formación legal formal y sin representación legal, presentó ante una corte de apelaciones un argumento a través de un avatar generado por IA. En lugar de presentarse personalmente o grabar un video tradicional, optó por usar una herramienta tecnológica que creaba un presentador sintético para leer su defensa.

El avatar —un hombre joven, de aspecto profesional, camisa blanca y suéter— comenzó con una solemne declaración: “May it please the court”. Pero la jueza Sallie Manzanet-Daniels interrumpió rápidamente: “¿Ese es el abogado del caso?”. Dewald admitió que había usado una herramienta para generarlo, lo cual provocó una fuerte reprimenda. "No aprecio que me engañen", dijo la magistrada, visiblemente molesta.

Dewald posteriormente pidió disculpas al tribunal explicando que su intención no fue engañar, sino ofrecer una presentación más clara y coherente de su argumento, ya que admitió que suele trabarse al hablar en público.

El precedente: abogados que también erraron con la IA

Este no ha sido el único incidente con IA en los tribunales. En junio de 2023, dos abogados y su firma fueron multados con 5.000 dólares por un juez federal de Nueva York. La razón: habían utilizado una herramienta de IA —probablemente ChatGPT u otra plataforma generativa— para realizar investigaciones legales. El problema fue que la IA inventó casos legales inexistentes (un fenómeno conocido como "alucinación de IA").

Más tarde, en otro incidente similar, Michael Cohen, exabogado personal de Donald Trump, presentó documentos legales que contenían citas a fallos judiciales totalmente ficticios. El error provino de utilizar una búsqueda por IA sin verificar los resultados.

¿Puede la inteligencia artificial tener un papel legítimo en tribunales?

Es pertinente preguntarse: ¿tiene la IA un lugar válido y útil en los sistemas judiciales? La respuesta es sí, pero bajo estrictos controles y con claridad ética.

Un buen ejemplo de implementación responsable lo da la Corte Suprema de Arizona. En 2023, comenzaron a usar avatares generados por IA para explicar fallos judiciales al público general. Los avatares, “Daniel” y “Victoria”, aparecen en el sitio web oficial y resumen en un lenguaje simple las decisiones judiciales. El propósito no es reemplazar a abogados ni jueces, sino hacer más accesible el sistema legal a ciudadanos sin conocimientos jurídicos.

Daniel Shin, profesor asociado en William & Mary Law School, afirma: “Desde mi perspectiva, era inevitable”. Según Shin, aunque los abogados bajo normas estrictas difícilmente recurrirán a tales recursos sin aprobación judicial, los ciudadanos pro se (quienes se representan a sí mismos) suelen carecer de orientación específica y podrían recurrir a estas herramientas sin conocer sus riesgos legales.

Una delgada línea entre la innovación y la falta de ética

Los expertos coinciden en que lo sucedido con Dewald no fue un acto malintencionado sino una falta de criterio y de regulación clara. Sin embargo, se abre una caja de Pandora: ¿qué impide que se usen avatares con la voz de jueces, declaraciones falsas o incluso una identidad ficticia para manipular procesos?

La tecnología avanza más rápido que las leyes, y lo que hoy parece un caso anecdótico podría convertirse en un problema sistemático sin una respuesta regulatoria adecuada.

La respuesta futura: regulación, transparencia y ética

Estados como California y Texas ya han propuesto regulaciones sobre el uso de IA en entornos legales. De hecho, la American Bar Association (ABA) recientemente ofreció un seminario web sobre consideraciones éticas y prácticas de la IA en el derecho, donde abordaron desde el uso de “summarizers” automatizados hasta la integración de chatbots legales en páginas web de asesoría gratuita.

La propia ABA ha sugerido que, mientras se establecen normas oficiales, los tribunales deberían exigir a cualquier parte que desee presentar evidencia o argumentos mediante IA que lo declaren con anticipación y obtengan aprobación judicial formal, mostrando con qué herramienta, propósito y control han sido generados esos materiales.

¿Qué nos dice este episodio sobre el presente y futuro del Derecho?

Este suceso en Nueva York es una alerta temprana sobre cómo la innovación, si no es acompañada de preceptos éticos y transparencia, puede desestabilizar entornos tan delicados como los tribunales. La IA no sólo representa una herramienta; también plantea un reto cultural, legal y moral al área jurídica.

La historia de Dewald también expone otra verdad profunda: el sistema judicial, especialmente en EE. UU., puede resultar intimidante y excluyente, empujando a los ciudadanos sin medios a usar alternativas tecnológicas para hacerse escuchar. ¿Deberían entonces las cortes invertir en herramientas propias con IA bajo estricta supervisión para nivelar el campo de juego?

Este tipo de preguntas son clave en un momento donde la confianza en instituciones democráticas está erosionada. A medida que la IA se integra en todas las facetas de la vida humana —desde la medicina hasta el transporte, y ahora los tribunales—, el Derecho no puede quedarse atrás.

Como diría el filósofo del derecho Ronald Dworkin: “El Derecho no es una isla; está influido por el mundo”. Y en este mundo moderno, la IA será un actor permanente. El gran desafío será asegurarse de que sea un actor ético y regulado, no una herramienta ambigua ni un atajo ilegal.

Este artículo fue redactado con información de Associated Press