Your browser doesn’t support HTML5 audio

La Cámara Penal de Esquel, provincia de Chubut, dictó la anulación de una condena que había sido impuesta el 4 de junio por un juez de primera instancia, luego de advertir que parte de la fundamentación del fallo tenía indicios claros de haber sido generada por un sistema de inteligencia artificial generativa.

El punto decisivo fue una frase textual incluida en la sentencia: “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”. Esa línea evidenció que el magistrado había delegado al menos una parte del contenido en la IA sin dejar constancia de ello, comprometiendo la trazabilidad del razonamiento judicial.

Además, los jueces de la Cámara argumentaron que la delegación de funciones jurisdiccionales a una IA sin supervisión humana vulnera principios constitucionales como el debido proceso y el derecho a una motivación adecuada.

Para resolver el caso, la Cámara estableció:

  • La condena queda anulada.
  • El juicio deberá llevarse a cabo nuevamente, esta vez con otro juez.
  • Se remitirán las actuaciones al Superior Tribunal de Justicia de Chubut para investigar posibles responsabilidades disciplinarias o éticas del magistrado.

La sanción al juez y su respuesta pública

El juez en cuestión fue identificado como Carlos Rogelio Richeri. Si bien no se informaron sanciones formales inmediatas al momento del fallo, la Cámara dio impulso al proceso investigativo contra su conducta. Richeri no aceptó pasivamente la decisión. A través de sus redes sociales divulgó dos videos cargados de ironía, defendiendo su actuación y cuestionando la capacidad del tribunal para evaluar evidencia digital sin peritaje especializado.

En esos videos, el magistrado sugirió que la discusión sobre el uso de la IA exige formación para los jueces en valoración de evidencia digital, y lanzó frases como: “Estudien, la formación en la valoración de la evidencia digital es esencial para lograr una justicia mejor”.

Con ese mensaje, no solo buscó responder a la sanción tácita, sino también abrir un desafío público: si el sistema judicial no cuenta con herramientas técnicas o capacitación suficiente, ¿cómo juzgar el uso de tecnologías emergentes?

Otro temazo: el vacío legal sobre IA judicial

Este episodio en Esquel no es un caso aislado, sino el reflejo de una tensión latente: la utilización creciente de inteligencia artificial en ámbitos jurídicos y la falta de un marco normativo claro que delimite sus usos, riesgos y responsabilidades.

En distintas provincias argentinas ya se han detectado casos donde se citaron jurisprudencias inexistentes en recursos presentados por abogados, presuntamente generadas por IA sin verificación. Muchos tribunales han emitido advertencias: las herramientas generativas pueden producir “alucinaciones” (contenido falso que simula veracidad).

En Chubut, ya existía un Acuerdo Plenario del Superior Tribunal de Justicia que regula el uso de IA en el Poder Judicial. Ese acuerdo dispone que la IA puede emplearse como apoyo, pero nunca para delegar decisiones; exige supervisión humana, confidencialidad de datos y que quede constancia expresa de su uso. Hasta ahora, la respuesta institucional es parcial e incipiente.

En el ámbito legislativo nacional, no existe una ley específica que regule el empleo de inteligencia artificial en los procesos judiciales ni administrativa clara que establezca límites, responsabilidades o estándares técnicos uniformes. Ese vacío permite discrepancias y riesgos de arbitrariedad.

Leé más notas de La Opinión Austral

Ver comentarios