La posibilidad de que los sistemas de inteligencia artificial dicten sentencias es uno de los ejes principales de debate. El abogado e investigador especializado en Derecho Procesal Santiago Pereira Campos y Pesce coinciden en que cruzar ese umbral es lo que genera más preocupación y alarma.
El representante del máximo órgano del Poder Judicial aseguró que Uruguay todavía no tiene sobre la mesa trabajar en una normativa propia. La visión, adelantó, es de “mucha cautela” y de seguir los lineamientos que se definan a nivel regional. “No creemos que hoy tengamos una situación país que justifique los riesgos de estar en la cresta de la ola. Uno tiene que tener problemas muy graves para incluir ya la inteligencia artificial en la Justicia, que no sabe de derecho”, afirmó Pesce.
Según señaló, hasta ahora ningún país de la Cumbre Judicial Iberoamericana planteó que “los algoritmos tomen decisiones en los procesos”, sino que sean utilizados como “herramientas” para obtener mayor eficiencia y automatización, como insumo, para priorizar trabajos, agrupar casos, obtener información estadística. Descartó que se estudie su uso en asuntos no supervisados o fallos finales.
Por ejemplo, en Brasil, por el gran volumen de causas en relación con la baja cantidad de jueces, se utilizan herramientas de inteligencia artificial para priorizar las investigaciones.
Según señaló Pesce, Uruguay tiene un proyecto en curso con la Universidad de Buenos Aires para analizar sentencias de género, es decir realizar un trabajo estadístico. También hay otros para quitar datos personales de forma automática en sentencias y una iniciativa que refiere a análisis estadístico.
Sesgos y errores
En la práctica se ha comprobado que algunos de los algoritmos incorporados en sistemas de Justicia tienen “sesgos” y “prejuicios”, que reflejan los que existen en la información que tienen almacenada, como sucedió en Estados Unidos con el sistema de análisis denominado Compas, que es un acrónimo que en español se traduce como Administración de Perfiles de Criminales para Sanciones Alternativas del Sistema de Prisiones. Esta herramienta define la probabilidad de reincidencia de un delincuente, a partir de un cuestionario, para determinar si merece la libertad condicional. Una investigación de la ONG ProPublica logró detectar que si bien las preguntas no eran racistas, el algoritmo tenía un sesgo y por tanto se concluía que los afrodescendientes tenían más probabilidades de reincidir, algo que no se reflejaba en los hechos.
Además de replicar sesgos, los algoritmos pueden cometer errores. Eso sucede en la actualidad con el Chat GPT, que tras ser liberada al uso público se transformó en una herramienta disruptiva. El ingeniero de Sistemas con especialización en Inteligencia Artificial y CEO de Genexus, Nicolás Jodal, explicó a Búsqueda que esos modelos son entrenados con una “cantidad monstruosa” de datos. En el caso de Chat GPT fueron “dos millones de libros digitales y 100 billones de palabras en Internet”.
Con esa base, lograron que “hable” de forma “coherente y fluida” en los idiomas que conoció, pero no tiene por qué ser correcto, dijo Jodal. El experto señaló que el chatbot “alucina” e “inventa hechos”, como si fuera una persona con fiebre. “Es una característica inherente de esa máquina, que no es nada confiable”, afirmó.
Para Jodal, es fundamental determinar qué uso se le dará a la inteligencia artificial en la Justicia. En ese sentido, consideró que es apto para aportar ideas o como redactor de textos, pero “no puede tomar decisiones”, porque está claro que la información que aporta puede contener errores. El Chat GPT es —comparó— un equivalente a una calculadora para los contadores: es decir, una herramienta más.
“No puede haber un juez que sea Chat GPT, pero para el juez que tiene que redactar algo la herramienta puede ser fabulosa”, dijo.
En ese sentido, el director general de los Servicios Administrativos de la Suprema Corte de Justicia destacó que los jueces son la “garantía máxima” detrás de los procesos judiciales y eso da “tranquilidad”.
“No veo ningún esfuerzo a nivel de los países como para prohibir el Chat GPT. Sería como prohibir determinada literatura”, afirmó.
Monografías cuestionadas
La globalización del Chat GPT causa preocupación a nivel académico. Se ve como un riesgo más grande que el plagio su uso en trabajos como monografías porque directamente elabora documentos originales.
Gabriel Valentín, profesor titular de Derecho Procesal, contó que el tema ha sido motivo de conversación en la Facultad de Derecho de la Universidad de la República. Si bien “no hay una normativa desarrollada”, se debe “prestar mucha atención” y “mirar con recelo”, consideró. Entre los desafíos que presenta, entiende que obligará a “repensar” las monografías como herramienta de evaluación.
“Yo no encargaría para evaluar estudiantes la realización de un informe así”, porque “es evidente que el uso de la inteligencia artificial puede ser utilizado para redactar un trabajo” de derecho, agregó. No obstante, cree que puede ser incorporada de “otras formas”, como encargarles a los estudiantes que “ataquen” o “cuestionen argumentalmente” los textos generados por el Chat GPT, que pueden tener cuestiones incorrectas.
“Enseñar a escribir está bien, pero no es tan importante como antes. Enseñar pensamiento crítico es mucho más importante”, afirmó por su parte Jodal, sobre los desafíos educativos derivados de herramientas como el Chat GPT.
El audio como prueba
Así como el Chat GPT elabora textos a través de la inteligencia artificial, otros algoritmos son capaces de clonar la voz de personas y crear audios o imágenes. Así se han viralizado audios de personas famosas, como Emma Watson leyendo un fragmento de Mein Kampf, el libro de Adolf Hitler o de cantantes como Taylor Swift emitiendo frases que nunca pronunciaron. Incluso la imagen falsa del papa Francisco con una campera blanca dio la vuelta al mundo.
La posibilidad de crear este tipo de contenidos con inteligencia artificial es un desafío para los sistemas de Justicia, porque en gran cantidad de los procesos se utilizan audios o imágenes como evidencia. Para Jodal, esto “es una gran complicación”, porque “antes los audios eran una fuente de verdad y ahora técnicamente no lo son más”.
“Dentro de poco va a haber videos perfectos, de alguien que no hizo nada”, advirtió.
En el mismo sentido se manifestó Valentín, quien consideró que las evidencias documentales se deben mirar con “mucho escepticismo” y “menos ingenuidad”, porque pueden haber sido diseñadas mediante un sistema de inteligencia artificial y presentadas como una prueba “muy creíble”.
Jueces formados
En Uruguay, el Centro de Estudios Judiciales (CEJU) es el encargado de formar aspirantes a magistrados, jueces en actividad, mediadores y defensores públicos, quienes tienen el derecho y la obligación de recibir una capacitación obligatoria de 20 horas anuales, que al final cuentan con una evaluación. En el caso de los aspirantes, es de dos años.
Si bien para el 2023 no están previstos cursos sobre el uso de la inteligencia artificial en la Justicia, la directora del CEJU, la ministra del Tribunal de Apelaciones de 2º turno, Verónica Scavone, consideró a Búsqueda que están en una “etapa exploratoria” sobre qué “elementos útiles” incorporar a la formación, ya que cuando “irrumpe” un fenómeno que “avanza con vertiginosidad en el mundo” se generan “necesidades”.
“Tenemos que dar una serena reflexión, sin demorarnos, porque la tecnología avanza a ritmos rápidos”, dijo. Para Scavone, probablemente para el año que viene los jueces manifiesten interés en que se incorpore a la formación el uso de inteligencia artificial en el sistema de Justicia.
“No hay dudas de que la inteligencia artificial tiene un enorme potencial, pero a nivel internacional hay preocupación por la violación de privacidad, la protección de datos personales y la no discriminación, por lo que debe analizarse con cautela”, dijo.
Sin embargo, al igual que Valentín, reconoció que no pueden descartar que los jueces estén utilizando actualmente el Chat GPT en sus trabajos. “No tenemos manera de saber eso”, pero “hasta ahora ni siquiera tuvimos la sospecha”, indicó.
Por su parte, el experto en derecho procesal dijo que “hay riesgo de que un juez pueda estar utilizando instrumentos sin que lo sepamos”, pero los jueces “deben motivar la sentencia” y si no se verifican los resultados obtenidos por la inteligencia artificial “corren riesgo” de que sea analizado y “atacado fácilmente”, salvo en decisiones en última instancia.
Para Valentín, un “principio básico” que debe estar incluido en la regulación que se alcance es que la “responsabilidad” de las decisiones “tienen que ser humanas”.
“Aunque la decisión sea proyectada por una máquina, la autoridad que la toma es la responsable y la que debe responder”, afirmó.
Una herramienta con “gran potencial” que debe abordarse “cuidadosamente”
Información Nacional
2023-04-26T23:30:00
2023-04-26T23:30:00