• Cotizaciones
    martes 26 de noviembre de 2024

    ¡Hola !

    En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, tu plan tendrá un precio promocional:
    $ Al año*
    En caso de que tengas dudas o consultas podés escribir a [email protected] o contactarte por WhatsApp acá
    * Podés cancelar el plan en el momento que lo desees

    ¡Hola !

    En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, por los próximos tres meses tu plan tendrá un precio promocional:
    $ por 3 meses*
    En caso de que tengas dudas o consultas podés escribir a [email protected] o contactarte por WhatsApp acá
    * A partir del cuarto mes por al mes. Podés cancelar el plan en el momento que lo desees
    stopper description + stopper description

    Tu aporte contribuye a la Búsqueda de la verdad

    Suscribite ahora y obtené acceso ilimitado a los contenidos de Búsqueda y Galería.

    Suscribite a Búsqueda
    DESDE

    UYU

    299

    /mes*

    * Podés cancelar el plan en el momento que lo desees

    ¡Hola !

    El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
    En caso de que tengas dudas o consultas podés escribir a [email protected] o contactarte por WhatsApp acá

    La Suprema Corte avanza con “cautela” y atenta a definiciones regionales en el desafío de regular la inteligencia artificial

    Expertos sostienen que el avance tecnológico pone en cuestión las pruebas documentales como los audios y las fotos; la Cumbre Judicial Iberoamericana empieza a explorar su incorporación como herramienta de asistencia pero no para fallos finales o tareas sin supervisión

    Hay estudios de abogacía en Estados Unidos que trabajan con robots que asesoran en los casos. En Colombia, se realizó una audiencia en el metaverso y los jueces ya han tomado resoluciones con la ayuda del Chat GPT. En Estonia, se utiliza un sistema de inteligencia artificial para ayudar a dictar sentencias en casos de bajos montos económicos, casi sin intervención humana.

    Uruguay todavía mira de lejos estas experiencias, pero en los distintos actores del sistema ya está latente la preocupación porque el avance de la inteligencia artificial es rápido. Tienen claro que el derecho procesal y el sistema judicial no serán ajenos a los desafíos que ya se plantean en otras áreas.

    Esta alerta motivó que la Cumbre Judicial Iberoamericana, que está integrada por 23 países —entre ellos Uruguay— conforme un grupo de trabajo específico para analizar la incorporación de la inteligencia artificial en los sistemas de Justicia, según informó a Búsqueda el director general de los Servicios Administrativos de la Suprema Corte de Justicia, Marcelo Pesce. En este momento, sus integrantes están recopilando proyectos en curso o planificados en cada país, a la vez que siguen “de cerca” la legislación específica en el uso de inteligencia artificial aplicada a la Justicia que lleva adelante el Parlamento europeo.

    La mayor preocupación y, por tanto, el mayor desafío que fue señalado tanto por expertos en derecho procesal y en tecnología como por actores del sistema de Justicia uruguayo consultados por Búsqueda, es que se avance en una regulación que determine el alcance de su uso en los procesos judiciales.

    La inteligencia artificial, indicaron, podría utilizarse como “auxilio” o “insumo” por los operadores, pero también podría tener autonomía e incidir en los fallos, sin supervisión de personas. En algún sentido, sería como determinar si esta tecnología debería ser piloto o copiloto en los procesos judiciales.

    La posibilidad de que los sistemas de inteligencia artificial dicten sentencias es uno de los ejes principales de debate. El abogado e investigador especializado en Derecho Procesal Santiago Pereira Campos y Pesce coinciden en que cruzar ese umbral es lo que genera más preocupación y alarma.

    El representante del máximo órgano del Poder Judicial aseguró que Uruguay todavía no tiene sobre la mesa trabajar en una normativa propia. La visión, adelantó, es de “mucha cautela” y de seguir los lineamientos que se definan a nivel regional. “No creemos que hoy tengamos una situación país que justifique los riesgos de estar en la cresta de la ola. Uno tiene que tener problemas muy graves para incluir ya la inteligencia artificial en la Justicia, que no sabe de derecho”, afirmó Pesce.

    Según señaló, hasta ahora ningún país de la Cumbre Judicial Iberoamericana planteó que “los algoritmos tomen decisiones en los procesos”, sino que sean utilizados como “herramientas” para obtener mayor eficiencia y automatización, como insumo, para priorizar trabajos, agrupar casos, obtener información estadística. Descartó que se estudie su uso en asuntos no supervisados o fallos finales.

    Por ejemplo, en Brasil, por el gran volumen de causas en relación con la baja cantidad de jueces, se utilizan herramientas de inteligencia artificial para priorizar las investigaciones.

    Según señaló Pesce, Uruguay tiene un proyecto en curso con la Universidad de Buenos Aires para analizar sentencias de género, es decir realizar un trabajo estadístico. También hay otros para quitar datos personales de forma automática en sentencias y una iniciativa que refiere a análisis estadístico.

    Sesgos y errores

    En la práctica se ha comprobado que algunos de los algoritmos incorporados en sistemas de Justicia tienen “sesgos” y “prejuicios”, que reflejan los que existen en la información que tienen almacenada, como sucedió en Estados Unidos con el sistema de análisis denominado Compas, que es un acrónimo que en español se traduce como Administración de Perfiles de Criminales para Sanciones Alternativas del Sistema de Prisiones. Esta herramienta define la probabilidad de reincidencia de un delincuente, a partir de un cuestionario, para determinar si merece la libertad condicional. Una investigación de la ONG ProPublica logró detectar que si bien las preguntas no eran racistas, el algoritmo tenía un sesgo y por tanto se concluía que los afrodescendientes tenían más probabilidades de reincidir, algo que no se reflejaba en los hechos.

    Además de replicar sesgos, los algoritmos pueden cometer errores. Eso sucede en la actualidad con el Chat GPT, que tras ser liberada al uso público se transformó en una herramienta disruptiva. El ingeniero de Sistemas con especialización en Inteligencia Artificial y CEO de Genexus, Nicolás Jodal, explicó a Búsqueda que esos modelos son entrenados con una “cantidad monstruosa” de datos. En el caso de Chat GPT fueron “dos millones de libros digitales y 100 billones de palabras en Internet”.

    Con esa base, lograron que “hable” de forma “coherente y fluida” en los idiomas que conoció, pero no tiene por qué ser correcto, dijo Jodal. El experto señaló que el chatbot “alucina” e “inventa hechos”, como si fuera una persona con fiebre. “Es una característica inherente de esa máquina, que no es nada confiable”, afirmó.

    Para Jodal, es fundamental determinar qué uso se le dará a la inteligencia artificial en la Justicia. En ese sentido, consideró que es apto para aportar ideas o como redactor de textos, pero “no puede tomar decisiones”, porque está claro que la información que aporta puede contener errores. El Chat GPT es —comparó— un equivalente a una calculadora para los contadores: es decir, una herramienta más.

    “No puede haber un juez que sea Chat GPT, pero para el juez que tiene que redactar algo la herramienta puede ser fabulosa”, dijo.

    En ese sentido, el director general de los Servicios Administrativos de la Suprema Corte de Justicia destacó que los jueces son la “garantía máxima” detrás de los procesos judiciales y eso da “tranquilidad”.

    “No veo ningún esfuerzo a nivel de los países como para prohibir el Chat GPT. Sería como prohibir determinada literatura”, afirmó.

    Monografías cuestionadas

    La globalización del Chat GPT causa preocupación a nivel académico. Se ve como un riesgo más grande que el plagio su uso en trabajos como monografías porque directamente elabora documentos originales.

    Gabriel Valentín, profesor titular de Derecho Procesal, contó que el tema ha sido motivo de conversación en la Facultad de Derecho de la Universidad de la República. Si bien “no hay una normativa desarrollada”, se debe “prestar mucha atención” y “mirar con recelo”, consideró. Entre los desafíos que presenta, entiende que obligará a “repensar” las monografías como herramienta de evaluación.

    “Yo no encargaría para evaluar estudiantes la realización de un informe así”, porque “es evidente que el uso de la inteligencia artificial puede ser utilizado para redactar un trabajo” de derecho, agregó. No obstante, cree que puede ser incorporada de “otras formas”, como encargarles a los estudiantes que “ataquen” o “cuestionen argumentalmente” los textos generados por el Chat GPT, que pueden tener cuestiones incorrectas.

    “Enseñar a escribir está bien, pero no es tan importante como antes. Enseñar pensamiento crítico es mucho más importante”, afirmó por su parte Jodal, sobre los desafíos educativos derivados de herramientas como el Chat GPT.

    El audio como prueba

    Así como el Chat GPT elabora textos a través de la inteligencia artificial, otros algoritmos son capaces de clonar la voz de personas y crear audios o imágenes. Así se han viralizado audios de personas famosas, como Emma Watson leyendo un fragmento de Mein Kampf, el libro de Adolf Hitler o de cantantes como Taylor Swift emitiendo frases que nunca pronunciaron. Incluso la imagen falsa del papa Francisco con una campera blanca dio la vuelta al mundo.

    La posibilidad de crear este tipo de contenidos con inteligencia artificial es un desafío para los sistemas de Justicia, porque en gran cantidad de los procesos se utilizan audios o imágenes como evidencia. Para Jodal, esto “es una gran complicación”, porque “antes los audios eran una fuente de verdad y ahora técnicamente no lo son más”.

    “Dentro de poco va a haber videos perfectos, de alguien que no hizo nada”, advirtió.

    En el mismo sentido se manifestó Valentín, quien consideró que las evidencias documentales se deben mirar con “mucho escepticismo” y “menos ingenuidad”, porque pueden haber sido diseñadas mediante un sistema de inteligencia artificial y presentadas como una prueba “muy creíble”.

    Jueces formados

    En Uruguay, el Centro de Estudios Judiciales (CEJU) es el encargado de formar aspirantes a magistrados, jueces en actividad, mediadores y defensores públicos, quienes tienen el derecho y la obligación de recibir una capacitación obligatoria de 20 horas anuales, que al final cuentan con una evaluación. En el caso de los aspirantes, es de dos años.

    Si bien para el 2023 no están previstos cursos sobre el uso de la inteligencia artificial en la Justicia, la directora del CEJU, la ministra del Tribunal de Apelaciones de 2º turno, Verónica Scavone, consideró a Búsqueda que están en una “etapa exploratoria” sobre qué “elementos útiles” incorporar a la formación, ya que cuando “irrumpe” un fenómeno que “avanza con vertiginosidad en el mundo” se generan “necesidades”.

    “Tenemos que dar una serena reflexión, sin demorarnos, porque la tecnología avanza a ritmos rápidos”, dijo. Para Scavone, probablemente para el año que viene los jueces manifiesten interés en que se incorpore a la formación el uso de inteligencia artificial en el sistema de Justicia.

    “No hay dudas de que la inteligencia artificial tiene un enorme potencial, pero a nivel internacional hay preocupación por la violación de privacidad, la protección de datos personales y la no discriminación, por lo que debe analizarse con cautela”, dijo.

    Sin embargo, al igual que Valentín, reconoció que no pueden descartar que los jueces estén utilizando actualmente el Chat GPT en sus trabajos. “No tenemos manera de saber eso”, pero “hasta ahora ni siquiera tuvimos la sospecha”, indicó.

    Por su parte, el experto en derecho procesal dijo que “hay riesgo de que un juez pueda estar utilizando instrumentos sin que lo sepamos”, pero los jueces “deben motivar la sentencia” y si no se verifican los resultados obtenidos por la inteligencia artificial “corren riesgo” de que sea analizado y “atacado fácilmente”, salvo en decisiones en última instancia.

    Para Valentín, un “principio básico” que debe estar incluido en la regulación que se alcance es que la “responsabilidad” de las decisiones “tienen que ser humanas”.

    “Aunque la decisión sea proyectada por una máquina, la autoridad que la toma es la responsable y la que debe responder”, afirmó.

    • Recuadro de la nota

    Una herramienta con “gran potencial” que debe abordarse “cuidadosamente”

    Información Nacional
    2023-04-26T23:30:00