El sistema de justicia avanza en varias direcciones con el objetivo de comenzar a utilizar inteligencia artificial (IA), mientras los criminales ya la usan para ser más eficientes a la hora de cometer delitos.
Académicos elaboraron un proyecto de ley para regular “tareas secundarias” en la Justicia, que incluye sanciones a jueces y abogados frente al mal uso
El sistema de justicia avanza en varias direcciones con el objetivo de comenzar a utilizar inteligencia artificial (IA), mientras los criminales ya la usan para ser más eficientes a la hora de cometer delitos.
Accedé a una selección de artículos gratuitos, alertas de noticias y boletines exclusivos de Búsqueda y Galería.
El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
En caso de que tengas dudas o consultas podés escribir a [email protected] contactarte por WhatsApp acáPor un lado, la Fiscalía General de la Nación le presentó un proyecto al Banco Interamericano de Desarrollo (BID) para obtener financiación con el objetivo de incorporar herramientas de IA en las investigaciones penales, sobre todo en el caso de los delitos económicos, en los que se entiende que pueden ser de gran utilidad.
El foco estará puesto en el análisis de datos para identificar patrones, por ejemplo, en las estafas digitales que se cometen en todo Uruguay, con el objetivo de unificar las que fueron realizadas por la misma persona en distintos departamentos, señalaron a Búsqueda fuentes del Ministerio Público. El problema que existe en la actualidad es que un mismo esquema fraudulento puede generar decenas o cientos de denuncias en distintas localidades sin que se advierta de forma rápida que están conectadas. El uso de IA en el análisis de grandes cantidades de datos también permitirá detectar eventuales vínculos entre los denunciados, para identificar si se trata de una red delictiva, o incluso si existen conexiones internacionales.
En paralelo, desde la Fiscalía que lidera Mónica Ferrero comenzaron a intercambiar información con Chile, un país de la región que se toma como ejemplo por estar más avanzado en el uso de IA en las investigaciones penales.
Mientras la Fiscalía avanza sobre los usos concretos de IA —aunque no descarta impulsar luego una regulación—, el Poder Judicial trabaja en cómo encuadrarlos.
La directora del Centro de Estudios Judiciales (CEJU), Verónica Scavone, confirmó a Búsqueda que en 2025 se comenzaron a elaborar guías institucionales, un marco para regular el eventual uso de IA en la actividad jurisdiccional, que establecen requisitos y posibles sanciones frente al mal uso. En estas guías trabaja un grupo designado por la Suprema Corte de Justicia, a partir de un acuerdo de cooperación que se suscribió con la Unesco.
“La inteligencia artificial debe ser regulada, pero bajo el prisma de los derechos humanos y la dignidad de la persona humana. Ese es nuestro foco”, señaló Scavone, y debe hacerse a partir de tres ideas rectoras, que “tienen consenso internacional”: mejorar la eficiencia del sistema, mantener el control humano obligatorio en las decisiones y asegurar la responsabilidad en la gestión de datos.
Scavone consideró que una futura regulación debe ser de “marcos flexibles” porque, con los rápidos avances tecnológicos, lo que hoy puede ser adecuado en un corto período de tiempo deja de serlo. También dijo que será necesario considerar los lineamientos que han establecido algunos marcos internacionales y regionales que se toman como referencia, como el enfoque de riesgo previsto en el Reglamento de Inteligencia Artificial de la Unión Europea, los principios de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), la Recomendación sobre la Ética de la Inteligencia Artificial de la Unesco y los lineamientos estratégicos de la Cumbre Judicial Iberoamericana. Todos ellos “exigen la protección de los derechos fundamentales, la equidad, la no discriminación y la transparencia algorítmica”, que están alineados con la Estrategia Nacional de Inteligencia Artificial 2024-2030, diseñada por la Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento.
En la última edición de la Revista Uruguaya de Derecho Procesal, del 30 de diciembre de 2025, Ignacio Soba y Gabriel Valentín publicaron el artículo Bases para regular la inteligencia artificial vinculada a procesos jurisdiccionales, un anteproyecto de ley que pretende ser un punto de partida de la discusión sobre el uso de IA en la Justicia. Soba es profesor agregado por la Facultad de Derecho de la Universidad de la República, miembro del Instituto Iberoamericano de Derecho Procesal y del Instituto Uruguayo de Derecho Procesal, y Valentín es catedrático de Derecho Procesal en la Facultad de Derecho y director del Instituto Uruguayo de Derecho Procesal.
La iniciativa, que tiene como objeto “prevenir y sancionar” el uso irresponsable de la IA y evitar el ingreso de “información falsa o inexacta” en los procesos, plantea que las herramientas solo se puedan usar en “tareas secundarias, de apoyo o gestión”.
“La inteligencia artificial no podrá sustituir al órgano jurisdiccional en el dictado de las resoluciones jurisdiccionales de contenido decisorio”, señala el artículo 2 del anteproyecto. Por ejemplo, plantea que puede usarse para escribir alegatos, peticiones, exposiciones o resoluciones, aunque todo el material que sea producido con la asistencia de una IA que vaya a ser utilizado en un proceso jurisdiccional debe ser verificado en cuanto a su “exactitud y veracidad”.
El proyecto también deja claro que quienes usen IA “serán personalmente responsables”. Se configura “al menos ligereza culpable” la presentación de argumentos, sean escritos u orales, que introduzcan “material falso o inexacto generado por inteligencia artificial”. Eso incluye referencias a hechos, pruebas, derecho, jurisprudencia, bibliografía nacional, internacional o extranjera.
“La responsabilidad será procesal, disciplinaria, administrativa, civil o penal, según corresponda”, establece el texto. En el caso de los jueces, propone que sea una falta administrativa el uso de material falso o inexacto generado por IA en sus resoluciones o argumentos, tanto escritos como orales, y que para los abogados sea agregado como una de las causales para correcciones disciplinarias. En el caso de los peritos, que exista responsabilidad penal.
No obstante, plantea que el tribunal se podrá apartar de ese criterio, de forma fundada, si la persona no tiene antecedentes de conductas similares, que haya sido advertida por ella misma o no haya tenido relevancia para el dictado de la resolución judicial. También señala que se debería considerar “malicia temeraria” cuando se ofrezca como prueba en un proceso cualquier material generado por IA —documentos, videos, audios o imágenes, entre otros— que sea “falso, inexacto o adulterado, aun cuando la prueba no haya sido admitida”.
El proyecto de ley agrega que los abogados, defensores públicos, fiscales o jueces “no serán pasibles de ser responsabilizados personalmente” en los casos en los que hayan dejado “constancia fehaciente” de haber consultado a quien les entregó el material si se utilizó IA para su generación, y la respuesta haya sido negativa. “Invocar o declarar el uso de inteligencia artificial en el proceso jurisdiccional no exime, por sí solo, de responsabilidad”, señala.
Frente a la eventualidad de que una prueba que sea “fundamento decisivo” de un fallo haya sido generada o producida con IA, propone que se agregue al Código General del Proceso la revisión de la sentencia firme. Por otro lado, hace mención a que la ley vele por la “transparencia algorítmica” y que deba facilitarse el acceso, salvo razones de secreto, reserva o confidencialidad, “aplicándose lo dispuesto para el acceso a la información pública y la protección de datos personales”. A su vez, establece que se fomente el desarrollo y adquisición de herramientas de IA “diseñadas para el uso específico” en los procesos jurisdiccionales, con la evaluación previa de su impacto y riesgos, además de establecer que los organismos que la usen promuevan instancias de capacitación específicas y periódicas en la materia.
La presidenta de la Asociación de Magistrados Fiscales, Claudia González, aseguró a Búsqueda que muchos fiscales utilizan IA para desgrabar las entrevistas con testigos, víctimas e imputados, para su uso en juicio o para contrastar versiones posteriores. Esa tarea, que antes la realizaban funcionarios administrativos, actualmente la hacen los fiscales con IA, a través de un sistema que adquirió el Ministerio Público, aunque luego deben revisar con el audio que la transcripción sea correcta.
Más allá de esa aplicación inmediata, considera que también podría servir para cruzar datos o reconstruir hechos complejos, por ejemplo, las trayectorias de las balas en homicidios, o realizar simulaciones de escenas del crimen.
En el caso del Poder Judicial, Scavone indicó que las IA generativas —es decir, las que crean contenido a partir de datos existentes— “podrían ser de gran utilidad” en “áreas auxiliares al trabajo jurisdiccional y de gestión”. Por ejemplo, en la Base de Jurisprudencia Nacional —una plataforma pública donde se pueden consultar la mayoría de las sentencias que se dictan—, al potenciar sus motores de búsqueda, también para la sistematización de datos estadísticos que permitan “tomar decisiones con mayor y mejor información”, consideró.
En los últimos años, la escuela judicial —donde se forman aspirantes a magistrados, jueces en actividad, mediadores y defensores públicos, quienes tienen la obligación de recibir una capacitación obligatoria de 20 horas anuales— ha incluido en la plantilla cursos y talleres de IA. Scavone explicó que buscan que los funcionarios conozcan los riesgos y también las oportunidades, porque puede existir un “uso individual y autónomo” de las herramientas y “los controles pueden ser más difíciles”. Este año, por ejemplo, habrá un curso para jueces penales y fiscales sobre la herramienta Shotspotter, el sistema de IA acústica del Ministerio del Interior que permite identificar, casi en forma inmediata, si un sonido se trata de un disparo de arma de fuego, cuándo se produjo y dónde. Otro de los talleres del CEJU será sobre los riesgos y las oportunidades de la IA.
La principal tecnología de IA que utiliza el Ministerio del Interior —que es auxiliar de la Fiscalía en los procesos penales— es un software que analiza los patrones de conducta de las personas a través del sistema de videovigilancia, para detectar actividades sospechosas.