En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, tu plan tendrá un precio promocional:
* Podés cancelar el plan en el momento que lo desees
¡Hola !
En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, por los próximos tres meses tu plan tendrá un precio promocional:
* Podés cancelar el plan en el momento que lo desees
¡Hola !
El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
Uruguay se suma a advertencia internacional por imágenes íntimas no consentidas que se crean con IA
La Unidad Reguladora y de Control de Datos Personales integra una declaración de 61 países que pone el foco en los riesgos de la inteligencia artificial para la privacidad
La Unidad Reguladora y de Control de Datos Personales (URCDP) se sumó a una declaración conjunta, firmada por organismos de protección de datos de 61 países, que advierte sobre los riesgos de los sistemas de inteligencia artificial (IA) capaces de crear imágenes y videos realistas de personas sin su consentimiento.
¡Registrate gratis o inicia sesión!
Accedé a una selección de artículos gratuitos, alertas de noticias y boletines exclusivos de Búsqueda y Galería.
El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
La URCDP es el órgano de control encargado de garantizar el derecho a la protección de datos personales en el país y de actuar ante eventuales incumplimientos de la normativa vigente.
Coordinada por el Grupo de Trabajo de Cooperación Internacional para la Aplicación de la Ley de la Global Privacy Assembly, principal foro mundial de autoridades de protección de datos, la declaración advierte que “los desarrollos recientes, en particular la generación de imágenes y videos con inteligencia artificial integrada en plataformas de redes sociales ampliamente accesibles, han permitido la creación de imágenes íntimas no consensuadas, representaciones difamatorias y otro contenido dañino que presenta a individuos reales”.
Las autoridades agregaron que están “especialmente preocupadas por los posibles daños a los niños y otros grupos vulnerables, como el acoso cibernético y/o la explotación”; también describieron estos sistemas como tecnologías que plantean “riesgos significativos para la privacidad y los datos personales” y pueden causar “daños graves”.
Sin nuevo tratado, pero con marco coordinado
El documento recuerda que las herramientas de IA deben respetar las leyes vigentes y que crear imágenes íntimas sin consentimiento “puede constituir un delito en muchas jurisdicciones”.
La declaración señala que los desarrolladores y operadores de estos sistemas deben aplicar “salvaguardas robustas” para evitar el uso indebido de información personal y la elaboración de “imágenes íntimas no consentidas”, garantizar una “transparencia significativa” sobre las capacidades y límites de la IA y ofrecer mecanismos “eficaces y accesibles” para la remoción rápida de contenidos dañinos.
El caso Grok y la reacción internacional
Aunque la declaración no menciona empresas ni productos específicos, se produce en un contexto marcado por la polémica en torno a Grok, el chatbot desarrollado por xAI e integrado en la red social X, propiedad de Elon Musk.
A principios de este año, Grok fue objeto de críticas en todo el mundo por una función que permitía crear imágenes falsas de desnudos de personas reales, en algunos casos menores de edad, a partir de fotografías y permitir su difusión en redes sociales.
Indonesia fue el primer país en bloquear de manera temporal la IA de Musk para proteger a mujeres y niños. Malasia adoptó una medida similar. Luego, Australia y varios países europeos, como Alemania e Italia, expresaron su preocupación pública.
Un estudio de la ONG europea AI Forensics, que analizó 20.000 imágenes realizadas por Grok entre el 25 de diciembre y el 1° de enero, concluyó que la mitad mostraba personas parcialmente desnudas y que un 2% parecía representar a personas de 18 años o menos, según un sistema automatizado de análisis de imágenes.
Ante la presión, Grok desactivó la función de creación de imágenes para los usuarios que no pagan. Algunos organismos europeos de protección de datos consideraron la medida un “primer paso”, mientras que otros la calificaron de insuficiente y cuestionaron que la herramienta siguiera disponible por suscripción. Días después, la empresa incorporó restricciones técnicas más estrictas y bloqueó la posibilidad de utilizar ese tipo de imágenes.
Desde su lanzamiento en noviembre de 2023, Grok ha estado envuelto en polémicas por la circulación de imágenes violentas, noticias falsas y comentarios antisemitas. Su apuesta por ofrecer una IA más “permisiva” que otras del mercado la puso en el centro del debate sobre cuáles deben ser los límites y controles de estas herramientas.
Palacio-Legislativo-Anexo
Palacio Legislativo y anexo.
Javier Calverlo / adhocFOTOS
Proyecto para penalizar imágenes con IA
En Uruguay, el debate también llegó al Parlamento. En julio de 2025, el diputado colorado Gabriel Gurméndez presentó un proyecto para modificar la Ley 19.580 sobre violencia hacia las mujeres e incorporar como delito la difusión de imágenes sexuales “reales o simuladas” sin consentimiento. La iniciativa define como imágenes simuladas “aquellas que, de manera verosímil, sean creadas mediante inteligencia artificial, edición digital u otra tecnología capaz de generar una representación falsa pero creíble de la apariencia, la voz o la conducta de la persona afectada”.
La iniciativa establece penas de hasta dos años de prisión para quienes difundan este tipo de contenidos, incluso cuando la escena nunca haya ocurrido en la realidad. Tras su análisis en la Comisión Especial de Equidad y Género, el texto fue aprobado por unanimidad en Diputados a fines de diciembre y ahora pasó al Senado para su discusión.
El impulso legislativo se aceleró tras un caso ocurrido en noviembre en un liceo de Médanos de Solymar, donde un estudiante utilizó fotos de compañeras para producir contenido sexual con IA, en línea con situaciones similares registradas en otros países. A partir de ese episodio, la diputada nacionalista Roxana Berois presentó un proyecto que tipifica como delito la difusión contra la voluntad de la persona afectada de imágenes íntimas, reales o creadas con IA, con penas de 24 meses de prisión a tres años de penitenciaría, aun cuando no exista intención explícita de dañar.
¿Qué dice la autoridad uruguaya?
Consultada a través de un pedido de acceso a la información pública, la URCDP indicó a Búsqueda que “no ha realizado específicamente análisis, evaluaciones técnicas o jurídicas ni ha monitoreado el uso de herramientas de inteligencia artificial generativa para la creación de deepfakes; tampoco ha recibido planteamiento alguno al respecto”.
La unidad señaló, sin embargo, que el uso de imágenes o fotografías en sistemas de IA puede encuadrarse dentro del tratamiento de datos personales previsto en la legislación uruguaya. En su respuesta recordó que la ley define tratamiento como “operaciones y procedimientos sistemáticos, de carácter automatizado o no, que permitan el procesamiento de datos personales”, por lo que “la utilización de imágenes queda comprendida dentro de la citada definición y debe aplicarse toda la normativa vigente en la materia”.
Sobre el carácter de estos contenidos, la URCDP indicó que la calificación jurídica depende del caso concreto. Según explicó, es necesario analizar cada situación para determinar si existe tratamiento de datos personales o incluso de datos sensibles, categoría que la ley reserva para información especialmente protegida. La normativa considera datos sensibles aquellos que revelan “origen racial o étnico, preferencias políticas o convicciones religiosas o morales, afiliación sindical e información referente a la salud o a la vida sexual”.
Consultada por los casos que involucren a menores, la URCDP indicó que en la actualidad no existen protocolos específicos para deepfakes, pero mencionó que la normativa vigente reconoce a niñas, niños y adolescentes como “una población vulnerable”. En ese sentido, señaló que el artículo 6 del decreto 64/020 establece medidas específicas para estos casos, como la realización de “evaluaciones de impacto en forma previa al tratamiento de sus datos personales”.
El organismo también indicó que las personas que consideren vulnerado su derecho a la protección de datos pueden presentar denuncias ante la URCDP, que tiene facultades para intervenir y ordenar medidas correctivas en caso de incumplimiento de la normativa.