En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, tu plan tendrá un precio promocional:
* Podés cancelar el plan en el momento que lo desees
¡Hola !
En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, por los próximos tres meses tu plan tendrá un precio promocional:
* Podés cancelar el plan en el momento que lo desees
¡Hola !
El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
Un caso en Médanos de Solymar reabre el debate sobre los ‘deepfakes’ sexuales y la necesidad de una ley para penalizarlos
Un estudiante de Ciudad de la Costa fue denunciado por crear imágenes sexuales falsas de compañeras con IA, al tiempo que el Parlamento tiene en estudio proyectos para penalizar ese mismo delito
El caso estalló en redes antes que en el propio liceo. Las familias de varias alumnas del liceo de Médanos de Solymar se enteraron por mensajes y publicaciones que un estudiante había utilizado inteligencia artificial (IA) para crear videos y fotos sexuales falsos a partir de imágenes de sus compañeras. El alumno fue suspendido, según informó Telenoche, mientras las autoridades intentan determinar qué ocurrió y cómo continuar.
¡Registrate gratis o inicia sesión!
Accedé a una selección de artículos gratuitos, alertas de noticias y boletines exclusivos de Búsqueda y Galería.
El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
La familia de una de las alumnas presentó denuncia policial. Una madre relató al informativo que “los estudiantes se enteraron de que un alumno de octavo realiza, por medio de imágenes de compañeras, videos y fotos pornográficos usando inteligencia artificial”. El hecho ocurrió el jueves pasado y se hizo público este lunes.
El alumno fue citado al Consejo Asesor Pedagógico, deberá asistir con sus padres y será evaluado por un psicólogo del Departamento Integral del Estudiante. Desde Secundaria dijeron a El País que el caso se trabajará en el centro educativo, junto con la Comisión de Educación Sexual, la Comisión de Participación y la Policía Comunitaria, en espacios dedicados a hablar sobre comunicación, IA y uso responsable de redes sociales.
La situación que se dio en Médanos de Solymar puso en la agenda pública un tema que el Parlamento tiene en análisis. Dos proyectos de ley en la Cámara de Diputados buscan atender esta problemática.
Un problema que dejó de ser lejano
El caso de Médanos de Solymar no es aislado y aparece justo cuando el Parlamento discute cómo enfrentar estas prácticas. La diputada del Partido Nacional Roxana Berois presentó recientemente un proyecto de ley que busca penalizar la difusión de imágenes íntimas, reales o generadas con IA, sin consentimiento.
La propuesta crea un nuevo delito: “distribución, publicación o difusión de imágenes íntimas, sexuales o explícitas, incluyendo aquellas generadas mediante inteligencia artificial o medios digitales, sin el consentimiento de la persona afectada”, con penas que van de 24 meses de prisión a 3 años de penitenciaría, incluso si quien lo difundió no tuvo intención explícita de dañar.
La definición abarca “fotografías o grabaciones reales, contenido sintético o manipulado mediante inteligencia artificial, incluyendo deepfakes y reconstrucciones digitales de la apariencia de una persona”. La condición es que la persona sea identificable y no haya autorizado la difusión.
El proyecto prevé situaciones de mayor gravedad: cuando las imágenes involucren a menores, exista intención de humillar o acosar, haya amenazas de difusión o cuando el agresor sea, o haya sido, pareja de la víctima.
Parlamento
Palacio Legislativo.
Nicolás Celaya / adhocFOTOS
Violencia sexual basada en imágenes
La exposición de motivos del proyecto subraya que los avances en IA generan oportunidades, pero también “serios riesgos para los derechos humanos”. Según el texto, hoy cualquier persona, incluso sin conocimientos técnicos, puede crear imágenes, videos o audios manipulados “simplemente describiendo el resultado deseado”, lo que habilita la producción de contenido sexual falso a partir de una sola foto.
En ese contexto, el proyecto advierte que los deepfakes se han convertido en “una forma de violencia sexual basada en imágenes”, capaz de simular que alguien hizo o dijo algo que nunca ocurrió. Esta tecnología, señala, “afecta desproporcionalmente a las mujeres y niñas, especialmente a quienes cumplen roles públicos”, comprometiendo su seguridad e “incluso la participación social y democrática”.
Aunque la mayoría de las víctimas son mujeres, el proyecto aclara que “también los varones son víctimas de esta situación”. Y agrega que el fenómeno crece a escala internacional con tanta rapidez que “diversas decisiones legislativas” ya avanzaron en otros países para establecer normas “disuasorias y punitivas”.
Finalmente, el documento insiste en que no se trata de un problema lejano, sino urgente. “El abuso de estas herramientas puede tener consecuencias devastadoras, incluso mortales”, advierte.
La iniciativa también dispone obligaciones para las grandes plataformas. Les exige mecanismos de denuncia rápidos, la remoción del material en un máximo de 48 horas y la publicación de políticas claras sobre cómo actúan ante estos casos. El incumplimiento podría derivar en “sanciones de carácter civil o penal, si correspondiere”.
“Deepfake es horrible y cualquiera puede hacerlo”
Para Berois, el problema creció porque la tecnología se volvió accesible. “Deepfake es algo horrible, y lo peor es la facilidad de uso. Antes había que saber diseñar o manejar software complejo. Hoy, con un celular y conocimientos básicos, cualquiera puede hacerlo”, dijo a Búsqueda. Incluso, explicó, en muchos casos la herramienta termina usándose “con fines domésticos, extorsivos y claramente dañinos”.
La diputada subrayó que el 96% de las víctimas de estos abusos son mujeres, y que el daño que produce esta práctica es “a perpetuidad”. “Borrar contenido de las redes es prácticamente imposible. No sabés cuándo termina. Capaz ni siquiera termina en tu generación”, afirmó, insistiendo en que Uruguay todavía no dimensiona este fenómeno como una amenaza real.
Además, llamó la atención sobre el componente económico. “Esto también es un negocio. En Estados Unidos hay personas dedicadas exclusivamente a crear este tipo de contenido y ganan US$ 20.000 por mes”, dijo. Por eso cree que la existencia de penas claras puede tener un efecto disuasorio: “Si alguien ve que le puede caer esta pena, lo piensa un poco más”.
Pese a que el tema también se vincula con asuntos tecnológicos, el proyecto fue asignado a la Comisión de Constitución, Códigos, Legislación General y Administración de Diputados. Para Berois, eso no cambia la urgencia del debate: “Cualquier persona puede ocasionarle daño a otra con poca cosa. Tenemos que visualizarlo como sociedad”.
Gurméndez también apunta contra los deepfakes
En julio, el diputado colorado Gabriel Gurméndez presentó un proyecto para modificar la Ley de Violencia hacia las Mujeres (Nº 19.580) e incluir como delito la difusión de imágenes sexuales “reales o simuladas” sin consentimiento.
La iniciativa busca castigar con hasta dos años de prisión a quienes difundan contenido íntimo creado con IA que represente falsamente a una persona, incluso si nunca existió en la realidad.
Tras su análisis en la Comisión Especial de Equidad y Género, el proyecto fue aprobado por unanimidad y ahora pasará al plenario para su votación en la Cámara de Representantes.
Las dos iniciativas avanzan en la misma dirección y buscan establecer un marco mínimo para el uso de IA.