El video, de baja calidad, con el fondo difuminado y el audio desfasado, despertó sospechas de haber sido generado con inteligencia artificial. Pero, según el viceministro de Régimen Interior de Bolivia, Jhonny Aguilera, el material es real en un “89,9%”.
El abogado de Marset, Santiago Moratorio, dio a entender que el video podría ser real. “No existe una sola posibilidad ni se le pasa por la cabeza en este momento la entrega a la Justicia de forma pacífica”, declaró a Telenoche.
Embed - https://publish.x.com/oembed?url=https://x.com/submundodocrime/status/1981531589696704955?s=46&partner=&hide_thread=false
Por días, muchos desconfiaron —y todavía lo hacen—. Solo hace falta leer los comentarios en las redes sociales de los medios uruguayos para comprobarlo. La situación no solo expone la dificultad para distinguir entre lo real y lo manipulado, sino también el clima de sospecha que domina el espacio digital.
Según Di Santi, entre los jóvenes predomina una tendencia a “no creer en nada” a menos que se demuestre que es verdadero. “Hoy, cuando le mostrás una imagen o un video a un joven, probablemente te responda: ‘no te creo, eso debe estar hecho con inteligencia artificial’”, afirma.
La presunción de inocencia ya no rige en el consumo de información y muchas cosas reales terminan siendo descartadas. “Todo se vuelve relativo y nada puede ser usado como una prueba”, añade Di Santi.
Agustina Pérez, abogada especializada en tecnología, advierte que esto puede tener “un impacto muy grande” en la confianza pública. “Existen riesgos democráticos y de seguridad a medida que se genera una erosión de confianza institucional —explica—. Generalmente los reguladores advierten sobre la pérdida de esa realidad compartida que se puede llegar a generar en el ámbito digital.”
Los avances en la generación de videos con IA
En abril de 2023, un video generado por inteligencia artificial del actor estadounidense Will Smith comiendo espaguetis se viralizó en las redes sociales. El video llamó la atención por su resultado grotesco: movimientos torpes, expresiones faciales distorsionadas y la desaparición repentina de elementos. Una primera puesta en escena de lo que se podía lograr con los todavía rudimentarios modelos de generación de video con IA.
Desde entonces, el prompt se convirtió en un punto de referencia informal para medir los avances de esta tecnología. Hoy, apenas dos años después, los nuevos modelos de generación de video con IA son tan realistas que resulta cada vez más difícil distinguir lo verdadero de lo sintético.
Embed - https://publish.x.com/oembed?url=https://x.com/minchoi/status/1976042197154963702&partner=&hide_thread=false
Es que la carrera para tener el modelo de IA más potente trajo consigo avances significativos en muy poco tiempo. Este año, OpenAI, Google, Meta y X lanzaron sus propios generadores de video con IA de acceso libre. Sora 2 es el lanzamiento más reciente de esta serie de herramientas, presentado a principios de octubre.
La aplicación de generación de video de Open AI alcanzó el millón de descargas en menos de cinco días, a pesar de estar disponible únicamente en Estados Unidos y Canadá. Permite crear videos de hasta 10 segundos a partir de indicaciones textuales e incluso ofrece la opción de añadir avatares personalizados con la cara del propio usuario o de cualquier otra persona. Aunque el resultado final incorpora una marca de agua, muchos usuarios ya han aprendido a eliminarla o recortarla de sus videos. Aún así, todos los vídeos de Sora también incorporan metadatos que permiten rastrear el uso de inteligencia artificial.
Un portavoz de OpenAI dijo a The New York Times que Sora es “un espacio dedicado para disfrutar de videos generados por inteligencia artificial”. Es que otro de sus grandes atractivos es su feed de videos verticales similar al de TikTok.
Para Rodrigo Meilán, vicepresidente digital enfocado en inteligencia artificial en VML, esta interfaz es uno de los grandes problemas. “Cuando escroleamos y vemos cientos de videos en un día, seguramente veamos uno que nos parezca real y en realidad sea generado con IA”, advirtió.
No se conoce con exactitud cómo funciona el algoritmo de TikTok, pero algunos estudios han intentado acercarse. Una investigación de The Washington Post, que reunió historiales de visualización de 1100 de sus lectores durante un período de seis meses, concluyó que la aplicación china fomenta un uso potencialmente adictivo. Además, se observó que la velocidad de desplazamiento entre videos aumentaba con el tiempo: los usuarios pasaban de un video a otro hasta 2,2 segundos más rápido que al inicio del estudio.
Sin embargo, Meilán también asegura que una de las formas de entrenar el ojo ante estas amenazas es exponiéndose a ellas: “Uno, después de ver mucho contenido generado por IA, empieza a encontrar determinados valores estéticos que se empiezan a repetir”.
Las pistas que delatan lo falso
Antes bastaba con mirar las manos: un dedo de más o de menos solía delatar a la inteligencia artificial. Hoy, los errores pasan más desapercibidos.
“A veces hay una inconsistencia entre cómo está iluminada una sala y cómo está iluminada la persona”, explica Rodrigo Meilán. También pueden detectarse movimientos poco naturales o miradas excesivamente fijas. “Las cuestiones más físicas de movimiento a veces son un poco extrañas. Hay miradas que resultan demasiado robóticas”, agrega.
Aunque estos detalles pueden ayudar a sospechar, el especialista advierte que lo fundamental sigue siendo el juicio humano. “Hay que ser críticos con lo que vemos”, afirma.
En este sentido, Matías Di Santi, director de medios de Chequeado, comparte una serie de pasos que se pueden seguir para verificar el contenido publicado en redes sociales.
El primer paso siempre es verificar la fuente original. “Si vemos un contenido que circula en redes, hay que tratar de identificar quién fue el primer usuario que lo publicó”, explica.
El segundo consejo tiene que ver con la verificación cruzada: buscar si algún medio legítimo publicó información sobre ese mismo material. “Si ves un video o una imagen, googleá palabras clave para comprobar si fue difundido por un sitio confiable”, sugiere Di Santi.
En tercer lugar, recomienda comprobar si el contenido aparece en cuentas oficiales y analizar quiénes lo están compartiendo. “Con el avance de la inteligencia artificial quizá llegue un punto en el que no podamos confirmar si algo es verdadero o falso, pero sí podremos identificar quiénes son las cuentas que lo difunden. Si sabemos que suelen propagar desinformación, al menos podemos advertir a las personas que tengan cuidado”, señala.
Además, Di Santi recuerda que los contenidos generados con IA suelen apelar a las emociones para que las personas compartan sin pensar.
Estamos en un momento en el que, muchas veces, la inteligencia artificial avanza más rápido que nuestra capacidad de verificación. “Con el perfeccionamiento de la inteligencia artificial, quizá en algún momento no podamos decir si un contenido es verdadero o falso”, advierte Matías Di Santi. “Pero sí podremos identificar quiénes lo difunden y advertir a las personas cuando esas cuentas suelen propagar desinformación”. Así, cuando la verificación absoluta es imposible, la mirada crítica y la observación de los patrones de difusión se convierten en la mejor defensa frente a la desinformación.