• Cotizaciones
    domingo 02 de noviembre de 2025

    ¡Hola !

    En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, tu plan tendrá un precio promocional:
    $ Al año*
    En caso de que tengas dudas o consultas podés escribir a [email protected] o contactarte por WhatsApp acá
    * Podés cancelar el plan en el momento que lo desees

    ¡Hola !

    En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, por los próximos tres meses tu plan tendrá un precio promocional:
    $ por 3 meses*
    En caso de que tengas dudas o consultas podés escribir a [email protected] o contactarte por WhatsApp acá
    * A partir del cuarto mes por al mes. Podés cancelar el plan en el momento que lo desees
    stopper description + stopper description

    Tu aporte contribuye a la Búsqueda de la verdad

    Suscribite ahora y obtené acceso ilimitado a los contenidos de Búsqueda y Galería.

    Suscribite a Búsqueda
    DESDE

    UYU

    299

    /mes*

    * Podés cancelar el plan en el momento que lo desees

    ¡Hola !

    El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
    En caso de que tengas dudas o consultas podés escribir a [email protected] o contactarte por WhatsApp acá

    Ver y no creer: la desconfianza crece a la par de la inteligencia artificial en las redes

    La difusión de un supuesto video de Sebastián Marset puso en evidencia un nuevo fenómeno: con el avance de la inteligencia artificial, cada vez más usuarios dudan de todo lo que ven en redes sociales, incluso cuando es real

    En la última semana circuló en redes sociales y portales de noticias de la región un video en el que aparece el narcotraficante uruguayo Sebastián Marset rodeado de hombres encapuchados y armados en el que le habla directo a la cámara y amenaza con “hacer guerra con el que sea”.

    El video, de baja calidad, con el fondo difuminado y el audio desfasado, despertó sospechas de haber sido generado con inteligencia artificial. Pero, según el viceministro de Régimen Interior de Bolivia, Jhonny Aguilera, el material es real en un “89,9%”.

    El porcentaje puede sonar impreciso, pero en realidad refleja una limitación técnica: no existen herramientas capaces de determinar con 100% de certeza si un contenido fue generado con inteligencia artificial o no.

    “Hoy por hoy no hay ninguna herramienta que tenga una efectividad del 100%”, explica Matías Di Santi, director de medios de Chequeado (Argentina). “La mayoría de las herramientas dan probabilidad”.

    El abogado de Marset, Santiago Moratorio, dio a entender que el video podría ser real. “No existe una sola posibilidad ni se le pasa por la cabeza en este momento la entrega a la Justicia de forma pacífica”, declaró a Telenoche.

    Embed - https://publish.x.com/oembed?url=https://x.com/submundodocrime/status/1981531589696704955?s=46&partner=&hide_thread=false

    Por días, muchos desconfiaron —y todavía lo hacen—. Solo hace falta leer los comentarios en las redes sociales de los medios uruguayos para comprobarlo. La situación no solo expone la dificultad para distinguir entre lo real y lo manipulado, sino también el clima de sospecha que domina el espacio digital.

    Según Di Santi, entre los jóvenes predomina una tendencia a “no creer en nada” a menos que se demuestre que es verdadero. “Hoy, cuando le mostrás una imagen o un video a un joven, probablemente te responda: ‘no te creo, eso debe estar hecho con inteligencia artificial’”, afirma.

    La presunción de inocencia ya no rige en el consumo de información y muchas cosas reales terminan siendo descartadas. “Todo se vuelve relativo y nada puede ser usado como una prueba”, añade Di Santi.

    Agustina Pérez, abogada especializada en tecnología, advierte que esto puede tener “un impacto muy grande” en la confianza pública. “Existen riesgos democráticos y de seguridad a medida que se genera una erosión de confianza institucional —explica—. Generalmente los reguladores advierten sobre la pérdida de esa realidad compartida que se puede llegar a generar en el ámbito digital.”

    Los avances en la generación de videos con IA

    En abril de 2023, un video generado por inteligencia artificial del actor estadounidense Will Smith comiendo espaguetis se viralizó en las redes sociales. El video llamó la atención por su resultado grotesco: movimientos torpes, expresiones faciales distorsionadas y la desaparición repentina de elementos. Una primera puesta en escena de lo que se podía lograr con los todavía rudimentarios modelos de generación de video con IA.

    Desde entonces, el prompt se convirtió en un punto de referencia informal para medir los avances de esta tecnología. Hoy, apenas dos años después, los nuevos modelos de generación de video con IA son tan realistas que resulta cada vez más difícil distinguir lo verdadero de lo sintético.

    Embed - https://publish.x.com/oembed?url=https://x.com/minchoi/status/1976042197154963702&partner=&hide_thread=false

    Es que la carrera para tener el modelo de IA más potente trajo consigo avances significativos en muy poco tiempo. Este año, OpenAI, Google, Meta y X lanzaron sus propios generadores de video con IA de acceso libre. Sora 2 es el lanzamiento más reciente de esta serie de herramientas, presentado a principios de octubre.

    La aplicación de generación de video de Open AI alcanzó el millón de descargas en menos de cinco días, a pesar de estar disponible únicamente en Estados Unidos y Canadá. Permite crear videos de hasta 10 segundos a partir de indicaciones textuales e incluso ofrece la opción de añadir avatares personalizados con la cara del propio usuario o de cualquier otra persona. Aunque el resultado final incorpora una marca de agua, muchos usuarios ya han aprendido a eliminarla o recortarla de sus videos. Aún así, todos los vídeos de Sora también incorporan metadatos que permiten rastrear el uso de inteligencia artificial.

    Un portavoz de OpenAI dijo a The New York Times que Sora es “un espacio dedicado para disfrutar de videos generados por inteligencia artificial”. Es que otro de sus grandes atractivos es su feed de videos verticales similar al de TikTok.

    Para Rodrigo Meilán, vicepresidente digital enfocado en inteligencia artificial en VML, esta interfaz es uno de los grandes problemas. “Cuando escroleamos y vemos cientos de videos en un día, seguramente veamos uno que nos parezca real y en realidad sea generado con IA”, advirtió.

    No se conoce con exactitud cómo funciona el algoritmo de TikTok, pero algunos estudios han intentado acercarse. Una investigación de The Washington Post, que reunió historiales de visualización de 1100 de sus lectores durante un período de seis meses, concluyó que la aplicación china fomenta un uso potencialmente adictivo. Además, se observó que la velocidad de desplazamiento entre videos aumentaba con el tiempo: los usuarios pasaban de un video a otro hasta 2,2 segundos más rápido que al inicio del estudio.

    Sin embargo, Meilán también asegura que una de las formas de entrenar el ojo ante estas amenazas es exponiéndose a ellas: “Uno, después de ver mucho contenido generado por IA, empieza a encontrar determinados valores estéticos que se empiezan a repetir”.

    Las pistas que delatan lo falso

    Antes bastaba con mirar las manos: un dedo de más o de menos solía delatar a la inteligencia artificial. Hoy, los errores pasan más desapercibidos.

    “A veces hay una inconsistencia entre cómo está iluminada una sala y cómo está iluminada la persona”, explica Rodrigo Meilán. También pueden detectarse movimientos poco naturales o miradas excesivamente fijas. “Las cuestiones más físicas de movimiento a veces son un poco extrañas. Hay miradas que resultan demasiado robóticas”, agrega.

    Aunque estos detalles pueden ayudar a sospechar, el especialista advierte que lo fundamental sigue siendo el juicio humano. “Hay que ser críticos con lo que vemos”, afirma.

    En este sentido, Matías Di Santi, director de medios de Chequeado, comparte una serie de pasos que se pueden seguir para verificar el contenido publicado en redes sociales.

    El primer paso siempre es verificar la fuente original. “Si vemos un contenido que circula en redes, hay que tratar de identificar quién fue el primer usuario que lo publicó”, explica.

    El segundo consejo tiene que ver con la verificación cruzada: buscar si algún medio legítimo publicó información sobre ese mismo material. “Si ves un video o una imagen, googleá palabras clave para comprobar si fue difundido por un sitio confiable”, sugiere Di Santi.

    En tercer lugar, recomienda comprobar si el contenido aparece en cuentas oficiales y analizar quiénes lo están compartiendo. “Con el avance de la inteligencia artificial quizá llegue un punto en el que no podamos confirmar si algo es verdadero o falso, pero sí podremos identificar quiénes son las cuentas que lo difunden. Si sabemos que suelen propagar desinformación, al menos podemos advertir a las personas que tengan cuidado”, señala.

    Además, Di Santi recuerda que los contenidos generados con IA suelen apelar a las emociones para que las personas compartan sin pensar.

    Estamos en un momento en el que, muchas veces, la inteligencia artificial avanza más rápido que nuestra capacidad de verificación. “Con el perfeccionamiento de la inteligencia artificial, quizá en algún momento no podamos decir si un contenido es verdadero o falso”, advierte Matías Di Santi. “Pero sí podremos identificar quiénes lo difunden y advertir a las personas cuando esas cuentas suelen propagar desinformación”. Así, cuando la verificación absoluta es imposible, la mirada crítica y la observación de los patrones de difusión se convierten en la mejor defensa frente a la desinformación.