A comienzos de siglo, internet se mostraba como un espacio “soñado” de conversación común “en igualdad de condiciones, sin censura, sin control estatal y sin que sean los medios los que filtren los discursos”, recuerda Botero.
“Y entonces llegaron Cambridge Analytica, la desinformación durante el Brexit, (el genocidio de los rohinyás en) Myanmar, el plebiscito en Colombia, la desinformación sobre salud pública” y ese optimismo se fue esfumando a medida que las redes mostraban otra cara: su enorme capacidad de desinformar.
A pesar de su “potencial democratizador”, las plataformas vienen acompañadas de problemas que atentan contra la “integridad democrática”, señaló la abogada.
Botero copresidió en 2020 y fines del 2024 la Junta de Supervisión (Oversight Board) de Facebook, un organismo independiente integrado por abogados, activistas por los derechos humanos y figuras internacionales para monitorear los contenidos y las políticas de la plataforma. Abandonó ese cargo meses antes de que Meta —dueña de Facebook, Instagram y WhatsApp— modificara de manera radical su política de combate a la desinformación y quedara alineada al gobierno de Donald Trump.
“Eso no significa que no siga creyendo que las redes sociales tienen un valor sustancial y que la conversación y la información pueden circular en esas plataformas”, explicó Botero, y llamó a los gobiernos a “proteger las condiciones que permiten que internet se convierta en ese lugar de conversación común“.
“Esas condiciones se refieren a una internet abierta, descentralizada, desconcentrada, es decir, lo que hacía que tuviéramos ese enorme optimismo digital”, enfatizó.
Los factores para definir la desinformación
Las mentiras, la manipulación o las estafas no son fenómenos nuevos ni se limitan a la esfera digital. No obstante, los avances tecnológicos y los sistemas de distribución de las plataformas agregaron nuevas dimensiones al problema. En ese marco, a Botero le preocupan dos temas en particular: la desinformación y la salud mental de niños y adolescentes.
Durante su exposición, la abogada colombiana llamó a que la regulación del trabajo de las plataformas debe apuntar contra la desinformación que es generada a gran escala y como fenómeno estructural. Para esto, resumió los ocho factores que diferencian la desinformación “del simple hecho de que alguien diga mentiras en internet”.
La desinformación “es un tipo de información que está producida con la intención de engañar a las personas o por lo menos hacer que se rompa la confianza en las instituciones tradicionales del conocimiento”, explicó. La desinformación constituye también una “violación de los derechos políticos” de los electores. “Hay una lista de derechos fundamentales que se encuentran directamente afectados por este tipo de campañas”.
Asimismo, los promotores de desinformación hoy tienen aliados a la hora de difundir mentiras: la inteligencia artificial (IA), el uso masivo de datos y las plataformas digitales. “Las plataformas nos conocen mejor de lo que nosotros nos conocemos a nosotros mismos. Tienen centenares de categorías para hacer nuestros perfiles”, alertó Botero. Esta segmentación de los usuarios permite que la publicidad y la desinformación “lleguen hasta el corazón” de los usuarios. Los algoritmos permiten hiperpersonalizar los mensajes que, en una primera instancia, llegan a través de contenidos que se consumen en redes sociales.
Pero el contacto con los usuarios no se limita solo a la información que reciben al abrir sus feeds o páginas principales, sino que se cuela hasta en las interacciones y en los mensajes directos que tienen con otros usuarios en línea.
Los bots, impulsados por IA, están diseñados “no solamente para que actúen como personas, sino para que interactúen con nosotros como personas humanas”, alertó Botero. Estos robots programados para la desinformación pueden enviar mensajes directos “para despertar nuestra empatía como si fueran personas”.
La segmentación en redes sociales, que permite filtrar y dar a los usuarios contenidos de interés, también las han transformado en “cámaras de eco”: un espacio cerrado donde la información se repite y solo se escucha lo que uno ya piensa. Quienes propagan desinformación usan este efecto de burbujas y lo refuerzan al trabajar con mensajes personalizados y directos, aislando a los usuarios entre ellos. En consecuencia, “la gente pierde lo más hermoso de la inteligencia humana, que es la capacidad de comprender a la persona que piensa distinto, contraargumentar, enriquecerse y cambiar de opinión”, concluyó Botero.
Catalina Botero
Catalina Botero en la ronda de preguntas luego de su presentación en el simposio
Valentina Weikert
¿Quién regula las plataformas y el uso de IA?
La académica colombiana abandonó Meta justo antes del cambio de política. Durante su paso por la compañía, trabajó con un “equipo absolutamente comprometido”, recordó. “El equipo de América Latina y el equipo de Brasil se peleaban con San Francisco para tener mecanismos robustos de control de la desinformación en Brasil”.
Botero señaló que el “problema” son los “dueños” de las plataformas. Para la abogada, la compra de X (la extinta Twitter) por parte del multimillonario Elon Musk fue un punto de quiebre.
“La autorregulación es insuficiente. De hecho, cerré mi cuenta en Twitter. Cerré mi cuenta inmediatamente”, expresó. “Lo que habría que hacer es presionar a las plataformas para que inviertan suficientes recursos, que los tienen, en cumplir con obligaciones”.
A lo largo del simposio, que tuvo lugar entre el 4 y 5 de agosto en la Universidad Católica, varios de los expositores hablaron sobre los distintos mecanismos de regulación que están en curso.
El pasado sábado 2 de agosto, entraron en vigencia nuevas reglas de transparencia de la Unión Europea para los modelos de IA generativa, enmarcados dentro de la ley de IA (AI Act) aprobada a principios de 2024 y que se irá desplegando de forma progresiva hasta 2027.
Botero recomendó a los países de Latinoamérica a tomar nota, acogerse a la Alianza Europea de Defensa de Derechos Digitales y trabajar en conjunto. Entre los puntos a legislar, recomendó fortalecer la protección de los datos personales y obligar a las plataformas a etiquetar los contenidos creados con IA y bots.
“No estamos hablando de desproteger los discursos”, puntualizó. “Todos los países tienen leyes contra la publicidad engañosa en materia comercial y eso a nadie le parece grave. Hay que combatir los mecanismos que hacen que esa desinformación se amplifique” en redes sociales.
Botero insistió en que el problema no es que una persona mienta en internet y que la regulación no debe apuntar al contenido, sino a los mecanismos. “Importa la campaña articulada”, agregó. La decisión, entonces, es ver cómo regular de la mejor manera para afectar lo menos posible el debate público online.
Es posible, reconoció la exrelatora, que al establecer mecanismos de regulación haya contenido legítimo que sea bajado por las plataformas. Para mitigar ese daño colateral, deberían establecerse mecanismos de “debido proceso robustos” para que la persona afectada pueda reclamar y que le vuelvan a subir el contenido. La pregunta de fondo, añadió, es “¿cuál es el error con el que podemos vivir?”. Y agregó: “En algunos temas tenemos que vivir con el error de que haya más información circulando, estoy de acuerdo; pero hay otros temas que tienen que ver, por ejemplo, con la vacunación de niños y de niñas (en los) que yo creo que tendríamos que preferir la contraria, es decir, que bajen contenido legítimo y que esa gente tenga derecho a reclamar y se lo vuelvan a subir”.