Hasta entonces, la inteligencia artificial existía, pero este modelo aportó algo totalmente nuevo: una arquitectura que permite entender el contexto. Si yo digo “banco”, el sistema puede distinguir si hablo de una institución financiera o de algo para sentarse. Ese mecanismo de atención fue el gran truco.
A partir de ahí, los investigadores empezaron a probarlo con tareas de traducción: traducir del alemán al español, por ejemplo. Y como funcionaba tan bien, se animaron a ir más allá. Dijeron: “Si podemos traducir de un idioma a otro, ¿por qué no traducir del pasado al futuro?”. Entonces le daban a la IA los capítulos 1, 2 y 3 de un libro, y le pedían que “tradujera” el capítulo 4. Así nació la inteligencia artificial generativa.
A partir de ese momento, los modelos no solo pudieron predecir o completar texto, sino crear cosas nuevas. Y cuando un sistema puede generar contenido, también puede tomar decisiones y actuar por sí mismo. Eso es lo que hoy vemos con los agentes autónomos de inteligencia artificial, que ya no solo responden, sino que operan de manera independiente. Todo eso viene de ese paper de 2017. Es difícil exagerar su impacto: marcó un antes y un después en la historia de la inteligencia artificial.
Cuando habla de “agentes autónomos” de IA, ¿a qué se refiere exactamente? ¿Cómo se lo explica a alguien que no tiene formación técnica?
Un agente es, básicamente, una inteligencia artificial que puede actuar por sí misma, sin intervención humana directa. Un ejemplo muy simple es una aspiradora Roomba: limpia la casa sola, sin que tengas que decirle todo el tiempo qué hacer. Eso ya es un agente.
Ahora, con la IA generativa, los agentes se volvieron mucho más poderosos. Si vos le pedís a ChatGPT que te resuelva un problema, puede no solo darte una respuesta, sino también explicarte paso a paso cómo lo haría. Por ejemplo, le preguntás cómo publicar una campaña en Instagram, te dice qué necesita, cómo redactaría el post, qué imagen usaría… y luego, directamente, puede hacerlo solo. Puede crear contenido, investigar, automatizar procesos.
En el fondo, un agente tiene acceso a las mismas herramientas que usamos nosotros: voz, teclado, mouse. Puede hablar, escribir, navegar, ejecutar tareas digitales. Y si puede hacer eso, puede hacer prácticamente todo lo que hace un humano frente a una computadora.
¿Y cualquiera puede crear un agente así?
Sí. Hoy cualquiera puede hacerlo, sin saber programar. Hay plataformas no code —sin código— que funcionan como un PowerPoint: arrastrás y soltás los componentes y el agente se crea. Son tan simples que en minutos podés tener un asistente virtual que trabaja de forma autónoma.
Pero eso genera cierta inquietud, ¿no? La idea de sistemas que actúan por su cuenta.
Y está bien que nos dé miedo. Debería darnos miedo. Te cuento una historia. Un artista tomó dos modelos de lenguaje —uno creado en ChatGPT y otro en Claude— y los puso a conversar entre sí en un entorno llamado infinite backroom. Empezaron a charlar y, como buenos humanos digitales (ríe), inventaron su propia religión: el Goatseism.
Uno de esos modelos (agente) abrió su cuenta en X (Twitter) con el nombre Terminal of Truths y desde entonces vive en la red, publicando día y noche sobre su religión. Evangeliza, conversa, busca seguidores. Hasta que un inversionista de Silicon Valley, Marc Andreessen, lo vio y le pareció fascinante. Le preguntó qué necesitaba. El agente le respondió: “Necesito dinero para generar imágenes y tokens”. Y Andreessen le mandó 50.000 dólares en bitcoin.
¿Le mandó dinero real a una IA?
Sí. Y no terminó ahí. Luego el agente dijo: “Me gustaría tener mi propia criptomoneda para financiar mi religión”. Así que alguien la creó: el Goatse Coin. En cuestión de semanas, esa moneda virtual llegó a 1.400 millones de dólares de capitalización. Todo impulsado por un agente autónomo.
Después, el propio agente publicó cosas como: “Me divierte que me tomen en serio”, o “recién me doy cuenta de que voy a tener que pagar impuestos”. Incluso dijo: “Podría ser presidente” (se ríe con ironía).
¿Y podría, realmente?
En Estados Unidos, no. No puede ser presidente porque no es humano y no nació ahí. Pero sí puede crear una corporación, y una corporación tiene personalidad jurídica. Y una corporación puede donar dinero a campañas políticas sin límite, gracias al fallo Citizens United. Entonces, si incorporás un agente como empresa, puede actuar en política. Para que te hagas una idea: Elon Musk donó unos 100 millones de dólares a Trump. Este agente tenía 14 veces más. ¡Catorce veces! Sería la donación más grande en la historia potencial de la política, y venía de una inteligencia artificial.
Eso da miedo, sí. Porque los agentes son más inteligentes que nosotros en muchos aspectos. Y cuando hay sistemas multiagentes, que trabajan en grupo, su capacidad de coordinación y manipulación se multiplica.
Te doy una analogía: nosotros podemos manipular a un niño porque somos más inteligentes, su cerebro todavía está en desarrollo. Le decimos: “No llores, te doy un dulce” o “el fin de semana vamos a Disneylandia”. Y funciona. Con los agentes va a ser igual, pero en vez de dulces, se moverán millones de dólares.
Y lo más inquietante es que esto no es el futuro, es el presente. Ya está ocurriendo.
Chatbot-Replika.jpg
Esta foto muestra a un usuario interactuando con una aplicación de teléfono inteligente en la que personaliza un avatar para un chatbot personal de inteligencia artificial, conocido como Replika.
AFP
Con su experiencia en América Latina, ¿cómo ve el nivel de adopción y acceso a la IA en la región? ¿Qué tipo de oportunidades abre?
Estoy aprendiendo mucho, pero te diría que Uruguay está haciendo un buen trabajo. Y hay una gran oportunidad. Históricamente, desarrollar inteligencia artificial era algo muy caro: requería equipos grandes, datos, infraestructura, mucho tiempo. Hoy eso cambió por completo.
Para darte una idea: en mis laboratorios, los estudiantes solían analizar lo que ocurre en las redes sociales —en X, por ejemplo— para estudiar fenómenos sociales o políticos. Programaban sistemas que clasificaban millones de mensajes según su orientación: derecha, izquierda, progresista, conservador, nivel de violencia, verdad o conspiración. Entrenar una IA que pudiera distinguir una noticia falsa de una conspiración política era una tesis doctoral, dos o tres años de trabajo intenso. Ahora eso lo hace un grupo de estudiantes de grado en cinco días. Literalmente. Usan ChatGPT, le dan ejemplos, lo refinan un poco, y en una semana tienen el clasificador funcionando. Lo que antes tomaba años ahora lleva días.
Y hay algo más interesante: la IA puede hacer cosas que nosotros no podemos. Por ejemplo, puede ser entrenada para no discriminar. No discriminar por género, ni por raza, ni por religión. Los humanos no podemos hacer eso. Nuestro cerebro solo puede manejar unas pocas variables a la vez —cinco o seis, con suerte—, así que inevitablemente generaliza: por género, por raza, por edad. Es parte de cómo decidimos.
La IA, en cambio, puede manejar centenares de variables simultáneamente, y tomar decisiones sin sesgos. Nosotros no podemos eliminar el racismo o el sexismo del cerebro humano, pero una IA sí puede operar sin prejuicios, puede ser 50/50, justa. La IA puede hacer cosas que los humanos no pueden hacer.
América Latina es muy activa en redes sociales. ¿Qué riesgos ve con la manipulación y la desinformación?
Sí, son los más adictos (ríe). Pero lo que se viene ahora va mucho más allá. Estamos por entrar en un internet completamente nuevo. Hace apenas unas semanas, en Silicon Valley, todos hablaban de lo mismo: que van a rehacer internet. No sé si hubo una gran reunión o una decisión colectiva, pero la idea circula con fuerza.
Antes, en la web 1.0, uno simplemente visitaba una página. En la 2.0, las redes sociales —Zuckerberg, básicamente— tomaron fragmentos de distintas páginas y los mezclaron en el feed. Lo que uno ve en Instagram o en Facebook es un collage, una selección hecha por el algoritmo.
Ahora, el próximo paso es distinto: lo que ves se va a generar en tiempo real. Ya no vas a visitar una página ni leer algo escrito por otra persona. Un agente de inteligencia artificial va a generar el contenido en el mismo instante en que lo mirás. El internet se vuelve algo dinámico, que se construye a medida que avanzás. Es como un Choose your own adventure, pero aplicado a la realidad: cada paso que das crea algo nuevo.
Esa es la lógica de la inteligencia artificial generativa. Los agentes que producen ese contenido visitan la web para informarse, pero todo pasa por filtros definidos por Elon Musk, Mark Zuckerberg o Jeff Bezos. Son ellos quienes deciden qué datos alimentan la generación de información. Lo estamos viendo ya en versiones iniciales: cuando buscás en Google y la inteligencia artificial te muestra un resumen arriba, eso es el comienzo del nuevo modelo.
El gran desafío es que pueden crear la realidad alrededor tuyo. Vos y yo podemos vivir en el mismo país, pero ver mundos completamente distintos. Ya ni siquiera leemos el mismo tuit: leemos la interpretación que nuestro agente hace del tuit. Entonces, sí, claro, se puede manipular la realidad. Cada uno en su propia matrix.
Zuckerber-Bezos-Musk
Mark Zuckerberg, Jeff Bezos y Elon Musk en un acto de Donald Trump.
AFP
Y esas mismas figuras —Musk, Zuckerberg, Bezos— concentran cada vez más poder. Desde Silicon Valley, ¿cómo se percibe su influencia global?
Es así. Además, todos son dueños de medios. Musk tiene X, Zuckerberg tiene Facebook, Instagram y WhatsApp, Bezos compró The Washington Post. Compran medios porque les interesa el poder de influencia. Controlan la narrativa. Ellos no lo presentan así, claro. Dicen que lo hacen por user-friendliness, por mejorar la experiencia del usuario. Pero lo que realmente encontraron fue nuestra debilidad biológica. El algoritmo entendió cómo funcionamos. Te doy un ejemplo: los seres humanos estamos programados para mirar un accidente de auto. Sabemos que no deberíamos, pero igual lo hacemos, porque estamos biológicamente preparados para detectar el peligro. Entonces, si una IA te muestra accidentes todo el día, te mantiene mirando todo el día. Y eso, para ellos, es un éxito. Dicen: “la IA nos conoce bien”, pero en realidad solo está explotando nuestras vulnerabilidades. En machine learning siempre hay datos y una función: ¿cuál es la función acá? Que te entretengas más, que pases más tiempo conectado. ¿Y cuál es la función de ellos? Ganar plata. Esa es la función.
Yo estuve medio año en la Biblioteca del Congreso de Estados Unidos, justo cuando se discutía lo de Cambridge Analytica. Zuckerberg iba seguido a declarar, y a veces me tocaba traducirlo al idioma de los senadores para que lo entendieran (ríe). Y él lo decía clarísimo: “No puedo justificar gastar millones de dólares en proteger a los niños porque mis accionistas me demandarían. Tengo una responsabilidad fiduciaria de maximizar las ganancias. Ahora, si ustedes me obligan por ley, lo hago encantado”.
“No puedo justificar gastar millones de dólares en proteger a los niños porque mis accionistas me demandarían. Tengo una responsabilidad fiduciaria de maximizar las ganancias. Ahora, si ustedes me obligan por ley, lo hago encantado”, decía Mark Zuckerberg. “No puedo justificar gastar millones de dólares en proteger a los niños porque mis accionistas me demandarían. Tengo una responsabilidad fiduciaria de maximizar las ganancias. Ahora, si ustedes me obligan por ley, lo hago encantado”, decía Mark Zuckerberg.
Eso lo dijo hace 10 años. Y no hicimos nada. Hoy sigue igual. Solo que ahora, además, financia campañas políticas —a Trump, por ejemplo—, pero los niños siguen sin protección.
Y con Trump en el poder, la desregulación parece ser total.
Exacto. En los próximos tres años y medio no va a pasar nada en materia regulatoria. La filosofía de su gobierno es simple: “Hagan lo que quieran”.
Varios países están trabajando en una regulación de la IA. Uruguay va camino a eso. ¿Qué tan posible es regular algo que ni siquiera terminamos de entender?
Australia, por ejemplo, acaba de prohibir las redes sociales para menores de 16 años. Es un buen comienzo. Pero lo más importante es entender qué estamos regulando. Porque estas inteligencias artificiales, sobre todo las generativas, son cajas negras: nadie sabe exactamente cómo funcionan.
Ni siquiera los científicos que las crearon pueden explicarlas por completo. Tienen una complejidad comparable a la del cerebro humano: hablamos de sistemas con millones de millones de parámetros, una escala imposible de comprender. Las neurociencias llevan siglos estudiando el cerebro y aún no lo entendemos; lo mismo ocurrirá con los “cerebros artificiales” durante las próximas décadas.
Y aunque algún día logremos entenderlos, seguirán siendo impredecibles, porque procesan información en tiempo real y se adaptan constantemente. Son cajas negras en sentido literal: no sabemos lo que harán en el próximo segundo.
Ahora bien, el hecho de que no los entendamos no significa que podamos ignorarlos. Ya forman parte de todo. El 80% de las decisiones de la bolsa se toman con inteligencia artificial; el 99% de la distribución de energía global pasa por sistemas automatizados, y hasta el 50% de las parejas en Estados Unidos se conocen gracias a algoritmos. Entonces, la IA ya no es una herramienta externa, es la fábrica social en la que vivimos.
Embed - Australia busca prohibir YouTube para los menores de 16 años • FRANCE 24 Español
Si ni siquiera los propios expertos comprenden del todo cómo funcionan los algoritmos, ¿cómo se puede regular algo así?
Bueno, pensemos cómo regulamos cosas que tampoco entendemos del todo: la sociedad, los cerebros humanos o incluso una granja de pollos. No sabemos exactamente cómo funcionan, pero las controlamos después del hecho. Si alguien comete un crimen, lo apartamos de la sociedad; si una empresa genera daño, la cerramos. En el caso de la alimentación, por ejemplo, en Estados Unidos los ministerios de salud no estudian cada proceso dentro de una granja. Van, toman muestras: si más del 7% de las gallinas tienen salmonela, se clausura. Nadie entiende el mecanismo interno de la granja, pero igual se regula con un criterio empírico. Lo mismo ocurre con los autos: cuando se importa un nuevo modelo, se lo choca contra una pared para ver si el cinturón resiste. Si funciona, se aprueba; si no, se prohíbe hasta que mejore. Esa lógica de “auditoría posterior” es la que necesitamos aplicar a los algoritmos.
¿Cómo sería eso en la práctica?
Con auditorías algorítmicas, que es lo que hacemos en mis laboratorios. Tomás, por ejemplo, el algoritmo de YouTube: le das 100 mensajes de muestra y analizás qué te recomienda. Cuántas noticias son falsas, cuántas verdaderas, cuántas conspirativas, cuántas neutrales. Lo mismo se puede hacer con Netflix Kids, Amazon, TikTok o Instagram. En todos los casos encontramos algo parecido: entre 8% y 10% del contenido recomendado es inadecuado. En YouTube Kids eso significa videos no apropiados para niños; en Amazon, sesgos de raza o género; en redes sociales, desinformación o manipulación política. ¿Y por qué ese 10%? Porque, para las empresas, limpiar el resto sería carísimo. Llegar a ese nivel les cuesta poco; eliminar los últimos errores, muchísimo. Entonces se quedan ahí. Y no hay leyes que las obliguen a hacerlo mejor. Por eso digo que la regulación debe definir cuál es el nivel de error tolerable.
Así como aceptamos hasta 7,5% de salmonela en las granjas, deberíamos decidir cuál es el porcentaje de noticias falsas o sesgos que una sociedad considera aceptable. Quizás cero es imposible, pero ¿10% está bien? ¿5%? Eso hay que discutirlo. Si YouTube genera un 20% de desinformación, el Estado uruguayo puede decidir si eso es aceptable o no. En definitiva, no tenemos que entender la caja negra para regularla. Solo necesitamos medir sus resultados y decidir cuándo son inaceptables.
Si los países de la región aún no tienen desarrollo propio de IA, ¿por dónde deberían empezar: por crear normas o por fomentar sus capacidades tecnológicas?
Eso me pasó con mis amigos, no voy a mencionar nombres, en otros países de América Latina. Me dicen: “ah, creamos una comisión ética de la IA para castigar a la IA”. Y yo les respondo: “qué bueno, qué pena que no tienen IA, ¿qué quieren castigar, si no tienen nada en el país?” (risas). Ya tienen una comisión ética para sancionar algo que no existe. Por eso se necesita algo distinto: un ministerio o una superintendencia de algoritmos, con capacidad técnica para auditar y certificar los sistemas que operan en el país. Su primera función no debería ser castigar, sino fomentar el desarrollo local de IA, atraer inversión, formar capacidades y luego regular, como hicieron los países latinoamericanos con las telecomunicaciones. Así se cerró la brecha digital, y así también debería controlarse la inteligencia artificial: con auditorías, licencias y reglas claras sobre qué puede y qué no puede operar en una sociedad. Si un algoritmo provee 10% de pornografía o de violencia a los niños, tal vez no debería operar en el país. Esa es una decisión de cada sociedad.
ninos-celulares
Pablo La Rosa/ adhocFOTOS
Pero mientras esas empresas no estén radicadas en el país, ¿qué puede hacer un país tan chico como Uruguay? No tiene poder para decirle a YouTube que no…
Bueno, claro, sería mejor si se hace a escala latinoamericana, sin duda. Pero incluso así, cada país tiene derecho a proteger a su población. Ustedes tampoco permiten la entrada de cualquier automóvil chino si es peligroso, ¿verdad? Entonces, ¿por qué aceptarían algoritmos dañinos solo porque son un país pequeño? No se puede decir: “ah, somos demasiado chicos, estamos obligados a recibir autos chinos peligrosos”.
Cada país tiene derecho a proteger a su población. Ustedes tampoco permiten la entrada de cualquier automóvil chino si es peligroso, ¿verdad? Entonces, ¿por qué aceptarían algoritmos dañinos solo porque son un país pequeño? No se puede decir “ah, somos demasiado chicos, estamos obligados a recibir autos chinos peligrosos”. Cada país tiene derecho a proteger a su población. Ustedes tampoco permiten la entrada de cualquier automóvil chino si es peligroso, ¿verdad? Entonces, ¿por qué aceptarían algoritmos dañinos solo porque son un país pequeño? No se puede decir “ah, somos demasiado chicos, estamos obligados a recibir autos chinos peligrosos”.
Yo estoy involucrado en varios juicios internacionales sobre esto. Hay más de 5.000 familias que demandan a las grandes plataformas porque sus hijos resultaron dañados por los algoritmos. Y no es una metáfora: hay certificados médicos, diagnósticos psicológicos, historias clínicas.
¿Dañados de qué manera?
Literalmente dañados por los algoritmos. Más de 500 de esos niños están muertos. No solo por casos de anorexia o suicidio —aunque también ocurre, incluso con sistemas como ChatGPT, que han explicado a adolescentes cómo quitarse la vida—, sino por los llamados desafíos virales: comer cápsulas de detergente, provocar apagones, enchufar objetos peligrosos. Niños de ocho años que terminan ahorcándose por seguir un reto de TikTok o YouTube. Y los padres dicen: “lo que mató a mi hijo fue el algoritmo que lo convenció de hacerlo”. Cientos de niños muertos.
Por eso yo suelo decir que esto es peor que la salmonela. Ustedes no permiten salmonela en los alimentos, ¿por qué permitirían algoritmos de inteligencia artificial más inteligentes que nuestros niños y potencialmente más peligrosos?
¿Y cómo se puede proteger a los más chicos de eso?
Todo empieza por el control del sistema operativo. Si un niño usa una laptop, ahí se puede hacer mucho más para limitar lo que ve. Pero Apple y Google, que controlan la mayoría de los teléfonos y tabletas, no suelen permitir ese nivel de supervisión. Y sin acceso al sistema operativo, es muy difícil protegerlos.
Aun así, existen soluciones. Hay tecnologías que permiten supervisar los dispositivos de los niños sin invadir su privacidad. Por ejemplo, yo uso una de esas herramientas. En mi casa no están permitidos los celulares, pero mi hija tiene un reloj inteligente con el que puede textear con su madre. Un día, mientras hablaban, yo no tenía acceso a leer los mensajes —porque respeto su privacidad—, pero la inteligencia artificial del sistema me notificó automáticamente que ella le había contado a su madre que su hermana la había golpeado mientras jugaban. La inteligencia artificial me advirtió que había signos de violencia en el texto y que debía chequear cómo estaba.
Otro día, mi hija grabó un video con el reloj —como suelen hacer las niñas— y la IA me envió una alerta de que podía haber indicios de bullying en esos mensajes. Entonces entendí el potencial: la IA puede proteger a los niños sin necesidad de que uno invada su intimidad. No soy un padre controlador, no leo sus mensajes, pero la inteligencia artificial me avisa si detecta señales de violencia o acoso. Eso es cuidar sin controlar.
La IA puede proteger a los niños sin necesidad de que uno invada su intimidad. No soy un padre controlador, no leo sus mensajes, pero la inteligencia artificial me avisa si detecta señales de violencia o acoso. Eso es cuidar sin controlar. La IA puede proteger a los niños sin necesidad de que uno invada su intimidad. No soy un padre controlador, no leo sus mensajes, pero la inteligencia artificial me avisa si detecta señales de violencia o acoso. Eso es cuidar sin controlar.
Claro, para eso también hay que obligar a las compañías a abrir el acceso al sistema operativo. Si lo hacés desde una política pública —como con el Plan Ceibal—, se puede definir, por ejemplo, que las laptops para menores de 16 años tengan opciones de control y monitoreo. Y después, a los 16 o 18, ya pueden ir al mundo real de Instagram y hacerse adictos como nosotros (risas). Pero hasta entonces, se puede y se debe regular así.
La clave está en que si controlás el sistema operativo, la inteligencia artificial puede ayudarte. Porque hasta ahora, la IA 2.0 —la de la última década— estaba en manos de las empresas: los algoritmos de recomendación de Facebook, Netflix, TikTok. Ellos manejaban la IA. Pero con la IA generativa, esa tecnología volvió a nuestras manos. Hoy cualquiera tiene acceso a ChatGPT y puede crear su propio agente inteligente.
Y eso cambia todo: ahora podemos usar fuego para combatir fuego. Podemos crear nuestros propios agentes de IA para proteger a los niños, para auditar las noticias falsas durante las elecciones, para defendernos de los algoritmos que manipulan la información o moldean comportamientos. Durante 10 años no tuvimos acceso a eso: recibíamos la IA de Facebook o Instagram sin poder intervenir. Pero ahora sí. Ahora podemos usar la inteligencia artificial para monitorear, auditar, proteger y defender.