En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, tu plan tendrá un precio promocional:
* Podés cancelar el plan en el momento que lo desees
¡Hola !
En Búsqueda y Galería nos estamos renovando. Para mejorar tu experiencia te pedimos que actualices tus datos. Una vez que completes los datos, por los próximos tres meses tu plan tendrá un precio promocional:
* Podés cancelar el plan en el momento que lo desees
¡Hola !
El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
Culminó ayer miércoles la Segunda Cumbre Mundial de Comisiones de Futuro. El evento fue organizado por la Comisión Especial de Futuros del Parlamento uruguayo, creada por la Ley 19.509 en julio de 2017, instalada cuatro años después y presidida por el diputado Rodrigo Goñi (1). Cientos de parlamentarios debatieron durante dos días sobre “La democracia del futuro en el contexto de evolución de la inteligencia artificial”. Esta actividad nos ofrece un excelente pretexto para asomarnos al tema de fondo. La cuestión de la inteligencia artificial y sus impactos tiene múltiples dimensiones. En este texto discutiré fundamentalmente un aspecto: el vínculo entre la inteligencia artificial “débil” o “estrecha” con el comportamiento electoral. Recién sobre el final diré dos palabras sobre el desafío más difícil de todos, el planteado por la inteligencia artificial general (IAG).
¡Registrate gratis o inicia sesión!
Accedé a una selección de artículos gratuitos, alertas de noticias y boletines exclusivos de Búsqueda y Galería.
El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
Las luces amarillas se venían prendiendo hace tiempo. Pero las alarmas saltaron hace poco cuando estalló el debate sobre la influencia de Cambridge Analytica en el Brexit (en Reino Unido) y en la victoria de Donald Trump (en Estados Unidos).
El lanzamiento del chat GPT reactualizó preguntas muy importantes que desafían a protagonistas y especialistas. Las primeras refieren a la gravedad del riesgo: ¿hasta qué punto la combinación del desarrollo de la computación (que permite procesar cantidades increíbles de información) con las redes sociales (que facilitan conocer las preferencias de cada usuario) posibilitan la manipulación de las decisiones políticas de la ciudadanía?; ¿en qué medida las nuevas tecnologías contaminan el debate público con mentiras y verdades a medias? La segunda enfoca posibles soluciones: ¿qué deberían hacer las democracias modernas para limitar el riesgo? Recién estoy empezando a aprender sobre el tema, así que mis reflexiones serán más provisionales que nunca.
Para elaborar una respuesta tentativa a la cuestión de la entidad del riesgo para las democracias modernas puede resultar útil imaginar las dos respuestas opuestas. En un extremo, el máximo pesimismo (o catastrofismo). La ciudadanía no tiene cómo escapar a la manipulación. Nuestros cerebros son fácilmente escaneados. Nuestras preferencias son fácilmente accesibles. Nuestros comportamientos son fácilmente programables. Es perfectamente posible diseñar y desplegar campañas electorales personalizadas, a medida de cada individuo, falseando hechos y haciéndolos circular hacia cada votante del modo más apropiado. En el otro extremo, el máximo optimismo (o negacionismo). Las garantías institucionales de la democracia (en especial, la existencia de fuentes alternativas de información y la competencia entre partidos políticos rivales) aseguran un nivel básico de chequeo de datos y de deliberación pública. Esto impide cualquier tipo de manipulación del electorado.
En este tema, como en otros asuntos, me cuesta mucho suscribir el pesimismo extremo. Hace décadas, por no decir siglos, que circulan versiones sobre la dominación ciudadana. Hay una lista larga y variada de enfoques conspirativos (desde las distintas versiones del elitismo —de Gaetano Mosca a Charles Wright Mills— hasta las teorías sobre los medios de comunicación como constructores de agenda). La manipulación ciudadana a partir del desarrollo de la inteligencia artificial, mirada de este punto de vista, es una nueva versión de una melodía muy vieja. Quienes dan por buenas estas teorías tienen en común que les cuesta demasiado aceptar la racionalidad de decisiones ciudadanas que no comparten o no logran explicar de otro modo. Dicho de una forma más simple. La victoria de Trump y el Brexit no son (necesariamente) producto de la manipulación de la opinión pública. No hay que desconfiar tanto en la capacidad de discernimiento de la ciudadanía.
A su vez, la interpretación hiperoptimista es demasiado ingenua. No puede negarse el peligro inherente a la acumulación y la circulación de información sobre nuestras preferencias. No puede negarse que, en la lucha por el poder, hay quienes intentan utilizar esa información para inducirnos a tomar ciertas decisiones. Para estar protegido contra las nuevas formas de manipulación se requiere interés por la política y tiempo. ¿Qué porcentaje de la población de cada país reúne estas dos condiciones? Si queremos cuidar la democracia, no podemos darnos el lujo de subestimar ningún riesgo, tampoco el de la inteligencia artificial.
No hace falta suscribir la visión apocalíptica para aceptar que es preciso ocuparse de este tema. Que las comisiones de futuro de los parlamentos lo hayan elegido como tema central de la segunda cumbre es, por tanto, una señal alentadora. Esto conduce a la segunda pregunta que formulaba al comienzo, es decir, a la cuestión de cómo minimizar el nuevo peligro. No hace falta, tampoco, ser un fanático del neoinstitucionalismo en ciencia política para aceptar que es necesario elaborar normas y arreglos institucionales o, en los términos de los debates de la semana pasada en nuestro Parlamento, una “nueva gobernanza”. Las instituciones pueden minimizar los riesgos. Pero, también, maximizar las oportunidades. Como ha señalado Daniel Innerarity, uno de los expertos que participó en las discusiones, la inteligencia artificial puede ser puesta al servicio de la ciudadanía. En sus propios términos, debemos atrevernos a pensar “qué tipo de innovaciones democráticas debemos acometer para no privarnos de los beneficios de la automatización”: los datos sobre las preferencias ciudadanas, al menos en teoría, podrían ser un insumo de gran valor para cerrar la brecha entre las decisiones de los gobiernos y la opinión pública.
Emanuel Adler, por su lado, está dedicando gran parte de su actual trabajo académico a investigar sobre el enorme desafío planteado por la IAG, entendida como aquella que, aprendiendo por sí sola, podría igualar o superar la inteligencia humana. Desde una perspectiva teórica que asume que las prácticas preceden el desarrollo institucional, viene argumentando que es necesario que se desarrolle una comunidad de práctica específica que explore cuáles son los mejores medios para monitorear la investigación y el desarrollo de la IAG. Forman parte de esta incipiente red global científicos, organizaciones internacionales, empresarios y trabajadores de la industria de la información. Según él, el gran desafío de esta comunidad de práctica es mantener “el genio de la IAG dentro de la botella”, por lo menos hasta que por medio de cooperación global se acuerde utilizar la IAG solo para el bien de la humanidad.
La Segunda Cumbre de Comisiones de Futuro dejó en evidencia que también los políticos profesionales están llamados a tener un papel fundamental en esta red internacional. Desde el Discurso sobre las ciencias y las artes de Jean-Jacques Rousseau tememos que el desarrollo científico, en vez de progreso, implique retroceso moral. La inteligencia artificial es la nueva cara de este antiguo reto.