—Usted se definió en entrevistas como un tecno-optimista, pero al leerlo y escucharlo hablar ahora sobre el proceso de deshumanización fomentado por el desarrollo tecnológico parece difícil ver ese tecno-optimismo.
—Pero creo que el proceso es reversible, en primer lugar. Y creo que esto no nos aboca a un destino distópico, sino que la tecnología ha puesto de manifiesto que si no tiene un control democrático y si no le acompañan valores humanísticos, puede enfocarnos hacia un escenario distópico, pero no inevitablemente distópico. La Revolución Industrial, cuando incorporó la máquina a vapor, generó unas desigualdades que incluso legitimaron que niños de cinco años trabajaran en los telares; sin embargo, pronto surgieron voces críticas, más allá de lo que fueron las revueltas ludistas, de que la Revolución Industrial tenía que ser humanizada, había que introducir regulación, mecanismos de equidad que socializaran los beneficios y que hicieran que la Revolución Industrial, y por tanto la máquina de vapor que estaba en su origen, contribuyeran a la prosperidad del conjunto de la sociedad y el progreso, que es lo que pasó. Es verdad que hemos tardado 100 años en conseguir que los efectos más beneficiosos y de progreso de la Revolución Industrial se extendieran en el conjunto de la sociedad. De ahí nació el Estado de Bienestar. Pero ha exigido regulación y control democrático, y valores humanísticos que se proyectaran sobre esa legislación. Y eso es lo que ahora planteo y ese es mi tecno-optimismo. No creo que la tecnología nos tenga que llevar inevitablemente a un escenario distópico, pero si no la regulamos, no la sometemos al control democrático y no legislamos conforme a una serie de valores humanísticos y volvemos a colocar claramente al ser humano y los aspectos más personales y cívicos del ser humano como protagonistas de lo que sucede en la infoesfera, esta va a tener unas consecuencias, a la larga, más perjudiciales para muchos que beneficiosas.
—¿Cuáles son esos valores que cree que se han perdido o han quedado por el camino?
—Pues básicamente, el desarrollo de la infoesfera ha ido articulando una estructura plataformizada que interpreta la acción del ser humano en la generación de datos y la interacción social a partir de verlo como consumidor de contenidos y usuario de aplicaciones, no como persona a la que haya que amparar en su privacidad, en su intimidad y en una serie de aspectos de confidencialidad que la protejan en su huella digital, o en la trazabilidad de su identidad en las redes. Y tampoco ha sido tratada como ciudadano. Creo que hay un déficit personal y cívico en la manera en la que el ser humano es objeto de trato por parte de los algoritmos que gestionan al final la infoesfera. Ahí es donde deben introducirse valores que propicien la autonomía crítica, la capacidad para ejercer libremente la acción humana en la interactuación con otros, el desarrollo de prácticas de interacción que primen la amistad sobre la enemistad, que favorezcan el intercambio enriquecedor en términos humanos y no empobrecedor, etcétera, etcétera.
—Cuando se escucha hablar de pérdida de valores hoy, pareciera siempre referirse al trabajo, a la familia...
—Los valores que acompañan a una sociedad democrática, liberal, tienen que ver con valores que configuran la ética pública. Me estoy refiriendo al respeto al otro, a la tolerancia, a la defensa del pluralismo, al valor que tiene el pensamiento crítico, a la conciencia cívica que desde el pensamiento kantiano considera que el ser humano es un adulto mayor de edad frente a las tutelas que otros puedan ejercer sobre la manera de comportarse en la esfera pública y en la esfera privada. En fin, los valores del respeto y de la convivencia que hacen posible la democracia. Que el otro nos interese no como un objeto de relación egoísta, sino de amistad enriquecedora, de colaboración. Esos valores son los que hacen posible la sociedad democrática y forman parte de la cultura, del liberalismo y del humanismo.
—Usted hablaba de efectos deshumanizadores de la tecnología, pero esas cosas que se exacerban son parte del ser humano.
—La violencia y el odio forman parte de la condición humana, pero el humanismo nos ayuda y nos enseña, en una pedagogía de valores, a cómo reconducir esa violencia y ese odio. Cuando hablo de deshumanización, me refiero a la erosión que sufren esos valores y esos condicionantes éticos a la hora, por ejemplo, de que esa naturaleza más irracional, que no empatiza con el otro sino que le recrimina prácticamente todas las culpas del mundo y todas las responsabilidades, en una dialéctica polarizada que desemboca muchas veces en estas shitstorms, estas tormentas de mierda que liberan incluso situaciones de acoso y de muerte civil, hacen que resulte absolutamente deshumanizada la interpretación que hacemos del uso de la tecnología.
—En un fragmento del libro Ciberleviatán, el panorama resultaba desolador. ¿Es una interpretación correcta?
—No. Es decir, puede llegar a ser desolador si aceptamos que la ley de la jungla deba regir el desarrollo de la infoesfera. Nopodemos permitir seguir manteniendo un desarrollo tecnológico que beneficia cada vez más a unos pocos y ese beneficio no se reparte entre muchos. La prosperidad que está generando la economía de plataformas, que se basa en una automatización tecnológica del mundo de la empresa, del mundo de las profesiones liberales, está reduciendo el valor económico asociado al trabajo humano, incluso al trabajo especializado. El trabajo cada vez pesa menos en los PIB de las democracias occidentales y eso está afectando de manera directa al protagonismo de las clases medias. Eso explica por qué las clases medias comienzan a ver en su mentalidad un cuestionamiento cada vez mayor de la vigencia de la democracia. ¿Es desolador ese análisis? Bueno, creo que estoy constatando una realidad que está ahí afuera. El problema es pensar que la tecnología, por sí sola, nos va a liberar, va a ser la nueva frontera utópica, es esperanzadora, va a sacar lo mejor que tenemos. Y vemos a diario que eso no es así. ¿Para qué vamos a negar esa realidad? Enfrentémonos a ella y asumamos que la realidad puede ser otra muy distinta. La técnica es ciencia, la técnica es innovación, la técnica es conocimiento, pero es poder también. Y como poder, necesita ser regulado democráticamente. La ley debe salvaguardar su primacía sobre el algoritmo. Y si la ley nos trata igualitariamente, el algoritmo no puede tratarnos desigualmente.
—Ahí el problema también es quién tiene el conocimiento, quién maneja los algoritmos. No es el sistema legal y judicial vigente el que sabe cómo funcionan.
—Ahora, por primera vez, la legislación española obliga a las plataformas, por ejemplo de raiders, a ser transparentes en los algoritmos que regulan el otorgamiento de los pedidos a los raiders. Eso solamente pasa en el sector del delivery. Falta una legislación sobre derecho de consumo de algoritmos; hay una legislación que regula el consumo de un yogurt o sobre la fabricación de un automóvil, pero no hay una legislación que regule los algoritmos que hacen posible mi consumo de contenidos en una plataforma de cine o de pedidos a domicilio de libros. Esa es la realidad que creo que hace falta afrontar. Por eso, insisto, no creo que sea un análisis desolador el que estoy proponiendo, sino que trato de constatar, a través de un diagnóstico bastante realista, cuál es la situación actual. Insisto, no tiene que ser inevitablemente así el panorama que vamos a vivir dentro de 20 años, pero no podemos dejar pasar mucho tiempo para regular. Porque el poder tecnológico se soberaniza, incrementalmente adquiere una autonomía cada vez mayor. Y si hace 10 años era más fácil regular, dentro de 10 años va a ser más difícil.
—Semanas atrás, el CEO de Facebook, Mark Zuckerberg, anunció la intención de su compañía de crear una suerte de realidad virtual aumentada, que implicaría casi que reemplazar la interacción física.
—¿Y tenemos que aceptar que alguien pueda generar un mundo alternativo a una realidad que ha configurado nuestra civilización a través de miles de años, y que es el producto de los esfuerzos de muchísimas generaciones que han tratado de humanizar, generar espacios de justicia, de ampliar la democracia, la cultura de los derechos, sin más? Es decir: ¿vamos a aceptar que alguien genere las condiciones para que nos encierren, en aquello que Max Weber describía como una jaula de oro? Porque realmente esa especie de metarrealidad está más próxima a la caverna platónica que a un espacio que realmente nos liberemos de las dificultades que la realidad viene proyectando sobre la humanidad, a la vista que el ser humano por sí solo, sin más recursos que los que le proporciona su cuerpo y su inteligencia, es capaz de abordar a la hora de combatir sus necesidades.
—Alguien podría decir que la realidad física no les está dando una respuesta a ciertas personas y que hay gente que prefiere ir a esa jaula de oro.
—Pero entonces nos estaríamos aproximando a la distopía descripta por Huxley en El mundo feliz. Se nos está ofreciendo el soma que necesitamos para eludir la responsabilidad de vivir siendo dueños de nuestro destino. ¿Queremos eso? ¿Queremos realmente materializar la distopía de Huxley? ¿Queremos convertir la infoesfera en el soma que nos libere, pero al mismo tiempo nos jerarquice y plantee un escenario de silenciamiento cognitivo del ser humano? Porque a eso vamos si aceptamos ese tipo de cosas.
—Capaz que algunos sí.
—Pero entonces estamos retrocediendo en el tiempo y volviendo al diseño de pan y circo y, por tanto, del sostenimiento gamificado de la tiranía. En el fondo, la gamificación de las experiencias está haciendo que efectivamente fidelicemos nuestra presencia en Internet a través de un diseño de castigos y premios que tienen que ver con olvidar lo que somos. Y si se ha generado todo un debate alrededor del mundo de las drogas, ¿qué haremos cuando Internet se convierta en una nueva droga, quizás la droga perfecta?
—Usted dice que todavía está a tiempo, pero el genio ya salió de la lámpara y no va a volver a entrar. ¿Cuál es la agenda de cambio que propone?
—El genio salió de la lámpara, pero siguiendo con la metáfora de Las mil y una noches, Aladino fue capaz de engañar al genio. Por lo tanto, debemos ser capaces de confiar en que la percepción de que el ser humano se expone a dimensiones de fragilidad y de pérdida de la emancipación mayores de las que nunca a vivido en el pasado, quizás agudice el ingenio para ser capaz de volver a introducir al genio en la lámpara, o de convencerle de que nos ayude a ser mejores como seres humanos, a progresar en nuestra relación con el mundo. Podemos hacer que la tecnología nos ayude a contribuir a construir no un ciberleviatán, sino una ciberdemocracia. Puede contribuir a que la desintermediación democrática favorezca más la democracia mediante una horizontalidad crítica, que limite la capacidad de los gobiernos y los haga más transparentes y responsables. Ese es el momento que tenemos por delante, es un verdadero momento.
—Ese momento implicaría que los Estados nación confronten a los gigantes tecnológicos. ¿Ese es el camino? ¿Hay conciencia de eso?
—Creo que ese es el camino. En la tradición de la democracia liberal está la lucha contra los monopolios. Los monopolios fueron vistos siempre como algo nocivo. De hecho, Adam Smith fue uno de los principales teóricos de la crítica a las dinámicas monopolíticas que podían desarrollarse dentro del mercado. El mismo decía que siempre que dos o más empresarios se reúnen lo hacen para conspirar contra el mercado y que, por lo tanto, era absolutamente imprescindible evitar uno de los mayores despotismos que podía pesar sobre la humanidad, que era el despotismo de los empresarios. Y, por lo tanto, invocando esa tradición, Estados Unidos fue capaz de embridar el capitalismo industrial con sus leyes antitrust y Europa fue capaz de reconstruirse después de la Segunda Guerra Mundial con sus leyes anticolusorias. En la tradición, por tanto, de la democracia está evitar las concentraciones de poder y también de poder económico.
Estados Unidos lo está intentando: ha abierto una causa contra Google, de la que todavía no sabemos cuál va a ser el desenlace. La administración Biden ha incorporado una agenda en el ámbito digital de reconocimiento de derechos, de limitación ética de la capacidad de las grandes corporaciones de seguir trabajando como lo han hecho hasta ahora. Es cierto que todavía es una agenda tímida. En cambio Europa está convirtiendo eso en una parte de su posicionamiento global. Creo que el horizonte apunta a que se va a trabajar la idea de la dignidad del dato, se va a desarrollar una carta de derechos digitales como la que tiene España y se le va a dar un contenido normativo. Y se van a desarrollar dinámicas donde además de limitar las grandes corporaciones, se van a introducir lo que se denomina una transición digital humanística.
—¿Se puede poner a los algoritmos al servicio del modelo democrático?
—Claro, mediante una regulación que evite que los sesgos se estén basando en una gamificación de castigos y premios, que tipifique a los deseables y los indeseables socialmente para el poder.
A corto plazo, la complejidad que vive una sociedad como la europea o la norteamericana, puede ser un obstáculo por los elementos disgregadores que pueden contribuir al fenómenos de la paz social en un contexto estructuralmente tensionado que vivimos en este momento, pero a la larga los algoritmos necesitan complejidad. Es decir, el gran poder que tiene la tecnología es que es capaz de diseñar un análisis de datos que cuanto más complejo sea —y vamos a un mundo cada vez más complejo— necesita capacidades de gestión de la información más eficiente. Creo que la inteligencia artificial puede ayudar a la toma de decisiones políticas, democráticas, pero si acertamos en cuál es el diseño que queremos dar a los algoritmos. Y cuanto más compleja sea una sociedad, a la larga, más eficiente será un diseño humanístico de los algoritmos.
—¿La democracia es capaz de gestionar estos cambios y esta complejidad?
—La democracia no es viable si no hay pautas colaborativas. La democracia ha sido capaz de gestionar la complejidad, lo que sucede es que las reglas que hacían posible la colaboración están siendo cuestionadas, entre otras cosas por la polarización que desde las redes sociales está favoreciendo el desarrollo de guerras culturales que cuestionan ese modelo colaborativo.
Lo que está generando la tecnología a través de las redes sociales y el diseño de los algoritmos que regulan las conversaciones de esas redes están favoreciendo el ruido y no la conversación. Si nosotros trasladáramos a una conversación lo que sucede en una red social, veríamos que es ruido. Y en el ruido no hay democracia. En el insulto, en el odio, no hay democracia.