Nº 2220 - 13 al 19 de Abril de 2023
Nº 2220 - 13 al 19 de Abril de 2023
Accedé a una selección de artículos gratuitos, alertas de noticias y boletines exclusivos de Búsqueda y Galería.
El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
En caso de que tengas dudas o consultas podés escribir a [email protected] contactarte por WhatsApp acáLeía el otro día a una madre que, sorprendida, contaba que su hijo adolescente usaba la inteligencia artificial (IA) para hacer los deberes que le dejaban en el liceo. Que solo hacía la pregunta correspondiente y se limitaba a copiar y pegar la respuesta. Y que eso era una práctica común también entre sus compañeros. La madre, lejos de molestarse, asumía, resignada, que eso era el futuro y no quedaba otra que adaptarse. El problema es que adaptarse en ese caso implicaba aceptar que su hijo no aprendiera una palabra de aquello que le estaban enseñando en el liceo.
El ejemplo no es gran cosa, es verdad, pero creo que sirve como resumen de la facilidad con la que aceptamos los efectos de la tecnología, incluso cuando estos atentan sin rodeos contra aquello que, se supone, están mejorando. El acceso a Internet, el manejo de computadoras, teléfonos, tablets y demás se supone que tiene como fin hacer nuestra vida mejor, más simple y, sobre todo, más cómoda. En este caso y en muchos otros, cuando la tecnología no viene acompañada de un código ético, exterior a ella, se generan una cantidad de eventuales “daños colaterales”. Y es que, como se suele decir, en tecnología, si algo se puede hacer, se hace.
Pensemos en la propia Internet: la posibilidad de tener acceso a toda la información disponible, 24 horas al día todos los días de año. O, más acotado, en la formidable posibilidad de intercambio que se produjo con las redes sociales. Ahora, una cosa son las posibilidades y otra es la correcta gestión de estas. ¿Qué se entiende por “correcto” en este caso? Con darles un uso que permitan mejorar la calidad de vida de las personas, con usarlas de forma que nos proporcionen cierta mejora respecto al statu quo previo a la introducción de dicha posibilidad tecnológica. Y eso nos obliga a dar otro paso más atrás, ir a un momento previo: ¿cómo decidimos qué es “mejor” y qué es “peor”? Cuando nos metemos a usar una tecnología lo hacemos por lo general sin siquiera habernos planteado estas dos preguntas: ¿es correcto el uso que le estamos dando?, ¿mejora nuestra situación previa?
El caso de las redes es ilustrativo: unos espacios que fueron pensados (en un principio al menos) como un sitio de encuentro entre exalumnos (Facebook) o para el microblogueo (Twitter) se fueron convirtiendo pronto en una arena cada vez más importante en la que procesar el debate público. Que es, precisamente, el debate sobre qué es “bueno” y “malo” para el colectivo o los colectivos a los que pertenecemos. Unos espacios que, por razones de su propio diseño, no siempre son los más adecuados para esa clase de charla. Pero que, al mismo tiempo, son una invitación seductora para usarlos para eso. Por eso no es raro leer que alguien escribe en Facebook que “no es un tema que pueda ser tratado acá, pero…” y que a continuación comience su tratamiento del tema, justo ahí. Twitter, por su carácter ultraacotado, es aún más limitante para el intercambio medianamente serio de ideas. Sí, se pueden hacer hilos de tuits, pero no se pueden hacer hilos en respuesta. Quizá eso sirva para explicar la velocidad con la que en esa red se pasa al sarcasmo y al insulto, que son y serán siempre más veloces que un argumento razonado.
Uno de los problemas de discutir parados en esta clase de plataformas es, se ha dicho varias veces en estas columnas, que el proveedor del tablero de juego y sus intenciones quedan por definición fuera de la discusión. Batallamos con más o menos violencia sobre los temas públicos mientras el proveedor se fuma un puro y recoge los dividendos que resultan de la gestión del tablero. De hecho, el proveedor ha diseñado el tablero de forma tal que este dé el máximo beneficio posible, sin que le importe alguna otra clase de ética. Si para generar tráfico el algoritmo premia la violencia o el debate áspero, que así sea. Es decir, lo hacemos porque podemos y porque al dueño de circo le viene bien lo que hacemos las pulgas.
Lo que nos lleva sin escalas a la IA. La hicimos porque tecnológicamente podíamos hacerla, no como resultado de una seria reflexión sobre sus impactos, beneficios y perjuicios. Por usar el jueguito de palabras más obvio, creamos inteligencia artificial sin usar a fondo nuestra inteligencia natural. Y tal como ya no viene ocurriendo con las redes sociales, quizá deberíamos empezar a preguntarnos cómo regular esa IA que creamos. Una pregunta que, tal como ocurre con las redes, ya fue acusada de conservadora y reaccionaria. Acusada de ser una mirada anclada en el pasado, incapaz de percibir la luminosidad del futuro de posibilidades que plantea la IA.
Ahora, tal como señala el filósofo español Antonio Diéguez, “también el pasado nos ha mostrado suficientemente que no toda innovación tecnológica es necesariamente un progreso, o bien que trae aparejadas consecuencias indeseables que es importante evitar o paliar. Los indudables beneficios no anulan los perjuicios”. A la hora de señalar problemas concretos derivados de la IA, Diéguez apunta: “Se están viendo ejemplos muy inquietantes de cómo, con su ayuda, se pueden crear con gran facilidad y realismo noticias falsas, con imágenes y videos incluidos, capaces de engañar a los más avezados. La proliferación de este tipo de noticias podría dar lugar a una crisis de credibilidad en los medios de información y contribuir de forma notable a la polarización e inestabilidad política, debilitando con ello las bases de la convivencia democrática”.
El filósofo señala además otro uso aún más problemático: el reconocimiento facial. “En China y en Rusia se utilizan para controlar a los disidentes políticos. La compañía china Haiwei proporciona tecnología de vigilancia inteligente a más de 50 países… Aunque el peligro para el ciudadano es obviamente mucho mayor en sociedades gobernadas por regímenes autoritarios, eso no significa que las democracias avanzadas estén libres de peligros”. Y agrega: “A todo esto, añadamos la pérdida de privacidad por el uso comercial e incluso político (recuérdese el escándalo de Facebook y Cambridge Analytica) que las compañías tecnológicas hacen de nuestros datos. Estas compañías están acumulando tanto poder que condicionan fuertemente las decisiones de muchos países y pueden esquivar el pago de impuestos, aumentado con ello sus beneficios”.
Es obvio que esto no implica ponerse a desandar el camino, un imposible. Pero sí implica ponerse serios en cuanto a los alcances y efectos indeseados que tiene el uso de esa tecnología que aceptamos simplemente porque está disponible. Implica decidir de manera democrática en los ámbitos existentes, qué es “lo mejor” y “lo peor” para el colectivo respecto a la IA. Sin necesidad de imaginar escenarios catastróficos al estilo Terminator, el presente ya nos envía suficientes señales como para encender las alarmas. Y el camino no parece ser adaptarse a lo que hay porque es “el futuro”, como hace la madre de la anécdota del comienzo. La tecnología sin una ética que la regule ofrece un camino de luces, pero también de sombras, por más comodidad que prometa. Para manejarse en ese camino hace falta usar nuestra inteligencia natural.