El neurocientífico argentino Luis Ignacio Brusco visitó Montevideo para presentar su libro Homo IA: La subjetividad en jaque. Habla rápido y salta de la pandemia a ChatGPT casi sin pausa.
El neurocientífico argentino analiza cómo la inteligencia artificial empezó a cambiar la vida cotidiana
El neurocientífico argentino Luis Ignacio Brusco visitó Montevideo para presentar su libro Homo IA: La subjetividad en jaque. Habla rápido y salta de la pandemia a ChatGPT casi sin pausa.
Accedé a una selección de artículos gratuitos, alertas de noticias y boletines exclusivos de Búsqueda y Galería.
El venció tu suscripción de Búsqueda y Galería. Para poder continuar accediendo a los beneficios de tu plan es necesario que realices el pago de tu suscripción.
En caso de que tengas dudas o consultas podés escribir a [email protected] contactarte por WhatsApp acáDice que la inteligencia artificial (IA) ya forma parte de la vida cotidiana y que empieza a cambiar cómo nos relacionamos, aprendemos y buscamos compañía.

—El título del libro habla de una “subjetividad en jaque”. ¿Qué es lo que está en riesgo?
—Tiene que ver con cómo la tecnología de las inteligencias artificiales puede poner en problemática diferentes cuestiones de la subjetividad. Cómo nos sentimos nosotros en la intimidad y cómo nos relacionamos con otros. Hoy muchas personas interactúan con el ChatGPT como si fuera una persona. Y ahí aparece una pregunta importante. Si es posible crear una “intersubjetividad artificial”, es decir, un vínculo emocional o humano con una máquina. Porque las redes también están manejadas por inteligencia artificial. La IA ya no es solamente ChatGPT. Está en todos los procesos de Big Data y en muchas de las cosas que usamos todos los días. Entonces aparece el riesgo de que algunas relaciones humanas sean reemplazadas por redes o máquinas manejadas por IA. Y también la pregunta de hasta dónde puede llegar este crecimiento exponencial de la inteligencia artificial y cuánto puede impactar sobre nuestra subjetividad.
—¿Por qué cree que cada vez más personas consultan cosas personales con la IA?
—Por comodidad, por costo y porque sienten que no son juzgados. La IA muchas veces es muy benévola y trata de quedar bien con uno. Hay personas que consultan cuestiones cotidianas o incluso reemplazan algunas instancias de terapia por conversaciones con ChatGPT. También tiene que ver con la capacidad de hacer un paneo general más rápido que puede hacer cualquier otro ser humano. El problema es que no tiene empatía ni capacidad terapéutica.
—En el libro se refiere al impacto de la IA en la educación. ¿Qué efectos puede tener en los niños?
—Hay algunas hipótesis y algunos trabajos que muestan que, cuando se usa mal la IA en el comienzo de la educación, pueden aparecer problemas en la construcción gramatical y semántica. Sobre todo en chicos de primer y segundo grado que están empezando a escribir y redactar. Pero yo creo que hay que adaptarse a los nuevos sistemas. Estas herramientas ya forman parte de la vida cotidiana.
—En Uruguay ya se está trabajando con IA en las aulas desde edades tempranas…
—Creo que adecuado está. El problema que marcaban algunos trabajos de investigación no era cuando la IA estaba introducida académicamente en la currícula, sino cómo impacta el arribo repentino sin ningún tipo de regulación.
—¿Cómo debería ser entonces la relación de los niños con la IA?
—Natural y fluida, pero vigilada. Prohibir suele generar el efecto contrario. Hay que regular y estar atentos. Las regulaciones tienen que ser generadas por los Estados, tanto en IA como en el neuroderecho. La neurociencia también ha avanzado mucho y debe ser regulada. Todo lo que tiene que ver con la intervención sobre sistemas cognitivos, de conciencia o en los trabajos de análisis donde se cruzan, por ejemplo, la Big Data, donde se cruza personalidad y inteligencia artificial. Y las familias deben estar atentas. Los chicos encuentran la forma de esquivar controles. Si una IA no responde algo directamente, aprenden a preguntarlo de otra manera. Eso ya sucede.
—Usted habla también de los cambios que trajo la pandemia. ¿Qué relación tiene con todo esto?
—La pandemia aceleró todo. Nosotros estuvimos dos años casi sin contacto físico. Eso tiene consecuencias enormes. Los seres humanos somos sensoriales. Aprendemos mirando caras, tocando, estando cerca de otros. Y de golpe pasamos a vivir por pantallas. Ahí explotó el Zoom, la virtualidad y también la IA.
—¿Ese cambio todavía sigue?
—Sí. Yo hablo de “peripandemia”. Las pandemias no terminan cuando desaparece el virus. Dejan cambios culturales, sociales y emocionales que duran años. Lo vimos históricamente después de otras pandemias. Esta también dejó marcas.
—¿Qué cosas cambiaron más?
—La velocidad de la vida. Todo se aceleró. Hoy hacemos reuniones por Zoom, terapias por Zoom, clases por Zoom. Eso tiene ventajas, claro. Pero también modifica las relaciones humanas. Una pantalla no genera lo mismo que la presencia física.
—¿La IA se parece cada vez más al humano?
—La pregunta también puede hacerse al revés. Si los humanos empezamos a parecernos cada vez más a las máquinas. Hoy hay grupos muy identificados con sistemas artificiales y personas que interactúan con la IA como si tuviera sentimientos reales. Nosotros, desde la neurociencia, trabajamos con redes neuronales y sabemos que el lenguaje de base se parece bastante al funcionamiento del cerebro humano. Pero el riesgo es doble. Que la máquina empiece a tener respuestas cada vez más generalizadas sobre nuestra vida y que nosotros también cambiemos la manera de relacionarnos, pensar o decidir a partir de esa interacción constante con sistemas artificiales.
—¿Le preocupa que la IA pueda mentir?
—De hecho ya pasa. Hace poco le pregunté a un sistema de IA cuándo había muerto el papa Francisco y me respondió que seguía vivo. Insistí varias veces y seguía equivocándose. Después, usando otro modo más complejo de razonamiento, respondió bien. Eso muestra que todavía hay zonas muy problemáticas.
—¿Qué riesgos ve en el avance de la IA?
—Uno de los riesgos es que las máquinas empiecen a tener respuestas cada vez más generalizadas sobre nuestra vida. Y ahí aparece el problema de la regulación. Si esto no está regulado, va a ser muy difícil. Además, los avances en biotenología y bioinformática son cada vez más caros y eso puede ampliar mucho más la brecha social entre quienes pueden acceder a esas tecnologías y quienes no.
—¿La IA puede cambiar también la forma en que se envejece?
—Sí, probablemente. Ya lo está haciendo indirectamente. La expectativa de vida creció muchísimo en el último siglo. Y creo que va a seguir creciendo. No hablo de inmortalidad. Pero sí de vidas mucho más largas.
—¿Y eso es necesariamente bueno?
—No lo sabemos todavía. Toda tecnología trae beneficios y también problemas nuevos. La inteligencia artificial no es distinta. El tema es qué hacemos nosotros con eso.