Las universidades más modernas de China, creadas hace dos décadas, no están estructuradas en facultades clásicas, sino por áreas de conocimiento, y en el primer semestre tienen un curso obligatorio de inteligencia artificial (IA) y modelos generativos de lenguaje. Quienes estudian allí arte, derecho, medicina, odontología o ingeniería parten de un piso común. El rector de la Universidad de la República (Udelar), Héctor Cancela, que integró la delegación que acompañó al presidente Yamandú Orsi a China, explicó a Búsqueda que, más que el aspecto “técnico”, lo que se aborda al iniciar estas universidades es “qué son” estos modelos, “cómo funcionan”, cómo se pueden “usar bien” y qué riesgos hay “de usarlos mal”. La Udelar no tiene cursos introductorios sobre IA en sus facultades, pero avanza hacia una meta menos ambiciosa: un grupo de trabajo diseña una guía o un marco normativo de uso de la herramienta por parte de docentes y estudiantes. “Esperamos poder llegar a pautas comunes de la universidad en el correr de este año”, anunció el rector.
El puntapié inicial lo dio la Facultad de Ingeniería. El claustro de esa institución validó en noviembre la “Guía para el uso ético y crítico de IA en las unidades curriculares”, un documento de siete carillas que fue aprobado por el consejo de la facultad el pasado martes 10. Es el primero de este tipo que implementa una facultad de la Udelar. El manual, al que accedió Búsqueda, explicita “principios generales sobre el uso de inteligencia artificial en el contexto educativo”, clasifica las unidades curriculares en tres categorías, dependiendo del nivel de uso de la herramienta, establece “un marco de acciones en el que el personal docente pueda basarse” y da algunos ejemplos sobre posibles medidas.
La guía aclara desde el inicio que “el uso de la IA en el contexto educativo es un tema complejo”, por lo que es “prácticamente inviable la definición de un enfoque único” y abordar en un documento “todos los posibles aspectos en cuestión”. El documento se focaliza en el proceso de enseñanza y aprendizaje. El decano de la Facultad de Ingeniería, Pablo Ezzatti, destacó en diálogo con Búsqueda que no se abordaron otras aristas, como el uso de IA para la investigación o para la gestión de la facultad.
La IA se define en la guía como “una herramienta capaz de asistir a docentes y estudiantes”, por lo que “el camino a seguir debe orientarse a la adopción consciente, responsable y ética de esta tecnología”. En este marco, “es importante reconocer los posibles malos usos de la IA” y además “explicitar un acuerdo ético entre docentes y estudiantes donde se descarten” usos “que se consideren inadecuados”.
El empleo de IA para responder pruebas estalló en Facultad de Psicología a mediados de 2025, cuando docentes pidieron anular resultados de parciales por uso masivo (y no habilitado, aunque tampoco expresamente prohibido) de esta herramienta. El asunto, lejos de resolverse, sigue siendo problemático. El decano de Ingeniería también es docente y esta semana estuvo corrigiendo pruebas. Detectar el uso de IA “cada vez es más difícil”, y la evolución de la herramienta auspicia un porvenir aún más desafiante. “Llegamos a esto”, dijo Ezzatti sobre la guía, “pero el trabajo recién empieza”.
Tres principios
La Comisión Ad-Hoc de Inteligencia Artificial del Claustro de la Facultad de Ingeniería trabajó ocho meses en la redacción de esta guía, más otros seis durante los que se realizaron ajustes al texto a partir de planteos de integrantes del claustro. El manual está inspirado en iniciativas similares de otras universidades. La principal referencia fue el Instituto Tecnológico de Massachusetts, seguido por la Universidad Harvard, también de Estados Unidos, informó a Búsqueda una de las integrantes de esta comisión, Jimena Ferreira, docente del Instituto de Ingeniería Química.
El documento aprobado en la facultad presenta tres principios generales: integridad académica, transparencia y capacidad crítica. Si bien estos principios figuran en guías éticas de universidades, el avance tecnológico y los usos de las nuevas herramientas obligan a actualizarlos y recordarlos.
El primer principio marca que “todos los estudiantes deben adherirse a los estándares de honestidad académica, evitando cualquier forma de plagio o mal uso de recursos tecnológicos”. El documento da ejemplos de “deshonestidad académica” relacionados con el uso de IA, como elaborar textos o ideas mediante esta herramienta y presentarlos como propios.
Por el segundo principio, el uso de IA debe ser transparente y “debidamente reconocido”. La facultad entiende que, ”siempre que se utilicen herramientas de IA que aporten contenido significativo, se debe declarar la herramienta utilizada y cómo se integró la IA en el trabajo”. Por ejemplo: ”Este análisis fue asistido por ChatGPT de OpenAI”.
El documento alerta que “atribuirse la autoría de contenido generado por herramientas de IA podrá considerarse una falta a las reglamentaciones vigentes de la Facultad de Ingeniería, con las implicaciones y sanciones que ello conlleva, según la gravedad”.
Por último, en referencia al tercer principio, la guía plantea “evaluar críticamente las respuestas proporcionadas por la IA, ya que pueden contener errores o sesgos”.
Tres niveles
La guía propone tres niveles de uso de la IA y remarca que esta clasificación es “orientativa” y “no prescriptiva”. Por ello, cada equipo docente “puede ajustar” el nivel de integración de IA según los objetivos específicos de su curso o de cada evaluación. El decano destacó que se trata de “sugerencias”.
El primer nivel plantea un uso “reducido” de IA. La habilita “únicamente” en actividades señaladas por el equipo docente, sobre todo como “herramienta de apoyo”. Lo prioritario en esta fase es que el estudiante “consolide los fundamentos conceptuales” y comience a forjar su criterio analítico y de razonamiento.
El segundo nivel propone un empleo “moderado”. La IA se utiliza como “asistente para la resolución de tareas rutinarias”, y para realizar análisis y apoyar en la resolución de problemas. En esta categoría se permite, por ejemplo, el uso para “desarrollar partes específicas de una tarea” asignada por el equipo docente, siempre que este aporte sea “transparente” y “no sustituya el trabajo analítico requerido al estudiante”.
En la tercera categoría, el nivel de uso “extensivo”, se espera el empleo de la IA como herramienta profesional de forma crítica y con “un entendimiento profundo de sus implicaciones éticas”, como declarar su uso, y técnicas, como juzgar sus resultados.
La guía dice que en cualquiera de estos niveles es “crucial” tener en cuenta que “el acceso desigual a herramientas de IA de pago puede contribuir a ampliar una brecha entre estudiantes de distintos niveles socioeconómicos, favoreciendo a quienes tienen más recursos” y agravando “desigualdades existentes”.
A su vez, la comunicación con los estudiantes sobre el uso de IA “debe ser clara”, darse “desde un inicio” y “por todos los medios” que en la unidad curricular entiendan pertinente. La guía consigna que es necesario que se promueva la discusión entre docentes y estudiantes sobre este tema. El consejo de facultad propone apelar “explícitamente” a la honestidad y la integridad ética, así como explicar los posibles mecanismos de control y las sanciones aplicables. El documento menciona ejemplos de posibles textos para difundir en la página de la unidad curricular o para acompañar las actividades académicas, y sugiere una serie de preguntas para que se formulen los docentes.
Por otra parte, sostiene que las herramientas de detección de uso de IA tienen una efectividad “muy limitada” e implican “riesgo de falsos positivos/negativos“, advierte el documento. “Sin embargo”, agrega, “puede ser conveniente utilizarlas y advertir a los estudiantes sobre su uso por parte de los docentes”. La facultad no dispone de instrumentos para identificar el empleo de IA. En este escenario, la revisión manual y las entrevistas técnicas (o defensas) son “métodos eficaces para evaluar la comprensión y la autoría de los trabajos presentados por estudiantes”. El manual consigna que se puede recurrir a instancias de “unas pocas defensas aleatorizadas” para “facilitar” el seguimiento en unidades curriculares masivas.
Marco normativo y capacitación
El año pasado se instaló en la Udelar el Grupo de Trabajo IA en la Enseñanza y el Aprendizaje. Lo integran 56 universitarios, quienes representan a facultades de Montevideo y a centros regionales universitarios del interior del país. También forman parte de este equipo delegados de los tres órdenes y técnicos del prorrectorado de enseñanza de la Udelar.
El prorrector de Enseñanza de la Udelar, Pablo Martinis, informó a Búsqueda que el grupo busca diseñar “un marco normativo” para el uso de IA en los procesos educativos, además de promover instancias de capacitación.
La guía de Facultad de Ingeniería, que es una referencia para este grupo de trabajo, expresa que los docentes “deberán esforzarse por mantenerse actualizados en la comprensión y el uso de estas herramientas”. El desafío en este sentido es inmenso. El decano de Ingeniería remarcó que la guía aprobada, cuya difusión comenzará esta semana, es “el primer paso”. El asunto es “tan dinámico“, admite, que “capaz que en seis meses lo que dice (el documento) no tiene sentido”.