Viernes 4 de Julio de 2025

Hoy es Viernes 4 de Julio de 2025 y son las 10:10 -

EDUCACION

3 de julio de 2025

"La inteligencia artificial ya está en las aulas, ahora hay que aprender a usarla con sentido crítico"

En esta entrevista, analiza el impacto de la inteligencia artificial en la universidad, su integración en la enseñanza, los beneficios pero también los riesgos de su uso acrítico. Poner a la persona en el centro de los procesos es la clave.

En el marco de la Feria de las Carreras y con el objetivo de reflexionar sobre los nuevos desafíos que atraviesa la educación superior, Educación SF dialogó con el bioingeniero Leonardo Rufiner, una de las voces autorizadas en materia de inteligencia artificial.

Investigador principal del Conicet y profesor en la Universidad Nacional del Litoral (UNL), y en la Universidad Nacional de Entre Ríos (Uner), Rufiner también dirige el Instituto de Investigación en Señales, Sistemas e Inteligencia Computacional (UNL-Conicet) y el Laboratorio de Cibernética (Uner).

-Recientemente dio una charla en la UNL sobre inteligencia artificial en las aulas. ¿En qué puntos está interpelando la IA a la universidad hoy?

-La inteligencia artificial ya no es algo del futuro, está con nosotros. En las aulas ya es parte del día a día. Como profesor en la nueva carrera de Ingeniería en Inteligencia Artificial en la UNL -que es la primera en este tipo en una universidad pública-, recibo a los estudiantes desde el ingreso y ya llegan con cierto manejo de estas herramientas porque tienen un interés especial.

Pero también doy clases en las carreras de Informática y en Bioingeniería (esta última de Uner), así que esto me da un panorama más amplio. La inteligencia artificial representa un desafío para la enseñanza y hay que ver cómo incorporarla a la práctica docente también.

-¿Qué diferencias nota entre los estudiantes que recién ingresan y los más avanzados con respecto al uso de la IA?

-Los que ingresan desde el secundario enfrentan, además, la transición hacia la vida universitaria y ahí se agrega complejidad al tema. En cambio, los estudiantes más avanzados ya tienen un bagaje técnico y conceptual que permite otro tipo de diálogo y aprovechamiento de las herramientas. Ahí hay que trabajar más el pensamiento crítico y el uso responsable de la IA.

-¿Cuáles son, en su visión, los beneficios y los principales riesgos de la IA en el aprendizaje?

-Simplificando mucho, el beneficio principal es la posibilidad de personalizar el aprendizaje. En cursos iniciales masivos, con 200 estudiantes, es difícil llegar a cada uno en forma personalizada. Y estas herramientas bien utilizadas permiten que el estudiante vaya haciendo preguntas sobre el material, generar resúmenes, hacer mapas mentales, explicar conceptos.

Con criterio, les puede facilitar mucho el entendimiento de los materiales. Pero el riesgo o la desventaja es el uso acrítico, que el estudiante adopte un rol más pasivo, que espere que el ChatGPT les resuelva las tareas y deje de reflexionar y solo entregue lo que el sistema le da, lo que antes era el "copiar y pegar".

Rufiner advierte sobre la tentación en el uso de la IA de sacar a la persona del medio, sobre todo desde visiones que priorizan la eficiencia. "Y eso es peligroso", destaca.Leonardo Rufiner junto a sus alumnos.

El riesgo de esforzarse menos

-¿Es una preocupación entre los docentes que los estudiantes por el uso de la IA se esfuercen menos en los razonamientos, en el proceso reflexivo y creativo que deberían hacer como parte de sus aprendizajes?

-Claramente es una preocupación. Pero hay que entender que esto también depende de la disciplina, del año de cursado, del nivel de conocimiento de los docentes sobre estas herramientas. En mi caso, al trabajar con IA, me resulta más natural integrarla y quizá tengo una ventaja desde ahí.

Pero entiendo que para muchos colegas esto es nuevo, y genera incertidumbre. Por eso, mi enfoque es optimista pero también crítico: debemos enseñar a usar estas herramientas de forma ética en la práctica, ubicando siempre a la persona en el centro del proceso.

-¿Qué significa eso de poner a la persona en el centro?

-Que la persona es quien guía el proceso, quien debe tener claro qué quiere lograr con la herramienta. Si dejamos que sea la IA la que nos conduzca, podemos terminar en cualquier lado. También están los problemas de confianza excesiva, las "alucinaciones" que estos sistemas pueden tener y el riesgo de asumir que son una especie de "oráculo". Y no lo son. Por eso, además de enseñar técnica, hay que reforzar la formación ética, el pensamiento crítico y la responsabilidad profesional, incluso desde primer año.

-¿Qué carreras están siendo más impactadas por el uso de IA?

-Hoy la IA es transversal, pero sin duda está impactando, por ejemplo, en la programación. Apareció la programación asistida por IA, como el "vibe-coding", donde cambia completamente el paradigma y los roles. Se pueden hacer más cosas con menos tiempo y recursos. Esto va a impactar seguramente en las empresas de desarrollo del software como en otras actividades humanas.

Pero igual vuelvo al tema de la persona: para hacer cosas complejas sigue siendo necesario saber programar. En carreras jurídicas también hay impacto; hay procesos que están empezando a ser asistidos por IA: análisis de normas, generación de documentos, búsqueda de jurisprudencia. Y en diseño, imagen, arquitectura, el uso de modelos generativos es cada vez más común.

-¿Y en áreas como matemática o estadística?

-Con el advenimiento de los "modelos razonadores" (ChatGPT, DeepSeek-R1) ya son capaces de resolver problemas lógico-matemáticos más avanzados. Se están usando para optimizar cálculos. Esto no implica que van a desaparecer las carreras pero sí, como en otras disciplinas, hay que incorporarlas al flujo de trabajo. Cada disciplina y profesión tiene que empezar a formarse en estos temas y discutir aplicaciones, generar opciones.

-¿Existen riesgos del uso de fuentes no validadas académicamente a través de estas herramientas? ¿Y cómo lidiar con eso?

-Sí, y es un problema real. Aunque los modelos más recientes incorporan mecanismos para trabajar con fuentes validadas, sigue siendo un riesgo. Entonces el estudiante puede tomar como válido algo que no lo es. Ahí el docente tiene que enseñar a evaluar críticamente las herramientas de IA, a verificar, a no dar por cierto todo lo que dice una máquina. Para eso hace falta formación disciplinar, ética y técnica.

Una clase en la Ingeniería en Inteligencia Artificial de la Fich-UNL.Una clase en la Ingeniería en Inteligencia Artificial de la Fich-UNL.

Evitar caer en el "antropomorfismo"

-¿Diría que la IA siempre debe estar mediada por el humano?

-Depende como cada uno se pare frente a la herramienta. Creo que ese debe ser el punto correcto: la persona en el centro, guiando el proceso. Eso es lo que trato de transmitir a mis alumnos. Ahora, la tentación de sacar a la persona del medio está, sobre todo desde visiones que priorizan la eficiencia. Y eso es peligroso, porque en la medida que cedemos el control, podemos perder habilidades -como ya pasó con el uso de la calculadora-, y porque la IA no es una herramienta cualquiera: puede tomar ciertas decisiones por nosotros si la dejamos.

Hay que evitar caer en el "antropomorfismo", en atribuirles cualidades humanas que no tienen porque obviamente hay palabras en la jerga técnica que son análogas a las que usamos las personas (aprendizajes automáticos, algoritmo de toma de decisiones).

Yo prefiero hablar de "inteligencia simulada" más que "inteligencia artificial", para que se entienda que esto simula la inteligencia humana pero no es la misma inteligencia. Hay que tener cuidado de darle un lugar como si fuera una persona. Son algoritmos complejos, poderosos, pero siguen siendo herramientas creadas por nosotros, son procesos diferentes.

-¿Las universidades deberían generar guías de uso ético de la IA?

-Absolutamente. Ya algunas lo están haciendo. Es importante debatir entre docentes; por supuesto hay libertad de cátedra y cada profesor tomará su decisión. Hay que hablar de beneficios, limitaciones y también desmitificar muchas cuestiones desde el punto de vista técnico porque sino parece que esto es "mágico". Cuando damos cursos para profesionales de otras áreas, siempre mostramos cómo funcionan por dentro estos modelos. Entender cómo operan, ayuda a bajar la ansiedad y a usarlos mejor.

-¿Una última reflexión para los futuros ingresantes a la universidad?

-Que no le tengan miedo a la IA, pero tampoco que la usen de forma irreflexiva. Es una herramienta potente, con mucho para ofrecer, pero siempre debe estar al servicio del pensamiento humano, no reemplazarlo. La universidad debe ser el lugar donde aprendamos a usarla de manera crítica, ética y creativa.

Fuente: El Litoral

COMPARTIR:

Comentarios

Escribir un comentario »

Aun no hay comentarios, sé el primero en escribir uno!