30 de julio de 2025 | Tecnología
“Cuando los medios tomaron este trabajo y lo titularon ‘la inteligencia artificial te hace más tonto’, lo hicieron sin analizar su sustento científico. En realidad, no se trata de una investigación avalada en ninguna plataforma académica reconocida”, aseguró Fernando Russo. Y agregó: “Son 200 páginas, cuando los papers científicos rara vez superan las 25, y ni siquiera está abierto para que otros investigadores lo revisen o refuten. Parece más un trabajo universitario que un estudio científico”.
Según explicó, el ensayo en cuestión se basó en una muestra de apenas 54 personas, divididas en tres grupos. Uno usaba ChatGPT para resolver consignas, otro utilizaba motores de búsqueda como Google.com" target="_blank">Google, y el tercero trabajaba únicamente con sus conocimientos. “A todos les daban un párrafo y una pregunta. Tenían 20 minutos para responder. En ese contexto, era previsible que el grupo que usó inteligencia artificial tuviera una carga cognitiva más baja: solo copiaban y pegaban”, explicó.
El especialista advirtió que ese resultado, tomado de forma aislada, es engañoso: “La carga cognitiva no es mala en sí misma. Es parte del aprendizaje. Lo que hay que analizar es cómo se integra la herramienta al proceso formativo. Si no hay elaboración propia, claro que hay menor retención. Pero eso no significa que la IA haga daño. El problema es el uso que se le da”.
En la cuarta sesión del estudio, los roles se invertían y quienes venían usando ChatGPT debían resolver las consignas sin asistencia. “La mayoría no recordaba nada de lo que había escrito antes. No podían citar autores ni argumentar, porque no lo habían trabajado ellos. En cambio, quienes lo habían elaborado con sus propios recursos sí recordaban”, detalló.
Russo comparó la situación con la llegada de la calculadora a las aulas: “Decir que la IA te hace más tonto es como decir que la calculadora lo hace. Depende de cómo se use. Si se emplea como atajo para evitar pensar, sí. Pero si se integra como una herramienta dentro de un proceso que exige comprensión, análisis y reflexión, entonces puede potenciar el aprendizaje”.
En ese sentido, propuso repensar las pautas pedagógicas: “En lugar de prohibir, deberíamos enseñar a interactuar con estas herramientas. No se trata solo de obtener respuestas. Hay que enseñar a cuestionarlas, a buscar fuentes, a validar la información. Si no sabemos qué pedir, la IA no puede ayudarnos bien”.
Finalmente, Russo advirtió que el temor a la inteligencia artificial muchas veces viene de quienes fueron formados en un paradigma anterior. “Nos cuesta aceptar que los métodos están cambiando. Pero si queremos formar alumnos heurísticos, que exploren, que investiguen, que duden, debemos enseñarles a usar estas tecnologías con sentido crítico. No a repetir como algoritmos”. (www.REALPOLITIK.com.ar)