“La inteligencia artificial es una herramienta muy poderosa, pero no podemos dejar de lado nuestro propio criterio humano al usarla, porque efectivamente a veces se equivoca”, advirtió Ingrid Toppelberg al comenzar la entrevista desde los estudios ubicados en el balneario Poseidón. En ese sentido, explicó que los modelos de IA funcionan como grandes sistemas estadísticos que aprenden de datos del pasado para encontrar patrones y proyectar respuestas hacia el futuro.
Sin embargo, alertó que cuando esos datos están sesgados, incompletos o fueron recopilados en contextos distintos a los actuales, los resultados pueden ser erróneos. “Si los datos del pasado están equivocados o responden a condiciones diferentes, la inteligencia artificial va a devolver un mal resultado. Ahí es donde nosotros tenemos que aplicar nuestro criterio”, sostuvo.
Para ejemplificarlo, Toppelberg se refirió al uso de la IA en proyecciones económicas: “Si querés proyectar ventas en Argentina usando información de los últimos diez años, probablemente no te sirva, porque las condiciones del país cambiaron muchísimo. Proyectar escenarios de hiperinflación o restricciones a las importaciones hacia el futuro puede llevar a conclusiones equivocadas”.
Otro de los puntos centrales de la entrevista fue el fenómeno de las “alucinaciones” de la inteligencia artificial. “A veces la IA te responde con total seguridad, pero con un delirio. Puede inventar hechos o construir historias completamente falsas que suenan muy convincentes”, explicó. Frente a esto, recomendó contrastar la información: “Si le pregunto algo que no conozco, copio la respuesta y la chequeo con otra inteligencia artificial. La probabilidad de que las dos alucinen al mismo tiempo es muy baja”.
En relación con el impacto en la educación, Toppelberg señaló que cada vez más jóvenes utilizan la IA para estudiar, resumir textos o rendir exámenes, lo que plantea nuevos desafíos. “Todavía no tenemos claro cómo necesita evolucionar la educación para que sea efectiva. El examen tradicional pierde relevancia cuando toda la información está disponible”, reflexionó, y agregó que el foco debería estar en aprender a procesar información y desarrollar una mirada crítica.
Asimismo, comparó el uso de la inteligencia artificial con el trabajo de un pasante: “Hay que darle contexto, explicarle qué queremos lograr, en qué formato y cómo tiene que pensar. Si no le damos esas coordenadas, hace lo que puede y quizás no alcanza la calidad que buscamos”.
Consultada sobre el temor a que la IA reemplace a las personas, Toppelberg fue contundente: “La inteligencia artificial tiene muy mala prensa porque desde chicos nos muestran que va a controlar el mundo, como en Matrix. Pero yo la veo como una herramienta para potenciar nuestras habilidades, no para reemplarnos”. En ese sentido, contó que la utiliza para diseñar o escribir cuentos, actividades que no forman parte de su formación original, pero que le permiten ampliar sus capacidades.
Finalmente, recomendó distintas herramientas según el uso que se les quiera dar. “En términos generales, ChatGPT es la más completa. Perplexity es mejor para búsquedas online en tiempo real, y Claude escribe de manera más natural, ideal para quienes generan contenido”, explicó.
“Las herramientas cambian todo el tiempo. Lo importante no es cuál usás, sino cómo te acercás al problema, cómo preguntás y cómo aprendés”, concluyó. (www.REALPOLITIK.com.ar)