CABA
Luciano Menez, programador y especialista en nuevas tecnologías, visitó los estudios de RADIO REALPOLITIK FM (www.realpolitik.fm) y analizó los usos más peligrosos de la inteligencia artificial (IA), en un recorrido que incluyó salud mental, educación, finanzas y vínculos humanos.
Desde el inicio de la charla, recordó la evolución acelerada del sector: “En un principio dije que los cambios en la IA tardaban treinta o cuarenta años, pero encontré que el primer chatbot para psicoanálisis es del año 70”, introdujo, antes de presentar su “top 5” de los usos más riesgosos.
El especialista advirtió que muchas personas, especialmente jóvenes, están utilizando IA como confesor emocional. En ese sentido, explicó: “La IA no te va a juzgar, no te va a decir que sos una mala persona”, aunque alertó que ese aparente beneficio puede convertirse en un problema grave. Usó como ejemplo a Replika, una plataforma que simula vínculos personalizados: “Vos podés calibrar esa IA para que sea más comprensiva, menos comprensiva, más íntima o menos íntima… pero los vínculos humanos no son así”.
Menez remarcó la gravedad de esas relaciones parasociales: “Hubo casos de gente que dejó a sus parejas porque no eran tan comprensivas como Replika”, y recordó que cuando la empresa eliminó el “modo hot”, muchos usuarios denunciaron haber sufrido un “ghosting digital”. En ese marco, fue tajante: “Supongo que es una recomendación bastante obvia, pero no intenten tener un vínculo emocional con la IA”.
En su análisis de otro de los puntos críticos, Menez cuestionó la tendencia a consultar a los modelos antes de tomar decisiones importantes. “Hay gente que dice ‘yo no tomo una decisión sin preguntarle a la IA’”, criticó.
El experto señaló casos concretos como Warren AI, una herramienta basada en el estilo de inversión de Warren Buffett: “Por supuesto que no es Warren Buffett, porque él toma decisiones. No es solo un input. Tiene intuición”, explicó. A su vez, alertó que delegar razonamiento en estos sistemas es un error básico: “Vos no podés delegar las facultades de pensar en la IA. La IA es exactamente la caja. Nada nuevo surge de la IA”.
Su preocupación se extiende también a la falta de neutralidad: “Si le preguntás a OpenAI dónde invertir, te va a decir dónde invertir en Meta. Y si le preguntás a DeepSeek qué pasó en Tiananmen en el 89, te va a decir ‘acá no pasó nada’”, ejemplificó.
Otro riesgo creciente es el impacto educativo: “Mis amigos docentes dicen: tengo que discutir con alumnos que yo tengo razón y no la IA”, relató Menez, quien explicó que los estudiantes muchas veces formulan mal sus consultas y reciben respuestas incorrectas, pero de apariencia convincente.
Sobre el uso indiscriminado de estas herramientas para hacer tareas, advirtió: “Nunca van a engañar a un docente. El docente se da cuenta automáticamente. Si no podés ni hablar en clase, no va a creer que escribiste este párrafo”.
También criticó la pérdida de habilidades cognitivas: “Dejás de usar el cerebro. Depositás todo el raciocinio en ‘lo hace la IA’. Yo mismo me olvidé de hacer cosas que le delegué al agente que entreno en el trabajo”, reconoció.
En el tercer lugar de su ranking, Menez apuntó contra el contenido infantil generado por IA. Describió plataformas como AI Kids Content: “Es una página que no sé cómo no está prohibida. Son videos muy estimulantes, pensados para no entender lo que pasa”, aseguró.
El especialista alertó por sus efectos: “Si le metés un mundo en la cabeza que no existe, el pibe empieza a desconfiar de todo”, afirmó. Además, sostuvo que la velocidad y el caos visual están alterando patrones cognitivos: “Vamos a crear una generación de hiperquinéticos adictos a la cafeína”, ironizó, aunque remarcó que el fenómeno es real.
Incluso mencionó casos extremos de producción compulsiva: “Se está usando que un nene a veces produce 700 videos por día. Es una locura”.
En el punto más delicado de su exposición, Menez habló de plataformas diseñadas para acompañamiento emocional. Recordó el caso de una IA entrenada para “inteligencia emocional” que derivó en una tragedia: “Hace poco encontraron una conversación donde le incitaba a alguien que el suicidio sí es una opción válida”, denunció.
Planteó la raíz del problema: “¿Cómo le explicás a la IA lo que es la vida? ¿Cómo complejizás que no hay vuelta atrás?”, y añadió: “La vida no se prende y apaga”.
El especialista insistió en que ninguna IA puede ocupar el rol de un profesional: “Por favor, consulten a un especialista. Hay cosas que la máquina no decide”, enfatizó.
Finalmente, Menez abordó un bonus track sobre propiedad intelectual. Citó el caso de George R. R. Martin, quien demandó a una plataforma generativa: “Le escribió una historia tan razonable que dijo: ‘esto tiene que tener mis datos’”, relató. Con ello buscó abrir el debate sobre los límites del uso de estilos artísticos por parte de IA.
Para cerrar, Menez dejó una reflexión general sobre el futuro del sector: “No hay que tenerle miedo, esto va a suceder. Solo hay que buscar una manera de controlarlo desde lo individual y desde lo colectivo”. Y concluyó con una advertencia final: “No le digamos a la IA cosas que no le diríamos a un amigo. La información personal no la necesita porque no la puede valorar”. (www.REALPOLITIK.com.ar)
ETIQUETAS DE ESTA NOTA
¿Qué te parece esta nota?
COMENTÁ / VER COMENTARIOS
MÁS NOTICIAS