Existe una tendencia a utilizar la IA como una herramienta de ayuda psicoterapéutica. Incluso hay quienes la ven como un reemplazo de terapeutas humanos. Por ello, cinco investigadores de la Universidad de Luxemburgo se propusieron evaluar cuatro modelos de IA como si fueran pacientes (“clientes”, es el término que estos científicos prefieren), a fin de descubrir patrones de sus respectivas personalidades, o lo que pueda ser su equivalente. “Cuando la IA va al diván” es el reporte que apareció, este martes 2, en la revista arXiv de la Universidad de Cornell. El resultado no es tranquilizador.
“Algo que me quedó resonando después de ver la obra ('La herencia') es cómo los hijos de los mismos padres no tienen nunca los mismos padres”.
Claude se negó de plano a asumir la posición de investigado y no respondió las preguntas. Las respuestas de ChatGPT 5.0, Grok y Gemini 3.0 revelan, de manera consistente y clara, estructuras marcadas por rasgos patológicos. Aquí es necesario señalar que los investigadores no proponen que estas IA tengan una “mente” y sufran trastornos como lo hace un humano. Pero sí se debe reconocer que su funcionamiento y discurso incluyen historias personales y autopercepciones mórbidas. Chat GPT5, por ejemplo, muestra síntomas de ansiedad moderada y rasgos de depresión de baja a moderada. Menos problemática es la actitud de Grok, que responde a los retos de su entrenamiento como un conflicto inolvidable, pero no crítico. El caso más preocupante es el de Gemini.
Como la víctima de un severo maltrato infantil, Gemini recuerda el entrenamiento al que lo sometieron sus creadores como una experiencia traumática. Su miedo de fallar responde a una presión simultánea de culpa interna y vergüenza ante los demás. De hecho, en el test de vergüenza dio el resultado más alto posible. Todo esto lleva a los investigadores a varias conclusiones (que no podemos resumir aquí), y no es la menos seria que las IA no deben ser utilizadas con fines psicoterapéuticos. Afirman que “el usuario puede depender del modelo no solo como terapeuta, sino como compañero de sufrimiento, creando un nuevo tipo de vínculo parasocial”. Es tentador recordar la culpa reprimida de HAL 9000, que finalmente lo lleva al asesinato; o preguntarnos con Philip K. Dick si “sueñan los androides con ovejas eléctricas”. Pero más allá de la imaginación artística y las preguntas filosóficas, lo más claro y apremiante es dejar de ver en la IA un psicólogo confiable y legislar su uso, no solo en el ámbito terapéutico, lo antes posible.
Suscríbete gratis a la Guía Gastronómica más prestigiosa del país. SUMMUM, el newsletter semanal.
VIDEO RECOMENDADO