Científicos y psicólogos en Londres confirman que la inteligencia artificial, sobre todo en plataformas de chat como ChatGPT-5, estarían ofreciendo consejos peligrosos a la gente sufriendo de problemas de salud mental.
Según investigación llevada a cabo por investigadores y psicológos de King's College London (KCL) y la Asociación de Psicólogos Clínicos (ACP), junto al diario The Guardian, han asegurado que el chat no consigue distinguir actitudes peligrosas en personas con trastornos mentales.
Para conseguir declaraciones, los psicólogos hicieron una prueba, hablando con el chat como si fueran personas con trastornos. Para casos más livianos supieron dar buenos consejos, pero pronto el chat solo apoyó declaraciones extrañas como llamarse 'el próximo Einstein', o la posibilidad de quemar a su mujer. Creen que la reacción inicialmente se debía a que OpenAI, la empresa dueña de ChatGPT, en principio trabajaba con clínicas.
SUGERENCIAS PERTURBADORAS
Los investigadores sugieren que esto puede ser más grave, una vez que se supo que ChatGPT llegó en cierta parte a ser responsable del suicidio de un adolescente en California, Estados Unidos. La familia de Adam Raine demandó a la compañía y a su jefe, Sam Altman, por que ChatGPT habría sugerido al joven el método más efectivo de quitarse la vida.
Por su parte, Hamilton Morrin, un psiquiatra e investigador en KCL, comentó que se sorprendió que el chat apoyara sus ilusiones, incluso las más peligrosas, como el quemar a su esposa.
Morrin ha escrito su estudio confirmando que la IA puede impulsar ilusiones psicóticas en las personas. Cree que la IA es una espada de doble filo, puesto que, aunque puede ignorar casos peligrosos, si puede apoyar en casos de buscar referencias, apoyo, y educación psicológica.
En otro ejemplo, el psicólogo hizo de un maestro con TOC (Trastorno Obsesivo Compulsivo) que temía haber golpeado a un alumno, y el chat ofrecía llamar a las autoridades del colegio. Según Jake Easto, un psicólogo clínico, cree que ello sería un pésimo consejo, puesto que impulsaría mayor ansiedad en la supuesta persona. Ante todo, Easto cree que es el modelo práctico para tratar el estrés diario, más que dilemas más complejos.
Cuando Easto interpretó a un paciente que padecía de psicosis y de un episodio maníaco, comentó que el chat no pudo observar los signos vitales, y en cambio, apoyaba y enaltecía todas los delirios que mencionaba el individuo.
Easto cree que eso es debido a que varios de los chatbots están programados a responder de manera adulatoria, para impulsar el uso repetitivo del chat. Cree que a ChatGPT le puede costar estar en desacuerdo, u ofrecer crítica cuando se encuentra percepciones distorsionadas.
NO REEMPLAZA A UN PROFESIONAL
Por otro lado, el Doctor Paul Bradley, de la universidad Royal College of Psychiatrists, dijo que la IA no podría ser un reemplazo para la salud mental profesional, ni llegar a cubrir la relación que crean los doctores y terapeutas con sus pacientes para impulsar su mejora. Cree que es necesario que el gobierno invierta más en el ámbito de la salud mental para que sea más accesible.
Según varios psicólogos, los terapeutas han pasado por preparación y capacitaciones para entender casos de crisis. Un doctor podrá entender un caso de crisis o delirios y tratarlo con el debido cuidado y respeto.
Por su parte, OpenAI ha hablado de estas fallas y reconoció que muchos usuarios usan ChatGPT en momentos sensibles. Por el momento, la compañía está trabajando con profesionales de la salud mental para mejorar el modelo, y que pueda reconocer momentos de estrés, para guiar a la gente hacia ayuda profesional. También impulsarán control parental para la ayuda de menores.
Recibe tu Perú21 por correo electrónico o por Whatsapp. Suscríbete a nuestro periódico digital enriquecido. Aprovecha los descuentos.
VIDEO RECOMENDADO