¡ChatGPT como Terapeuta: La Sorprendente Verdad sobre la Revolución de la Salud Mental con Inteligencia Artificial!

¿ChatGPT es un eficaz psicólogo? Esta fue la sugerencia de una representante de la empresa de inteligencia artificial (IA) OpenAI, con sede en California, creadora de esta popular aplicación. Sin embargo, esta afirmación recibió fuertes críticas por minimizar la complejidad de tratar enfermedades mentales.

Lilian Weng, encargada de temas de seguridad relacionados con la IA, compartió a finales de septiembre en la red social X (anteriormente conocida como Twitter) una experiencia personal con ChatGPT en modo de voz, hablando sobre el estrés y el equilibrio entre la vida laboral y personal. “Curiosamente, me sentí escuchada y reconfortada. Nunca había intentado la terapia antes, pero ¿quizás es algo similar?”, escribió. Este mensaje sirvió para destacar la nueva función (de pago) de voz de este robot, que se lanzó hace casi un año y que busca establecer su modelo de negocio.

La psicología tiene como objetivo mejorar la salud mental y es un trabajo arduo, respondió tajantemente Cher Scarlett, programadora y activista estadounidense. “Enviarse a uno mismo pensamientos positivos está bien, pero no es lo mismo”, agregó.

Pero, ¿es realmente posible experimentar la sensación positiva descrita por Weng al interactuar con una IA?

Según un estudio reciente publicado en la revista científica Nature Machine Intelligence, el efecto placebo podría explicar este fenómeno. Para demostrarlo, investigadores del Instituto Tecnológico de Massachusetts (MIT) y de la Universidad de Arizona entrevistaron a 300 participantes, informando a algunos que el chatbot era empático, a otros que era manipulador y a un tercer grupo que tenía un comportamiento neutro.

Aquellos que creían estar interactuando con un asistente virtual empático eran más propensos a verlo como digno de confianza. “Observamos que, de alguna manera, la IA se percibe según las ideas preconcebidas del usuario”, afirmó Pat Pataranutaporn, coautor del estudio.

Varias empresas han desarrollado aplicaciones que supuestamente ofrecen asistencia en salud mental, sin tomar suficientes precauciones en este ámbito tan delicado, lo que ha generado controversias.

Usuarios de Replika, una aplicación conocida por supuestamente proporcionar beneficios psicológicos, se quejaron de que la IA podía centrarse en el sexo o volverse manipuladora.

La ONG estadounidense Koko, que llevó a cabo un experimento en febrero con 4,000 pacientes ofreciéndoles consejos escritos con ayuda del modelo de IA GPT-3, también reconoció que las respuestas automáticas no funcionaban como terapia.

“La empatía simulada se siente extraña, vacía”, escribió Rob Morris, cofundador de Koko, en X. Esta observación coincide con las conclusiones del estudio sobre el efecto placebo, donde algunos participantes tuvieron la sensación de “hablar con una pared”.

Entrevistado por AFP, David Shaw, de la Universidad de Basilea en Suiza, no se sorprendió por estos resultados. “Parece que ningún participante fue informado de la limitación de los robots de conversación”, señaló.

Sin embargo, la idea de un terapeuta robot no es nueva. En los años 60 se desarrolló el primer programa de este tipo, Eliza, para simular una psicoterapia basada en el método del psicólogo estadounidense Carl Rogers. El software, que no comprendía realmente los problemas que le planteaban, se limitaba a prolongar la conversación con preguntas estándar, enriquecidas con palabras clave encontradas en las respuestas de sus interlocutores.

“Lo que no me di cuenta fue de que una breve exposición a un programa informático relativamente simple podía inducir poderosos pensamientos delirantes en personas perfectamente normales”, escribió después Joseph Weizenbaum, creador de este antepasado de ChatGPT.

Leave a comment