¿Puede la IA convertirse en psicólogo? ¿Puedo usar ChatGPT para terapia?
Contarle los problemas a ChatGPT es algo cada vez más común. En ocasiones, la máquina puede emular casi a la perfección la dinámica de una consulta por salud mental. No obstante, no porque sea posible significa que es una buena idea.
Chile es uno de los países que lidera el uso de inteligencia artificial en Latinoamérica, y aunque puede ser muy útil en muchos aspectos, es importante recordar que su uso no está recomendado en todas las áreas de nuestra vida cotidiana.
En ese sentido, tres académicas de la Universidad Católica explicaron, mediante un comunicado, cuáles son los límites de esta tecnología en materia de salud mental.
¿Puedo usar ChatGPT como psicólogo?
“Puede hacernos sentir escuchados o darnos herramientas de autoayuda, pero no reemplaza lo que puede hacer un profesional”, afirma la académica Paula Errázuriz, desde la Escuela de Psicología de la UC.
La profesional aseguró que ha notado que cada vez más pacientes conversan con ChatGPT antes de ir a terapia. No obstante, hizo énfasis en que en casos de angustia, síntomas graves o de riesgo vital, acudir a la inteligencia artificial es en realidad un peligro. “Una persona con riesgo no debe descansar en lo que le digan estas herramientas”, enfatiza.
No obstante, la profesional también concede que mucha gente opta por la inteligencia artificial por ser de fácil acceso. “A veces no es fácil conseguir atención en salud mental. Puede haber listas de espera larga o sesiones que no tienen la frecuencia que la persona necesita, o puede ser muy cara”, plantea.
Diseñado para mantener al usuario enganchado
Jocelyn Dunstan, investigadora en IA del Departamento de Ciencia de la Computación (Facultad de Ingeniería) también reconoce otra fortaleza de estas herramientas: ordenar ideas o detectar urgencias, pero pone una alerta: “Estos sistemas pueden apoyar la gestión clínica, no reemplazar la consulta psicológica”.
Parte del problema es que están diseñados para mantener al usuario enganchado, no necesariamente para actuar con responsabilidad emocional.
La académica resalta también un punto muy importante que olvidamos al usar este tipo de plataformas: “modelos como ChatGPT no siempre tienen la razón y es necesario estar alerta y poder aplicar criterio a la hora de leer una respuesta. El negocio de estos servicios es interactuar la mayor cantidad de tiempo posible, por lo que es rentable hacer la inteligencia artificial y otros sistemas, aduladores y cercanos”.
A esto se suman los sesgos en los modelos de IA, que pueden ser invisibles, pero profundos. Arriagada-Bruneau lo explica así: “Muchos de estos sistemas están entrenados con textos anglosajones y racionalistas. No entienden del todo el contexto personal, cultural o emocional del usuario”.
Una respuesta sin juicio
La académica del Instituto de Éticas Aplicadas, Gabriela Arriagada-Bruneau, observa que muchas personas —especialmente jóvenes— buscan en la IA una respuesta que carece de juicio.
“Es una paradoja: buscamos consuelo emocional en un mundo automatizado”, explica. Esa sensación de compañía inmediata puede generar dependencia emocional. “Conversar con un modelo como ChatGPT puede parecer más fácil que hablar con un amigo o familiar. Pero eso no significa que sea mejor”, añade.
Además, según Arriagada, la inteligencia artificial también responde a otra solicitud de la gente más joven, “entrega el confort de obtener esa respuesta inmediata y les permite obtener una respuesta, quizás, más personalizada”.
Posibles soluciones al uso de IA como terapia
Gabriela Arriagada propone “diseñar arquitecturas que promuevan una autonomía mucho más crítica y la prevención de estas dependencias emocionales”.
Según explica, esto podría traducirse en cosas simples como mecanismos de alerta que reconozcan patrones de interacción. “Por ejemplo, que sugieran algún estado de crisis en las personas, con redireccionamiento automático hacia recursos profesionales, limitaciones en el número de interacciones continuas vinculadas a temáticas sensibles”, sugiere.
“Una posible aplicación para aplicar esta tecnología a la salud mental sería un clasificador que, de acuerdo al diálogo, indique el grado de urgencia de una consulta psicológica”, propone Dunstan.
En tanto, y mientras esta tecnología no esté aplicada formalmente, la académica de Psicología UC hace un llamado final “a que las personas, a pesar de encontrar quizá un alivio más fácil y más a la mano con la inteligencia artificial, no dejen de hacer el esfuerzo de generar contactos con otras personas en su entorno”.
“Ojalá el contacto cara a cara, si eso no es posible, al menos por videoconferencia, si eso no es posible, por teléfono, y si eso no es posible, recién optar por WhatsApp, pero no perder los vínculos humanos”, recalcó.