'Therapy bots' o cómo la IA gratis de apoyo emocional acaba pasando factura
Estas herramientas digitales actúan como psicólogos pero los expertos advierten de los peligros que pueden acarrear y hasta qué punto pueden brindan una ayuda útil

Hace ya tiempo que la inteligencia artificial llegó para quedarse. Así, cada vez más empresas configuran sus productos con IA para personalizar sus servicios y, como cabía esperar, esta tecnología también ha llegado al ámbito de la salud mental.
Los usuarios ya disponen de una amplia variedad de aplicaciones gratuitas que funcionan como una especie de ChatGPT emocional. Se trata de los therapy bots y un buen ejemplo de ellos son aplicaciones como Wysa, Youper o Elomia.
¿Qué son los 'therapy bots'?
Los therapy bots son aplicaciones de inteligencia artificial que están diseñados para brindar apoyo emocional o ayudar a gestionar problemas como la ansiedad y el estrés. Lo explica a Consumidor Global Beatriz González, directora de Somos Psicólogos.

Estos terapeutas virtuales han puesto en alerta a los psicólogos ya que pueden convertirse en un problema por varios motivos, entre ellos la dependencia emocional. "Al ser tan accesible, se puede generar una dependencia. Es decir, yo tengo un problema y enseguida recurro a los therapy bots para que me den la solución. La terapia psicológica va en el sentido contrario, es donde te voy a generar independencia para poder gestionar tus propios problemas", argumenta González.
El precio a pagar: tu privacidad
Todo lo que es gratis lleva implícito un coste. En el caso de los therapy bots el precio a pagar son los datos, como casi siempre ocurre. Los usuarios que recurren a esta inteligencia artificial trasladan una información muy sensible que no se sabe muy bien a dónde va o cómo se protege.

"Nosotros prometemos el secreto profesional pero en los therapy bots damos libremente datos muy privados que, además, alimentan a la IA y la enseñan. Entonces esa información acaba en empresas y, al final, tampoco leemos lo que firmamos cuando entramos en una web. Cuando tú vas al psicólogo estás seguro de que tu información estará protegida, pero aquí, ¿dónde queda la privacidad?", comenta a este medio Saray Falcón, psicóloga. "Hay que saber muy bien el funcionamiento de estas apps, para qué se están utilizando y hacia dónde van todos esos datos antes de ponerse a trabajar con ellas", advierte, por su parte, González.
Para problemas superficiales
Pese a los riesgos, estos therapy bots pueden ser una herramienta útil en casos determinados. "Puede ser un espacio de escucha en casos en los que el paciente simplemente necesita ser escuchado", confiesa Falcón, quien añade: "Es como cuando en Google buscas 'me duele el pie' y te aconseja ponerse calor. Es una solución rápida pero no está nada personalizada".
Así, problemas leves relacionados con fobias, ansiedades moderadas o consejos para dormir mejor podrían ser temas que se podrían gestionar con estas IA. "Te dan más herramientas para gestionar situaciones más generales. Por ejemplo, si tengo que hablar en público, dime alguna herramienta para gestionar esa ansiedad, ese estrés", apunta González.

¿Sustitutos de los psicólogos?
Tanto Falcón como González dejan claro que los therapy bots no pueden sustituir la figura de un psicólogo o terapeuta. La IA es capaz de dar una respuesta general pero no un diagnóstico clínico y, mucho menos, profundizar en el problema del paciente.
"Hay que saber que son herramientas más generales, donde te pueden ayudar en ciertos aspectos, pero no profundizar sobre tu identidad como persona", expone González.
Una solución rápida que puede ser un arma de doble filo
Según Falcón, los therapy bots pueden llegar a reconocer la emoción que el usuario le está expresando. "Pero al final realmente es una empatía simulada, basada en lo que ha aprendido analizando algoritmos. No tiene la capacidad de comprender la trascendencia de las emociones de la persona", concluye Falcón.
Así, aunque los therapy bots se presentan como una solución rápida disponible en nuestro teléfono móvil, presentan riesgos como vender nuestra privacidad a empresas que no conocemos o crear una dependencia con un psicólogo que, en realidad, no existe.