Faz já tempo que a inteligência artificial chegou para ficar. Assim, a cada vez mais empresas configuram seus produtos com IA para personalizar seus serviços e, como cabia esperar, esta tecnologia também tem chegado ao âmbito da saúde mental.
Os utentes já dispõem de uma ampla variedade de aplicativos gratuitos que funcionam como uma espécie de ChatGPT emocional. Trata-se dos therapy bots e um bom exemplo deles são aplicativos como Wysa, Youper ou Elomia.
Que são os 'therapy bots'?
Os therapy bots são aplicativos de inteligência artificial que estão desenhados para brindar apoio emocional ou ajudar a gerir problemas como a ansiedade e o estrés. Explica-o a Consumidor Global Beatriz González, diretora de Somos Psicólogos.
Estes terapeutas virtuais têm posto em alerta aos psicólogos já que podem converter num problema por vários motivos, entre eles a dependência emocional. "Ao ser tão acessível, pode-se gerar uma dependência. Isto é, eu tenho um problema e em seguida recorro aos therapy bots para que me dêem a solução. A terapia psicológica vai no sentido contrário, é onde te vou gerar independência para poder gerir teus próprios problemas", argumenta González.
O preço a pagar: tua privacidade
Todo o que é grátis leva implícito um custo. No caso dos therapy bots o preço a pagar são os dados, como quase sempre ocorre. Os utentes que recorrem a esta inteligência artificial transladam uma informação muito sensível que não se sabe muito bem a onde vai ou como se protege.
"Nós prometemos o segredo profissional mas nos therapy bots damos livremente dados muito privados que, ademais, alimentam à IA e a ensinam. Então essa informação acaba em empresas e, ao final, também não lemos o que assinamos quando entramos num site. Quando tu vais ao psicólogo estás seguro de que tua informação estará protegida, mas aqui, onde fica a privacidade?", comenta a este meio Saray Falcón, psicóloga. "Há que saber muito bem o funcionamento destas apps, para que se estão a utilizar e para onde vão todos esses dados dantes de se pôr a trabalhar com elas", adverte, por sua vez, González.
Para problemas superficiais
Pese aos riscos, estes therapy bots podem ser uma ferramenta útil em casos determinados. "Pode ser um espaço de escuta em casos nos que o paciente simplesmente precisa ser escutado", confessa Falcón, quem acrescenta: "É como quando em Google procuras 'me dói o pé' e te aconselha se pôr calor. É uma solução rápida mas não está nada personalizado".
Assim, problemas leves relacionados com fobias, ansiedades moderadas ou conselhos para dormir melhor poderiam ser temas que poder-se-iam gerir com estas IA. "Dão-te mais ferramentas para gerir situações mais gerais. Por exemplo, se tenho que falar em público, me dize alguma ferramenta para gerir essa ansiedade, esse estrés", aponta González.
Substitutos dos psicólogos?
Tanto Falcón como González deixam claro que os therapy bots não podem substituir a figura de um psicólogo ou terapeuta. A IA é capaz de dar uma resposta geral mas não um diagnóstico clínico e, muito menos, aprofundar no problema do paciente.
"Há que saber que são ferramentas mais gerais, onde te podem ajudar em certos aspectos, mas não aprofundar sobre tua identidade como pessoa", expõe González.
Uma solução rápida que pode ser um arma de duplo fio
Segundo Falcón, os therapy bots podem chegar a reconhecer a emoção que o utente lhe está a expressar. "Mas ao final realmente é uma empatía simulada, baseada no que tem aprendido analisando algoritmos. Não tem a capacidade de compreender a trascendencia das emoções da pessoa", conclui Falcón.
Assim, ainda que os therapy bots se apresentam como uma solução rápida disponível em nosso telefone móvel, apresentam riscos como vender nossa privacidade a empresas que não conhecemos ou criar uma dependência com um psicólogo que, em realidade, não existe.