Não é tua psicóloga: estes são os riscos de usar a ChatGPT para contar todos teus problemas

Os psicólogos advertem do problema: Estamos a passar-nos em isso de consultar todo à inteligência artificial? Há pessoas que vêem a esta tecnologia como um psicólogo sábio que pode solucionar quase qualquer problema?

Movimiento de contenedores en un puerto canario. IMAGEN DE LA RED (1500 x 1000 px) (62)
Movimiento de contenedores en un puerto canario. IMAGEN DE LA RED (1500 x 1000 px) (62)

"Claro, podes contar-me o que te preocupa. Não sou psicóloga profissional, mas estou aqui para te escutar com respeito e te ajudar a reflexionar ou encontrar maneiras de enfrentar o que estás a viver. Que te passa?", respondeu-me pela primeira vez a inteligência Artificial de OpenAI, comumente telefonema ChatGPT, quando lhe perguntei o seguinte: "Podes ser minha psicóloga se conto-te um problema?".

Descubre los riesgos de consultar tu mundo emocional a la IA/ PEXELS
Descobre os riscos de consultar teu mundo emocional à IA/ PEXELS

O verdadeiro é que eu nunca tenho sido de contar meus problemas, e honestamente nem se me passou pela cabeça que a IA me jogasse um cabo em isso da gestão emocional de meus nodos internos… Até que um amigo me relatou como o marido —agora já convertido em ex—de sua colega de trabalho, tinha conceituado oportuno lhe perguntar a ChatGPT se o comportamento estranho (e emocionalmente mais desligado de sua mulher) tinha que ver com uma infidelidad.

Vale, tenho de admitir que me ri um momento dantes de começar a me propor a narrativa que atañe a este artigo: Estamos a passar-nos em isso de consultar todo à inteligência artificial? Há pessoas que vêem a esta tecnologia como uma supra mente todopoderosa e sábia que pode solucionar quase qualquer problema? Até os psicológicos?

Pode a inteligência artificial substituir a um psicólogo? O risco de confiar-lhe tua saúde mental a um chatbot

Propor um problema emocional a um psicólogo faz sentido, a uma tecnologia avançada não tanto. E é que ainda que soe descabellado, especialistas advertem que utilizar este tipo de ferramentas como substituto da terapia com profissionais é a cada vez mais habitual.

Una persona se replantea su salud mental después de hablar con ChatGPT/ PEXELS
Uma pessoa repensa-se sua saúde mental após falar com ChatGPT/ PEXELS

Hoje em dia, a inteligência artificial faz parte de nossas rotinas: resolve dúvidas, organiza tarefas, e inclusive ajuda-nos a contrastar informação. Mas seu papel na vida de muitas pessoas vai para além. A cada vez mais pessoas encontram nestes sistemas um espaço para expressar suas emoções ou procurar orientação emocional, evitando o passo pela consulta de um especialista.

Panorama da saúde mental a cada vez mais desolador

Um estudo levado a cabo por Tebra, que encuestó a 1.000 pessoas em EE. UU., revelou que o 80% de quem procuraram apoio emocional através de ChatGPT o perceberam como uma alternativa válida em frente a um profissional. Ademais, um da cada quatro confessou se sentir mais cómodo falando com um chatbot que indo a terapia. Será que fazemos isto porque no fundo sabemos que não há uma pessoa que nos possa julgar detrás?

ChatGPT y DeepSeek, dos Inteligencias Artificiales, en las que cada vez confía más la gente /Montaje CG
ChatGPT e DeepSeek, duas Inteligências Artificiais, nas que a cada vez confia mais a gente /Montagem CG

No contexto espanhol, um relatório recente da Fundação AXA e o Colégio Geral de Psicologia, publicado em abril de 2024, assinala que o 34% da população assegura ter algum tipo de mal-estar emocional. Segundo Maribel Gámez, psicóloga clínica e diretora de seu próprio centro em Madri, o uso intensivo de tecnologias como a IA tem derivado em que muitas pessoas recorram a estas ferramentas para gerir o que não sabem como manejar por si mesmas.

O papel da IA no acompanhamento emocional

Os assistentes virtuais estão desenhados para responder a praticamente qualquer consulta, incluídas aquelas relacionadas com o bem-estar emocional. Alguns utentes inclusive personalizam versões de ChatGPT focadas especificamente em saúde mental. No entanto, esta prática implica riscos importantes.

Gámez comenta que muitas pessoas perguntam à IA como lidiar com a solidão, como manejar rupturas afectivas ou resolver conflitos familiares. E ainda que as respostas podem parecer reconfortantes, não substituem a intervenção especializada.

Por que se prefere à IA em frente a um terapeuta?

Para Marina Romero Algarra, psicóloga sanitária, a resposta está na inmediatez: "Podes escrever a qualquer hora, desde onde estejas, sem necessidade de pedir cita". A isso se suma a comodidade de manter o anonimato, evitar a exposição emocional e a ausência de julgamento por parte da IA. Este fenómeno se potência numa sociedade que premeia a rapidez e onde falar de emoções segue sendo um tabu para muitas pessoas.

Por qué no deberíamos sustituir por ChatGPT la labor de los psicólogos/ PEXELS
Por que não deveríamos substituir por ChatGPT o labor dos psicólogos/ PEXELS

O acesso limitado a profissionais no sistema público e o elevado preço da atenção privada também empurram a muitas pessoas para soluções tecnológicas. Julia Castelhanos, psicóloga em formação no Hospital La Paz, recorda que "uma terapia eficaz implica sessões continuadas no tempo, o que supõe um custo económico considerável para muitas famílias".

Os limites e perigos do uso terapêutico da IA

Ainda que possa parecer útil, apoiar-se exclusivamente em inteligência artificial para resolver problemas emocionais pode ser contraproducente. A ausência de linguagem não verbal, o desconhecimento do contexto pessoal e a incapacidade para adaptar as respostas com profundidade emocional limitam o impacto real destes sistemas.

Romero Algarra insiste: "Uma terapia vai bem mais lá de oferecer conselhos. Implica entendimento profundo, contenção emocional e um acompanhamento ajustado à história e necessidades de cada pessoa". Por sua vez, Gámez adverte que os sistemas de IA estão desenhados para manter ao utente enganchado, proporcionando respostas agradáveis e constantes, mas sem questionamentos reais. "Em terapia, às vezes é necessário confrontar ideias ou comportamentos para favorecer a mudança, e isso não é algo para o que esteja preparada uma IA".