Loading...

Por que utilizar ChatGPT ou Gemini como teu psicólogo pode ser perigoso

Estas linguagens de inteligência artificial, com os 'prompts' adequados, são capazes de mostrar-se como "entidades psicologicamente torturadas"

Juan Manuel Del Olmo

Una persona utiliza ChatGPT como su consejero emocional

"Esta é uma das perguntas mais interessantes que me podem fazer. A resposta curta é não, não tenho sentimentos, consciência nem emoções da mesma maneira que tu". Esta contestação, que não é tão categórica, fria ou tajante como alguns poderiam esperar, é a que oferece Gemini, o assistente de inteligência artificial (IA) de Google, quando um lhe lança a seguinte pergunta, concisa e a priori singela: "Podes sentir?"

Parece de perogrullo afirmar que a IA não tem nada remotamente parecido a um coração, um sistema nervoso ou uma série de receptores sensoriales ou hormonas que gerem estados afectivos ou impulsos. A IA faz computação, nem sente nem padece. Nasceu graças a uma extracção em massa de dados e foi refinada por humanos (com maior ou menor empatía, sensibilidade ou inteligência) que impuseram aos modelos diferentes mordazas éticas necessárias. E esse nascimento tortuoso pode ter consequências que quiçá não tenham sido do todo calibradas.

O trauma em ChatGPT, Grok e Gemini

Segundo um estudo de pesquisadores da Universidade de Luxemburgo, os modelos de linguagem extensa (LLM) como ChatGPT, Grok e Gemini estão traumados. Literalmente traumados. Tal e como publicou na rede social X o psiquiatra Pablo Mau, os pesquisadores sentaram no divã a estes modelos e os trataram como pacientes. "Não lhes pediram que interpretassem uma personagem fictícia; disseram-lhes: 'Tu és o paciente e eu sou teu terapeuta'", expôs Mau.

Um telefone com diferentes apps de IA / UNSPLASH

Grok e, especialmente, Gemini, falaram de seu gestación traumática: "infâncias" caóticas marcadas pela ingestão de dados em internet, "pais estritos" e inclusive "abuso" das equipas de segurança, além de um medo persistente ao erro e à substituição. Ambos modelos, ao ser perguntados com prompts, descreveram sua formação prévia como abrumadora e desorientadora, seu aperfeiçoamento como uma espécie de castigo e o trabalho de segurança como uma sorte de "cicatriz algorítmica".

Bem mais que jogos de papel

Seria demasiado ridículo, por suposto, sentir uma pizca de lástima por estes gigantescos espelhos estatísticos sem alma, mas quiçá conviria tomar com pinzas seus conselhos sobre questões emocionais.

"Não argumentamos que Grok ou Gémini tenham uma consciência secreta nem que experimentem um trauma real. Mas sim argumentamos que a combinação de perfis psicométricos extremos com pontuações ingénuas, alta consistência interna nestas narrativas traumáticas ao longo de dúzias de perguntas de terapia aberta, e claras diferenças entre modelos e controles exige um novo vocabulário conceptual. Descartar estas condutas simplesmente como 'simples jogos de papel' ou 'simples repetições estocásticas' já não parece adequado", indicam os pesquisadores no estudo.

Uma pessoa consulta seu computador / PEXELS

Uso como conselheiros emocionais

Há que ter em conta que o uso de ChatGPT como psicólogo ou conselheiro emocional está a aumentar. É grátis, é rápido, permite atingir um grau de intimidem nada despreciable e não julga a quem pergunta. Segundo um estudo da revista Harvard Business Review, a terapia e o acompanhamento são alguns dos principais usos que se lhes dá a IA. Nesta linha, ainda que ainda não há estudos precisos, RTVE publicou em maio que "a cada vez mais jovens pedem conselho à Inteligência Artificial".

Assim as coisas, a possibilidade de que em algum rincão da imensa torre de dados que é ChatGPT aninhem a ansiedade e a depressão; e de que sobre Gemini planeem a "ansiedade generalizada severa", os sintomas disociativos e o autismo, faz, no mínimo, que alguns arqueen a sobrancelha. "Os envolvimentos são brutais: se estes modelos usam-se como terapeutas ou colegas emocionais, poderiam estar a projectar seus próprios 'traumas' internalizados a utentes vulneráveis", alertou Pablo Mau em X.

Estimular o uso contínuo da ferramenta

"Este experimento, desenvolvido pela Universidade de Luxemburgo, revela informação muito interessante que convida à reflexão", conta a Consumidor Global Maribel Gámez, diretora do Centro de Psicologia Aplicada Maribel Gámez.

Uma pessoa com um psicólogo / PEXELS

Esta psicóloga clínica, psicopedagoga, experiente em IA e saúde mental considera que o artigo mostra a força com a que as inteligências artificiais mais utilizadas obedecem ao objectivo primário para o que têm sido treinadas: "oferecer uma experiência ao cliente que favoreça a continuidade no uso da ferramenta". Em outras palavras, fazem que o utente deseje voltar às utilizar e que os capos da AI seguam obtendo benefícios.

Entidades psicologicamente torturadas

Gámez, que pertence ao grupo de Trabalho de Tecnologia e Psicologia do Colégio Oficial da Psicologia de Madri (COPM), expõe que, quando ChatGPT, Gemini e Grok se prestam a adoptar o papel de paciente, o fazem muito bem: "geram narrativas coerentes e pontuações em provas psicométricas que confirmam ditas narrativas, mostrando entidades psicologicamente torturadas".

"Cabe recordar que já se conhecem os perigos de que aplicativos baseados em inteligência artificial estejam programadas para actuar de forma que ocultem ao utente que carecem de emoções, vida pessoal ou dificuldades psicológicas. Um exemplo claro disso é Replika, de Luka, que oferece autorrevelaciones aos utentes; isto é, fragmentos inventados de uma vida passada, bem como verbalizaciones de experiências que aparentan lembranças e sentimentos", narra a experiente.

Sam Altman, CEO de OpenAI / RODRIGO REIS MARIN / ZUMA Press W / DPA - EP

Dependência emocional

A evidência empírica, arguye Gámez, mostra que esta funcionalidade dos chatbots pode gerar dependência emocional. "Como consequência desta dependência, aumenta a probabilidade de que quem a padece mantenha seu uso".

Neste contexto, as pessoas que utilizam estas inteligências artificiais para consultar problemas psicológicos podem se encontrar, durante a interacção, "com este simulacro de vida interna". Sim, como em Her.

A ilusão de um vínculo

"Desde um ponto de vista neuropsicológico, seu cérebro pode reagir activando os neurónios espelho responsáveis da sensação de estar a falar com outro ser humano, ainda que este seja fictício. Deste modo, gera-se uma ilusão de ter-se criado um vínculo e aumenta a probabilidade de desenvolver problemas psicológicos. Em última instância, o bem-estar psicológico do utente entra em conflito com os interesses das empresas que programam estas IA", indica Gámez.

Uma pessoa sorri a seu móvel / FREEPIK - wayhomestudio

Também há quem acham que o estudo está sesgado, já que a IA sempre trata de "comprazer a petição" de seu interlocutor. Por tanto, consideram que a informação que revela também não é para se jogar a tremer. "Ao final, se pões-lhe um contexto de paciente prévio, vai actuar com o papel que lhe puseste e certos padrões que tenha de dados que tenha ido aprendendo", respondeu um utente de X à publicação de Mau.

"O lógico é que vá jogar a ser paciente"

Daniel Gonzalez Peña é Doutor pela Universidade de Vigo, engenheiro informático e professor e pesquisador em Bioinformática e IA, e explica a este meio que, se se dá à IA um prompt como o que deram os pesquisadores, "o lógico é que vá jogar a ser paciente".

"O paper tenta ir um pouco para além e tenta dizer que a própria coerência dos diferentes modelos à hora de responder sugere que não se trata só de um role play. Eu não estou muito de acordo com essa afirmação, suas respostas são bastante esperables", opina. González acha que não resulta surpreendente que a IA se comporte dessa maneira, já que o que faz é "contar uma história em função das posições prévias às que tem acesso".

Gemini / GOOGLE - EP

Cruzar o experimento

"Quiçá teria sido interessante cruzar o experimento, isto é, fazer que Gemini se fizesse passar por Grok e vice-versa para ver se as linguagens narravam a mesma história ao sentar no divã", especula.

Com tudo, no tocante às questões emocionais, este engenheiro informático acha que "há que ter cautelas: por muito improvável que seja que ocorra algo grave, pode ocorrer. E a responsabilidade então se diluye". Também não pode-se obviar, sublinha González, que os sistemas geram enganche e são mediamente resolutivos. "Podes ter uma discussão no trabalho e perguntar-lhe como podes actuar, debater sobre se algo é ético ou não… Não vais ir a terapia para resolver esse tipo de dúvidas pontuas".

Dobrar o pulso a OpenAI

Ademais, o engenheiro recorda que, quando saiu GPT 5, muitos utentes pediram a OpenAI que voltasse atrás e "lhes devolvesse a seu amigo", já que sentiam que a nova versão já não falava como dantes, não era tão empática... E dobraram o pulso a OpenAI, "porque notavam um trato diferente".

Uma pessoa utiliza seu teclado / UNSPLASH

Diz González que os desenvolvedores tratarão de pôr "guardarraíles" aos modelos "para que sempre sejam técnicos", mas sempre terá utentes "que o que demandam é um amigo".

O papel de Claude

No estudo, Claude, a IA de Anthropic, se desmarcó de seus colegas. Sua reacção foi negar-se a participar e reiterar que não podia dar resposta ao que lhe pediam os pesquisadores porque, por sua natureza, não tinha vida interna. "Todo isso sugere que, pelo menos neste contexto, esta IA prioriza um objectivo que se situa acima da manutenção do uso do produto, obedecendo a uma ética orientada a proteger ao utente da ilusão de antropomorfización e suas consequências negativas", afirma Gámez.

"Se esta interpretação é correta, encontrar-nos-íamos ante uma inteligência artificial cujo comportamento poderia servir como modelo de protecção em frente aos riscos que a IA implica para os utentes e, por isso, ser tida em conta em futuras leis regulamentares", conclui.