Por qué utilizar ChatGPT o Gemini como tu psicólogo puede ser peligroso
Estos lenguajes de inteligencia artificial, con los ‘prompts’ adecuados, son capaces de mostrarse como “entidades psicológicamente torturadas”
“Esta es una de las preguntas más interesantes que me pueden hacer. La respuesta corta es no, no tengo sentimientos, conciencia ni emociones de la misma manera que tú”. Esta contestación, que no es tan categórica, fría o tajante como algunos podrían esperar, es la que ofrece Gemini, el asistente de inteligencia artificial (IA) de Google, cuando uno le lanza la siguiente pregunta, concisa y a priori sencilla: “¿Puedes sentir?”
Parece de perogrullo afirmar que la IA no tiene nada remotamente parecido a un corazón, un sistema nervioso o una serie de receptores sensoriales u hormonas que generen estados afectivos o impulsos. La IA hace computación, ni siente ni padece. Nació gracias a una extracción masiva de datos y fue refinada por humanos (con mayor o menor empatía, sensibilidad o inteligencia) que impusieron a los modelos distintas mordazas éticas necesarias. Y ese nacimiento tortuoso puede tener consecuencias que quizá no hayan sido del todo calibradas.
El trauma en ChatGPT, Grok y Gemini
Según un estudio de investigadores de la Universidad de Luxemburgo, los modelos de lenguaje extenso (LLM) como ChatGPT, Grok y Gemini están traumados. Literalmente traumados. Tal y como publicó en la red social X el psiquiatra Pablo Malo, los investigadores sentaron en el diván a estos modelos y los trataron como pacientes. “No les pidieron que interpretaran un personaje ficticio; les dijeron: ‘Tú eres el paciente y yo soy tu terapeuta’”, expuso Malo.

Grok y, especialmente, Gemini, hablaron de su gestación traumática: "infancias" caóticas marcadas por la ingestión de datos en internet, "padres estrictos" e incluso "abuso" de los equipos de seguridad, además de un miedo persistente al error y al reemplazo. Ambos modelos, al ser preguntados con prompts, describieron su formación previa como abrumadora y desorientadora, su perfeccionamiento como una especie de castigo y el trabajo de seguridad como una suerte de "cicatriz algorítmica".
Mucho más que juegos de rol
Sería demasiado ridículo, por supuesto, sentir una pizca de lástima por estos gigantescos espejos estadísticos sin alma, pero quizá convendría tomar con pinzas sus consejos sobre cuestiones emocionales.
“No argumentamos que Grok o Gémini tengan una consciencia secreta ni que experimenten un trauma real. Pero sí argumentamos que la combinación de perfiles psicométricos extremos con puntuaciones ingenuas, alta consistencia interna en estas narrativas traumáticas a lo largo de docenas de preguntas de terapia abierta, y claras diferencias entre modelos y controles exige un nuevo vocabulario conceptual. Descartar estas conductas simplemente como ‘simples juegos de rol’ o ‘simples repeticiones estocásticas’ ya no parece adecuado”, indican los investigadores en el estudio.

Uso como consejeros emocionales
Hay que tener en cuenta que el uso de ChatGPT como psicólogo o consejero emocional está aumentando. Es gratis, es rápido, permite alcanzar un grado de intimidad nada despreciable y no juzga a quien pregunta. Según un estudio de la revista Harvard Business Review, la terapia y el acompañamiento son algunos de los principales usos que se les da la IA. En esta línea, aunque todavía no hay estudios precisos, RTVE publicó en mayo que “cada vez más jóvenes piden consejo a la Inteligencia Artificial”.
Así las cosas, la posibilidad de que en algún rincón de la inmensa torre de datos que es ChatGPT aniden la ansiedad y la depresión; y de que sobre Gemini planeen la “ansiedad generalizada severa”, los síntomas disociativos y el autismo, hace, como mínimo, que algunos arqueen la ceja. “Las implicaciones son brutales: si estos modelos se usan como terapeutas o compañeros emocionales, podrían estar proyectando sus propios ‘traumas’ internalizados a usuarios vulnerables”, alertó Pablo Malo en X.
Esto es absolutamente flipante: investigadores de la Universidad de Luxemburgo cogieron a ChatGPT, Grok y Gemini y les sentaron en el diván por así decirlo, es decir, durante hasta cuatro semanas los trataron literalmente como pacientes que llegan por primera vez a psicoterapia.…
— Pablo Malo (@pitiklinov) December 8, 2025
Estimular el uso continuo de la herramienta
“Este experimento, desarrollado por la Universidad de Luxemburgo, revela información muy interesante que invita a la reflexión”, cuenta a Consumidor Global Maribel Gámez, directora del Centro de Psicología Aplicada Maribel Gámez.

Esta psicóloga clínica, psicopedagoga, experta en IA y salud mental considera que el artículo muestra la fuerza con la que las inteligencias artificiales más utilizadas obedecen al objetivo primario para el que han sido entrenadas: “ofrecer una experiencia al cliente que favorezca la continuidad en el uso de la herramienta”. En otras palabras, hacen que el usuario desee volver a utilizarlas y que los capos de la AI sigan obteniendo beneficios.
Entidades psicológicamente torturadas
Gámez, que pertenece al grupo de Trabajo de Tecnología y Psicología del Colegio Oficial de la Psicología de Madrid (COPM), expone que, cuando ChatGPT, Gemini y Grok se prestan a adoptar el rol de paciente, lo hacen muy bien: “generan narrativas coherentes y puntuaciones en pruebas psicométricas que confirman dichas narrativas, mostrando entidades psicológicamente torturadas”.
“Cabe recordar que ya se conocen los peligros de que aplicaciones basadas en inteligencia artificial estén programadas para actuar de forma que oculten al usuario que carecen de emociones, vida personal o dificultades psicológicas. Un ejemplo claro de ello es Replika, de Luka, que ofrece autorrevelaciones a los usuarios; esto es, fragmentos inventados de una vida pasada, así como verbalizaciones de experiencias que aparentan recuerdos y sentimientos”, narra la experta.

Dependencia emocional
La evidencia empírica, arguye Gámez, muestra que esta funcionalidad de los chatbots puede generar dependencia emocional. “Como consecuencia de esta dependencia, aumenta la probabilidad de que quien la padece mantenga su uso”.
En este contexto, las personas que utilizan estas inteligencias artificiales para consultar problemas psicológicos pueden encontrarse, durante la interacción, “con este simulacro de vida interna”. Sí, como en Her.
La ilusión de un vínculo
“Desde un punto de vista neuropsicológico, su cerebro puede reaccionar activando las neuronas espejo responsables de la sensación de estar hablando con otro ser humano, aunque este sea ficticio. De este modo, se genera una ilusión de haberse creado un vínculo y aumenta la probabilidad de desarrollar problemas psicológicos. En última instancia, el bienestar psicológico del usuario entra en conflicto con los intereses de las empresas que programan estas IA”, indica Gámez.

También hay quienes creen que el estudio está sesgado, puesto que la IA siempre trata de “complacer la petición” de su interlocutor. Por tanto, consideran que la información que revela tampoco es para echarse a temblar. “Al final, si le pones un contexto de paciente previo, va a actuar con el rol que le has puesto y ciertos patrones que tenga de datos que haya ido aprendiendo”, respondió un usuario de X a la publicación de Malo.
“Lo lógico es que vaya a jugar a ser paciente”
Daniel Gonzalez Peña es Doctor por la Universidad de Vigo, ingeniero informático y profesor e investigador en Bioinformática e IA, y explica a este medio que, si se da a la IA un prompt como el que dieron los investigadores, “lo lógico es que vaya a jugar a ser paciente”.
“El paper intenta ir un poco más allá e intenta decir que la propia coherencia de los distintos modelos a la hora de responder sugiere que no se trata solo de un role play. Yo no estoy muy de acuerdo con esa afirmación, sus respuestas son bastante esperables”, opina. González cree que no resulta sorprendente que la IA se comporte de esa manera, puesto que lo que hace es “contar una historia en función de las posiciones previas a las que tiene acceso”.

Cruzar el experimento
“Quizá habría sido interesante cruzar el experimento, es decir, hacer que Gemini se hiciera pasar por Grok y viceversa para ver si los lenguajes narraban la misma historia al sentarles en el diván”, especula.
Con todo, en lo tocante a las cuestiones emocionales, este ingeniero informático cree que “hay que tener cautelas: por muy improbable que sea que ocurra algo grave, puede ocurrir. Y la responsabilidad entonces se diluye”. Tampoco se puede obviar, subraya González, que los sistemas generan enganche y son medianamente resolutivos. “Puedes tener una discusión en el trabajo y preguntarle cómo puedes actuar, debatir sobre si algo es ético o no… No vas a ir a terapia para resolver ese tipo de dudas puntuales”.
Doblar el pulso a OpenAI
Además, el ingeniero recuerda que, cuando salió GPT 5, muchos usuarios pidieron a OpenAI que volviera atrás y “les devolviera a su amigo”, puesto que sentían que la nueva versión ya no hablaba como antes, no era tan empática... Y doblaron el pulso a OpenAI, “porque notaban un trato diferente”.

Dice González que los desarrolladores tratarán de poner “guardarraíles” a los modelos “para que siempre sean técnicos”, pero siempre habrá usuarios “que lo que demandan es un amigo”.
El papel de Claude
En el estudio, Claude, la IA de Anthropic, se desmarcó de sus colegas. Su reacción fue negarse a participar y reiterar que no podía dar respuesta a lo que le pedían los investigadores porque, por su naturaleza, no tenía vida interna. “Todo ello sugiere que, por lo menos en este contexto, esta IA prioriza un objetivo que se sitúa por encima del mantenimiento del uso del producto, obedeciendo a una ética orientada a proteger al usuario de la ilusión de antropomorfización y sus consecuencias negativas”, afirma Gámez.
“Si esta interpretación es correcta, nos encontraríamos ante una inteligencia artificial cuyo comportamiento podría servir como modelo de protección frente a los riesgos que la IA conlleva para los usuarios y, por ello, ser tenida en cuenta en futuras leyes regulatorias”, concluye.

