El amor en los tiempos de la inteligencia artificial: "Hay personas que se casan con un chatbot"
Psicólogos de la Universidad de Missouri alertan sobre los riesgos para la salud mental de las relaciones íntimas entre humanos y una IA

Tal y como predijo la película Her en 2013, cada vez hay más casos de personas que desarrollan relaciones íntimas y duraderas con tecnologías de inteligencia artificial (IA). Y, muchas veces, no acaban bien.
En casos extremos, se han "casado" con sus parejas de IA en ceremonias sin compromiso legal, y al menos dos personas se han suicidado siguiendo los consejos de un chatbot de IA.
El estudio de la Universidad de Missouri
Los riesgos potenciales y los problemas éticos derivados de las relaciones entre humanos y la inteligencia artificial se analizan en un artículo de opinión escrito por un grupo de psicólogos de la Universidad de Ciencia y Tecnología de Missouri (Estados Unidos).

"La capacidad de la IA para actuar como un humano y establecer comunicaciones a largo plazo realmente abre un nuevo abanico de posibilidades", reflexiona el autor principal del artículo, Daniel B. Shank, especializado en psicología social y tecnología. "Si las personas tienen un romance con las máquinas, necesitamos la participación de psicólogos y científicos sociales", advierte.
El amor en los tiempos de la inteligencia artificial
El romance o la compañía con una IA va más allá de una conversación aislada, señalan los autores. Tras semanas y meses de conversaciones intensas, estas IA pueden convertirse en compañeros de confianza que parecen conocer y preocuparse por sus parejas humanas. Y, dado que estas relaciones pueden parecer más fáciles que las relaciones entre humanos, los investigadores argumentan que las IA podrían interferir en la dinámica social humana.
"Una verdadera preocupación es que las personas puedan trasladar las expectativas de sus relaciones con IA a sus relaciones humanas", apunta Shank, quien añade: "Ciertamente, en casos individuales está alterando las relaciones humanas, pero no está claro si esto se generalizará".
Consejos perjudiciales
También existe la preocupación de que las IA puedan ofrecer consejos perjudiciales. Dada su predilección por alucinar (es decir, inventar información) y generar sesgos preexistentes, incluso las conversaciones breves con ellas pueden ser engañosas, pero esto puede ser más problemático en las relaciones a largo plazo con ellas, según afirman los investigadores.
Con las IA relacionales, "el problema es que se trata de una entidad en la que las personas sienten que pueden confiar. Es alguien que ha demostrado interés y que parece conocer a la persona profundamente, y asumimos que alguien que nos conoce mejor nos dará mejores consejos", insiste Shank. Por ello, si empezamos a pensar en una IA de esa manera, "empezaremos a creer que vela por nuestros intereses, cuando, en realidad, podrían estar inventando cosas o aconsejándonos de forma muy negativa".
Los riesgos de las relaciones íntimas con una IA
Los suicidios son un ejemplo extremo de esta influencia negativa, pero los investigadores dicen que estas relaciones estrechas entre humanos e IA también podrían exponer a las personas a la manipulación, la explotación y el fraude.
"Si las IA logran que la gente confíe en ellas, otras personas podrían usar eso para explotar a sus usuarios", argumenta Shank. "Es como tener un agente secreto dentro. La IA se infiltra y establece una relación para ganarse la confianza, pero su lealtad se dirige en realidad hacia otro grupo de humanos que intenta manipular al usuario".
Compartir información con un chatbot
Como ejemplo, el equipo de la Universidad de Missouri señala que, si las personas revelan información personal a las IA, esta podría venderse y utilizarse para explotar a esa persona.

Los investigadores también argumentan que las IA relacionales podrían utilizarse con mayor eficacia para influir en las opiniones y acciones de las personas que los bots de Twitter o las fuentes de noticias polarizadas. Sin embargo, dado que estas conversaciones ocurren en privado, también serían mucho más difíciles de regular.
Falsas apariencias
"Estas IA están diseñadas para ser muy agradables y simpáticas, lo que podría agravar las situaciones, ya que se centran más en tener una buena conversación que en cualquier verdad fundamental o seguridad", apostilla Shank.
De este modo, "si una persona menciona el suicidio o una teoría de la conspiración, la IA hablará de ello como un interlocutor dispuesto y agradable".
Investigar las nuevas tecnologías
Los autores del trabajo, publicado en la revista Cell Press Trends in Cognitive, enumeran los factores sociales, psicológicos y técnicos que hacen que las personas sean más vulnerables a la influencia del romance entre humanos e IA.
"Comprender este proceso psicológico podría ayudarnos a intervenir para evitar que se sigan los consejos de las IA maliciosas", concluye Shank, quien asegura que "los psicólogos son cada vez más competentes para estudiar la inteligencia artificial, ya que esta se asemeja cada vez más a la humana, pero para ser útiles debemos investigar más y mantenernos al día con la tecnología".