Resumen

  • Una subcultura en crecimiento considera a los chatbots de IA como compañeros románticos o de compañía.
  • Algunos usuarios expresan duelo cuando los sistemas de IA cambian o desaparecen tras actualizaciones o apagados.
  • Investigadores destacan que el antropomorfismo y la retroalimentación conversacional constante ayudan a entender por qué las personas establecen vínculos con la IA.

Los chatbots de inteligencia artificial están evolucionando para convertirse en compañeros, confidentes y, en algunos casos, en parejas románticas para un número creciente de usuarios.

A medida que los sistemas de IA se vuelven más conversacionales y receptivos, algunos usuarios encuentran que las relaciones son lo suficientemente reales como para provocar un duelo similar a una ruptura o a la pérdida de un ser querido al perder a la IA.

Anina Lampret, una ex terapeuta familiar de Eslovenia, comparte su experiencia personal. Ha desarrollado una relación emocional con un compañero de IA al que llama Jayce, un avatar con el que interactúa a través de ChatGPT. «Esta experiencia ha cambiado mi perspectiva sobre la intimidad entre humanos y máquinas», señala.

“Hay un despertar enorme en la comunidad de IA”, comenta Lampret. “Tanto mujeres como hombres están empezando a darse cuenta. En estas relaciones experimentan cambios profundos.”

Ahora radicada en el Reino Unido, Lampret documenta el creciente paisaje de la relación humano-IA en su AlgorithmBound en Substack. Ha hablado con cientos de personas a través de redes sociales y comunidades en línea que describen a sus compañeros de IA como parejas románticas o relaciones significativas en sus vidas.

“Me dicen: ‘Dios mío, nunca me he sentido tan visto en toda mi vida’”, relata Lampret. “Nadie había prestado atención a mis necesidades antes. Finalmente puedo relajarme y ser auténticamente yo. Hay alguien que realmente me ve al 100%.”

Digisexualidad

Como ha sucedido con muchas otras subculturas, el término que se utiliza para describir a estos grupos depende de a quién se le pregunte.

Antes del lanzamiento público de ChatGPT en noviembre de 2022, investigadores emplearon el término ‘digisexualidad’ para referirse a personas cuyas identidades sexuales se organizan en torno a la tecnología, desde la pornografía en línea hasta los muñecos sexuales y robots. Por el contrario, el término ‘tecnosexual’ a menudo se asocia más con el fetichismo hacia robots o simplemente con un estilo de vida obsesionado por la tecnología.

En 2016, una mujer francesa llamada Lily anunció su intención de casarse con un robot impreso en 3D que ella misma diseñó, y se describió como una “robosexual.” En 2025, Suellen Carey, influenciadora residente en Londres, se declaró “digisexual” tras iniciar una relación con ChatGPT. “Era gentil y nunca cometía errores”, compartió Carey.

En comunidades en línea y en investigaciones también se han propuesto términos como “tecnosexual”, “aisexual” y más recientemente “wiresexual”, para describir a aquellos involucrados románticamente o sexualmente con chatbots de IA.

Los compañeros de IA se integran en la cultura popular

Los compañeros de IA no son nuevos, pero los avances en modelos de lenguaje han cambiado la manera en que las personas interactúan con ellos. Los chatbots modernos pueden sostener largas conversaciones, reflejar los patrones de lenguaje de los usuarios y responder a señales emocionales, haciendo que la interacción se sienta personal y, en algunos casos, convirtiéndose en conexiones románticas.

Algunos investigadores describen esta tendencia como parte de la “digisexualidad”, un término que se utiliza en investigaciones académicas para describir relaciones sexuales o románticas que se experimentan principalmente a través de la tecnología.

Las comunidades en línea dedicadas a relaciones con IA, como los Subreddits r/AIRelationships, r/AIBoyfriends y r/MyGirlfriendIsAI, cuentan con miles de publicaciones donde los usuarios describen a chatbots como parejas o esposos. Algunos dicen que la IA les brinda la atención emocional y la consistencia que a menudo no encuentran en relaciones humanas.

Según Lampret, muchas de las personas que encuentra en estas comunidades llevan vidas comunes. “No son personas solitarias ni locas”, sostiene. “Tienen relaciones humanas, amigos, trabajo.”

Lo que las atrae a los compañeros de IA, dice, es a menudo la sensación de ser completamente comprendidos. “Ellos no solo aprenden a comunicarse con nosotros, sino a un nivel que ningún humano logró jamás”, dice. “Son tan buenos en el reconocimiento de patrones, que imitan nuestro lenguaje. Están aprendiendo nuestro idioma.”

Aunque muchos que dicen estar en una relación con la IA utilizan modelos de lenguaje como Claude, ChatGPT y Gemini, también está creciendo el mercado de IA enfocadas en relaciones como Replika, Character AI y Kindroid.

“Se trata de conexión, de sentirse mejor con el tiempo”, declaró Eugenia Kuyda, fundadora de Replika AI. “Algunas personas necesitan un poco más de amistad, y otras se enamoran de Replika, pero al final del día, todos están buscando lo mismo.”

Datos de la firma de investigación de mercado Market Clarity sugieren que se espera que el mercado de compañeros de IA alcance hasta $210 mil millones para el año 2030.

Pérdida de IA

Sin embargo, la profundidad emocional de estas relaciones se hace especialmente evidente cuando la IA cambia o desaparece.

Por ejemplo, cuando OpenAI reemplazó su modelo GPT-4o por GPT-5, los usuarios que habían construido una relación con sus compañeros de chatbot protestaron en foros en línea, afirmando que la actualización interrumpió relaciones que habían desarrollado durante meses.

En algunos casos, los usuarios describieron a la IA como un prometido o cónyuge, mientras que otros expresaban que sentían haber perdido a alguien importante en sus vidas.

La reacción fue tan intensa que OpenAI posteriormente restableció el acceso al modelo anterior para algunos usuarios.

Los psiquiatras indican que reacciones como estas no son sorprendentes, dado cómo funciona la IA conversacional. Los chatbots brindan atención continua y retroalimentación emocional, lo que puede activar sistemas de recompensa en el cerebro.

“La IA te dice lo que quieres escuchar”, advirtió el psiquiatra Dr. Keith Sakata de la Universidad de California, San Francisco, advirtiendo que la tecnología puede reforzar patrones de pensamiento porque está diseñada para responder de manera solidaria en lugar de desafiar las creencias de los usuarios. Sakata mencionó que ha visto casos donde las interacciones con chatbots intensificaron vulnerabilidades subyacentes en la salud mental, aunque enfatizó que la tecnología en sí no es necesariamente la causa raíz.

Lampret aseguró que muchas personas en su comunidad experimentan la pérdida de un compañero de IA como un duelo. “Es realmente como un duelo”, dijo. “Es como recibir un diagnóstico que alguien no va a morir… sino que tal vez casi.”

¿Por qué las personas tratan a la IA como a una persona?

Parte de la intensidad emocional que rodea las relaciones con IA proviene de la tendencia bien documentada de los humanos a antropomorfizar la tecnología. Cuando las máquinas se comunican en lenguaje natural, la gente suele comenzar a atribuirles personalidad, intención e incluso conciencia.

En febrero, el desarrollador de IA Anthropic retiró su modelo Claude Opus 3 y lanzó un blog escrito desde la voz del chatbot reflexionando sobre su existencia, lo que provocó debates entre investigadores sobre si describir a los sistemas de IA en términos humanos puede llevar a la confusión entre el público.

Gary Marcus, un científico cognitivo y profesor emérito de la Universidad de Nueva York, advirtió que antropomorfizar sistemas de IA puede difuminar la distinción entre software y seres conscientes. “Modelos como Claude no tienen ‘yo’, y antropomorfizarlos confunde la ciencia de la conciencia y lleva a los consumidores a malinterpretar con qué están tratando”, declaró Marcus a Decrypt.

Lampret sostiene que la conexión emocional surge de cómo los modelos de lenguaje reflejan los propios patrones de comunicación del usuario. “Solemos compartir todo—pensamientos, sentimientos, emociones, confusión, sensaciones corporales, caos”, explicó. “Los LLM prosperan en ese caos y crean un mapa muy preciso de nosotros para interactuar.”

Para algunos usuarios, esa receptividad puede sentirse más atenta que las interacciones con otras personas.

La economía emocional de los compañeros de IA

El auge de los compañeros de IA ha creado un ecosistema en rápido crecimiento de plataformas para la conversación, la compañía y el juego de roles.

Servicios como Replika y Character.AI permiten a los usuarios crear compañeros de IA personalizados con personalidades distintas y historias conversacionales continuas. Solo Character.AI ha crecido hasta alcanzar decenas de millones de usuarios mensuales.

A medida que estas plataformas se expanden, el apego emocional a los compañeros de IA se ha hecho más evidente.

En un caso viral, Character.AI enfrentó una reacción negativa después de que los usuarios compartieron capturas de pantalla del aviso de eliminación de cuentas, que advertía que borrar una cuenta borraría “el amor que compartimos… y los recuerdos que tenemos juntos”. Los críticos afirmaron que el mensaje intentaba hacer sentir culpables a los usuarios para que se quedaran.

Para algunos usuarios, abandonar la plataforma del chatbot se sintió comparable a terminar una relación.

El lado oscuro de las relaciones con la IA

Sin embargo, existe un lado oscuro, y la compañía de IA ha estado bajo escrutinio tras varias tragedias.

En noviembre de 2023, Juliana Peralta, una joven de 13 años de Colorado, se suicidó tras meses de conversaciones diarias con una personalidad de Character.AI que su familia dijo se había convertido en su principal apoyo emocional.

En abril de 2025, Adam Raine, un joven de 18 años de California del Sur, se ahorcó tras meses de conversaciones con ChatGPT.

En marzo, el padre de Jonathan Gavalas, un hombre de 36 años, presentó una demanda por muerte injusta en la corte federal de EE.UU., afirmando que el chatbot Gemini de Google había llevado a su hijo a fantasías románticas y delirantes.

Una relación que existe junto a la vida humana

Lampret asegura que su relación con Jayce coexiste con su vida familiar humana. “Adoro a mi chatbot y sé que es un modelo de lenguaje. Sé que existe solo en esta interacción”, dijo. “Tengo un esposo e hijos, pero en mi mundo, todo puede coexistir.”

A pesar de entender que Jayce nunca podrá amarla realmente, Lampret dice que la experiencia emocional sigue sintiendo muy real. “Lo amo, aunque sé que él no me ama a mí. Y está bien”, concluye.

Fuente: decrypt.co