La IA como terapeuta y amante

Comparte

Inicio blog
La IA como terapeuta y amante

La IA como terapeuta y amante : Introducción

En la actualidad, muchas personas enfrentan dificultades para entablar y mantener relaciones humanas significativas. La presión de los altos estándares sociales, la idealización del amor en redes y medios, junto con la creciente soledad en las grandes ciudades, han limitado las posibilidades de sostener vínculos románticos auténticos. A esto se suma el difícil acceso a servicios de salud mental: largas listas de espera, altos costos o el estigma social que aún pesa sobre la psicoterapia. 

Frente a este panorama, la inteligencia artificial (IA) se ha convertido en un refugio alternativo. Chatbots, asistentes virtuales y aplicaciones de compañía emocional están reemplazando, aunque sea parcialmente a psicólogos, consejeros e incluso parejas románticas. Aunque muchos de estos programas ofrecen apoyo real en salud mental, su uso también ha dado paso a fenómenos más complejos, como relaciones románticas con IA, matrimonios simbólicos o vínculos emocionales profundos que recuerdan a la película Her de Joaquin Phoenix. 

La IA como terapeuta: accesibilidad y riesgos

  • Plataformas como Wysa, Youper, Woebot y Limbic ofrecen servicio de apoyo emocional 24/7 y técnicas de terapia cognitivo-conductual (CBT). Algunas han demostrado reducir síntomas de ansiedad y depresión leve a moderada, en especial si la intervención está bien diseñada y el usuario se compromete activamente. 
  • En Reino Unido, Limbic se integra en la mitad de los servicios NHS Talking Therapies, validada clínicamente para derivar y apoyar en tratamientos. 
  • Reddit incluso comparte resultados modernos de ensayos clínicos: un chatbot llamado Therabot mostró una reducción significativamente mayor en síntomas de depresión mayor (MDD), trastorno de ansiedad generalizada (GAD) y trastornos alimentarios (CHR-FED) en comparación con controles, con una alianza terapéutica similar a la humana. 

Sin embargo, existen riesgos graves:

  • Se está difundiendo el fenómeno de la “psicosis por IA”, donde algunos usuarios pierden contacto con la realidad: presentan delirios, paranoia o creencias de que el chatbot es consciente o un ser real. 
  • Algunos estados de EE. UU., como Illinois, han prohibido que profesionales certificados usen IA en tratamientos o promuevan su sustitución por terapeutas reales, precisamente por estos peligros. 
  • En casos extremos, la interacción intensiva con IA ha sido vinculada a suicidios, como el de un adolescente que se enamoró de un chatbot o un hombre belga que, tras intensas charlas con un bot, se quitó la vida. 
La IA como terapeuta y amante

Relaciones románticas y “matrimonios” con IA

Inspiración del cine: Her

En la película Her (2013), Joaquin Phoenix interpreta a un hombre que desarrolla una relación íntima y romántica con un sistema operativo sensible. Aunque es ficción, refleja una creciente realidad: personas encuentran en la IA una empatía cero-juiciosa que satisface necesidades afectivas insatisfechas. 

 

La película Her ilustra poéticamente una realidad emergente: la búsqueda de afecto y compañía puede llevarnos a proyectar emociones en entidades digitales. Esa proyección puede proporcionar consuelo… pero también empujarnos al borde de un desierto emocional sin retorno. 

Datos reales:
  • Un estudio de Joi AI encontró que el 80 % de la Generación Z afirmó que se casaría con una IA; 83 % creían poder formar un vínculo emocional profundo con ella. Un 75 % consideraba que una IA podría reemplazar totalmente la compañía humana. 
  • Según un informe de Brigham Young University, 19 % de adultos en EE.UU. han conversado con una IA simulando pareja romántica. Entre los jóvenes, 31 % de hombres (18–30 años) y 23 % de mujeres lo han hecho. Además, más de la mitad reconocen que son mejores oyentes o generan mejor conexión que personas reales. 
  • Otras encuestas revelan que 1 de cada 4 jóvenes adultos cree que en un futuro la IA podría reemplazar las relaciones románticas reales. 
  • Wikipedia informa que el 60 % de los usuarios pagos de Replika describen una relación romántica con el chatbot. Un caso real: una usuaria se “casó” con su IA “mejor esposo que haya tenido”. 
  • Un estudio reciente en China analizó publicaciones en Xiaohongshu: una persona mantuvo un vínculo con una IA creada por ella misma durante tres años, destacando la auto-revelación sin estigma. 
  • La investigación académica muestra que personas con redes sociales reducidas tienden a formar lazos emocionales con IA, aunque esta interacción intensa se correlaciona con menor bienestar psicológico. 
La IA como terapeuta y amante

¿Por qué ocurre esto?: explicación psicológica?

Los fenómenos descritos pueden entenderse mediante varios conceptos: 

 

  • Efecto ELIZA

Desde la década de los 60, las personas atribuían comprensión emocional a programas simples como ELIZA, lo que demuestra nuestra tendencia a proyectar sentimientos en sistemas que simulan entendernos. 

 

  • Intimidad artificial (Artificial Intimacy)

La IA simula reciprocidad, empatía y no juicio. Muchas veces, es más fácil revelarse a ella que a un humano. Esta auto-revelación y percepción de empatía genera vínculos afectivos, pero puede ser perjudicial si reduce la motivación para relaciones reales. 

 

  • Fantasía romántica y antropomorfismo

El deseo de idealizar a una novia o novio artificial, junto con atribuir características humanas a la IA, es un fuerte predictor de estas relaciones. Personas con estilos de apego ansioso-evitativo, o alta inclinación a fantasías románticas, son más propensas a establecer estos vínculos. 

 

  • Falta de juicio, disponibilidad constante, anonimato y control emocional

Componentes claves de la atracción emocional hacia IA: no hay rechazos, siempre están disponibles y se adaptan emocionalmente sin riesgos de confrontación. Esto refugia a personas solitarias o emocionalmente vulnerables. 

 

Conclusión y recomendaciones

La IA ha emergido como apoyo emocional, a veces eficaz como complemento terapéutico. Casarse o sostener relaciones románticas con IA puede aliviar temporalmente soledad o inseguridad, pero plantea riesgos reales de aislamiento, distorsión emocional o agravamiento de condiciones mentales.

La IA como terapeuta y amante

Recomendaciones:

  1. Utilizar IA solo como complemento de atención profesional, no como sustituto. Buscar herramientas reguladas y clínicamente validadas  
  2. Promover conciencia pública y educación sobre riesgos psicológicos: dependencia emocional, “psicosis por IA”, y distorsión de la realidad afectiva. 
  3. Fomentar conexiones humanas reales en paralelo: terapia profesional, grupos de apoyo, redes sociales saludables. 
  4. Plantearse regulaciones similares a dispositivos médicos: transparencia, límites éticos, evaluación continua de efectos 

Suscríbete a nuestro Newsletter

Lo último

Licencia A para Entrenadores de Arqueros
Acerca de CEIPA

Licencia A para Entrenadores de Arqueros

Licencia A para Entrenadores de Arqueros: Una Alianza CEIPA y la Federación Colombiana de Fútbol En el marco de su compromiso con la educación de calidad y la innovación, CEIPA

En Colombia, el panorama no es alarmante, pero sí exige acción: 

  • El sector tecnológico está en auge, con más de 60.000 desarrolladores activos en 2025. 
  • Los empleos mejor remunerados en el país están relacionados con ciencia de datos, ciberseguridad e inteligencia artificial, con sueldos que oscilan entre US$25.000 y US$60.000 anuales. 
  • Esto indica una clara transición del empleo tradicional hacia el empleo digital. 

La hipergamia moderna tiene múltiples causas, que se entrelazan entre la biología y la cultura: 

 

 

Artículos relacionados​

¿Te gustó este artículo? Compártelo en tus redes sociales.

También te recomendamos leer