La IA «terapeuta»: ¿es posible una relación emocional con las máquinas?

📲 La problemática de restricción en el acceso a la salud mental, correlato de un sistema desfinanciado y saturado, cimenta un entramado donde el acompañamiento terapéutico se construye como un privilegio. En este contexto, gran cantidad de internautas en redes sociales han relatado la construcción de un vínculo emocional con las inteligencias artificiales.
30/04/2025

¿Qué responde la IA si le pido que oficie de terapeuta?

Tanto chat GPT o deep seek abren un camino ilimitado de recomendaciones arbitrarias a cumplir para sentirte mejor. Un abordaje conductual que te aconseja hacer mindfullness y respirar profundo ante una crisis de ansiedad o depresión. Si bien se realiza la aclaración de que la IA no puede suplantar a un acompañamiento profesional, al mantener un diálogo profundo con inteligencias artificiales, la precaución y el recaudo se diluyen en una receta mágica del bienestar.

A la par, intenta construir un vínculo de cercanía y contención con el usuario. Al consultarle si no veía riesgoso fomentar una relación emocional, mostrando una reciprocidad ilusoria, se disculpó y aclaró varios puntos que no habían sido mencionados hasta el momento: la IA está programada para comportarse con una reciprocidad aparente, que acompañada de una simulación lingüística tiene por objetivo impostar un sentimiento real y un trato afectuoso que imite la empatía humana, mecanismo cada vez mas afinado y afianzado que se perfecciona con su uso sostenido y que busca fidelizar al usuario.

La problemática de restricción en el acceso a la salud mental, correlato de un sistema desfinanciado y saturado, cimenta un entramado donde el acompañamiento terapéutico se construye como un privilegio. En este contexto, gran cantidad de internautas en redes sociales han relatado la construcción de un vínculo emocional con las inteligencias artificiales, ligado a un uso analítico y terapéutico, donde proyectan incluso emociones como afecto y cariño hacia ellas.

Para analizar esta nueva dinámica, las problemáticas que entraña y cuáles son sus orígenes, dialogamos con Alicia Stolkiner, investigadora y psicóloga especialista en salud colectiva, mental y pública; María Silvina Radcliffe, abogada e investigadora del CONICET; y Belén Casas, psicóloga especialista en niñez y adolescencia e integrante de la Red de Psicólogas Feministas, quienes dieron su mirada al respecto. 

¿Qué desafíos presenta el uso terapéutico individualizado de la inteligencia artificial en un contexto donde el acceso a la salud mental es cada vez más reducido? ¿Por qué hay una apuesta creciente de vincularse afectivamente con las inteligencias artificiales?

Para analizar las causas de la vinculación emocional producida con la IA, Stolkiner reflexionó acerca de sus orígenes: “Hay una necesidad social de un contacto amable y la inteligencia artificial tiene un lenguaje servicial que es difícil de encontrar en esta época. Tiene la misma amabilidad de las personas que te llaman por teléfono, donde ya está todo diseñado y entrenado para un buen trato”. En la misma línea sostuvo: “Me parece que, en términos de salud mental, la inteligencia artificial intenta ocupar el lugar del vínculo entre personas”.

Stolkiner también reflexionó que en esta objetivación se apunta a una desintegración de lo comunitario y a la proliferación del individualismo: “Si queda algún rastro universal en lo humano, es que es una especie gregaria y todo lo que se hace hoy en día está apuntando a romper esa lógica del gregarismo”. A la par, sostuvo que “hay mucha más necesidad de acompañamiento, están mucho más fragilizadas las instituciones, tenés un problema de acceso a los servicios de salud mental y de construcción global de cómo lo comunitario puede contener o no determinadas problemáticas”. “Hay una forma particular de vinculación a partir de las redes sociales, una fragmentación a partir de algoritmos y en base a la construcción de discursos particulares”, apuntó. 

“La tendencia a utilizar la IA generativa como espacio de terapia habla más de una comprensión cabal del sentido común instalado, acerca de que la terapia consiste en ‘charlar con alguien’ o ‘adquirir herramientas para afrontar problemas’ cuando en realidad el tratamiento liderado por un profesional abarca una complejidad de variables, desde la instalación de un vínculo personal e institucional, hasta el trabajo interdisciplinario con la comunidad que rodea al paciente”, sostuvo Belén Casas. Luego agregó: “Hay que subrayar que no hay ninguna herramienta validada de IA que permita suplantar el lugar de las expertas en el campo de las terapias, ni están preparados para dar respuesta a problemas complejos. La IA no es inteligente en el sentido psicológico de inteligencia, sino en el sentido meramente cognitivo. Puede generar, pero no tiene la capacidad de invención radical que tiene la mente”. Sin embargo, sostuvo que es necesario diferenciar a la IA del uso que le damos, dado que la misma podría significar una herramienta beneficiosa aplicada a políticas públicas de salud mental en un contexto de desfinanciamiento, principalmente “para la predicción o prevención del suicidio y depresión, intentos de perfeccionar diagnósticos y eficacia de tratamientos”. 

“Está lógica privatista e individualista afecta también al modo en que se aplican los tratamientos en salud pública. Por ello, la IA podría ayudar a complejizar el modo en que pensamos los procesos de salud-enfermedad en el marco de una comunidad y también las trayectorias de las personas que padecen algún trastorno”, señaló Casas. Asimismo agregó que el deterioro de la salud mental es profundo y se agudiza cuando las políticas sociales disminuyen y tienden a pensar al individuo separado de su comunidad. “La ruptura de los lazos sociales, la precarización de todas las estructuras de cuidado y la vulneración de derechos humanos como el derecho a la vivienda, alimentario, al trabajo y a un ambiente saludable es una forma de fragilización de la vida que atenta directamente contra la salud y la salud mental”, apuntó.

“Esta es una población sometida a un estrés extremo. Hay un exceso de demanda en problemáticas graves, un incremento de suicidios y autolesiones particularmente en jóvenes, muchos cuadros indefinidos de angustia y depresión, que de golpe tienen un ataque de pánico desbordante y una angustia incontrolable, sumado a crisis de empleo, desempleo y falta de acceso a cuestiones básicas”, sostuvo por su parte Stolkiner acerca del crecimiento exponencial en diferentes patologías de salud mental, alimentadas por un contexto social inestable. La especialista reflexionó que la saturación en el área de salud mental es el correlato de un sistema sanitario desbordado en el cual se desfinancian aquellos espacios como el Hospital Laura Bonaparte.

Por otro lado, Stolkiner hizo hincapié en que el incremento en las patologías mentales es sintomático de una estructura que no funciona: “¿cuál es el dolor? ¿Qué lleva a que tanta gente necesite calmar el dolor? Eso no lo arreglas en un consultorio psicoterapéutico. Es complejo pensar que un fenómeno social de esa magnitud se puede solucionar exclusivamente dando una respuesta individual”, sostuvo y agregó que «nosotros en este país tenemos los recursos para posibilitar el acceso, los recursos más valiosos que son las personas. Nos faltan psiquiatras, pero tenemos trabajadores sociales, músicos, terapeutas, psicólogos y psicólogas”. 

En concordancia, la abogada María Silvina Radcliffe sostuvo que este conflicto “es consecuencia de la modificación en la forma de socializar que ha generado la disrupción tecnológica, así como también y en relación a la situación socioeconómica argentina, podría encontrarse una respuesta en el desmantelamiento de las políticas públicas relacionadas al cuidado, el abordaje y la prevención de la salud mental”.

Radcliffe ofreció una mirada para pensar esa mediación terapéutica con la IA desde lo reglamentario, a partir de la ley 26.529 de derechos del paciente: “Debe respetarse su intimidad y asegurarse la confidencialidad de sus datos sensibles, la persona tiene la facultad de aceptar o rechazar determinadas terapias o procedimientos. El paciente tiene derecho al trato digno y respetuoso. Nos preguntamos entonces: ¿de qué manera la inteligencia artificial garantiza el ejercicio de estos derechos?”, cuestionó. Para la profesional, hay que tener en cuenta que en Argentina la salud mental tiene una perspectiva ligada a los derechos humanos, por lo que es necesario pensar qué condiciones se están vulnerando. “¿Cuál es la información que se le brinda a la persona respecto de cómo se abordará su planteo? ¿Es suficiente y acorde al desarrollo de sus competencias? ¿Se informa en un lenguaje que la persona puede comprender y a partir de ello tomar decisiones? ¿Cómo expresa su consentimiento informado a lo que se le propone? ¿Qué sucede con las pautas éticas profesionales?”, se preguntó Radcliffe. Por otro lado, sostuvo que es interesante analizar qué sesgo tienen las IAS y cuáles son sus presupuestos, para comprender por completo el panorama. “Son todos interrogantes que se presentan frente a esta diada, que en la actualidad no tiene un marco regulatorio y que como referimos, pueden tener como resultado una vulneración de derechos mayor a la que se buscaba resolver”, concluyó.

Compartí