lunes, abril 7Una producción de Corporación Medios Digitales del Sur

Por qué los terapeutas de IA podrían aislar aún más a los pacientes vulnerables en lugar de aliviar su sufrimiento


Imagina que un terapeuta pudiera vivir en tu bolsillo. Estaría disponible para cada bache, cada crisis, cada colapso, sin importar dónde ni cuándo.


Por Nigel Mulligan


Sería económico y accesible, así que ya no habría que preocuparse por encontrar el dinero para una terapia costosa ni por esperar meses en una lista de espera para recibir tratamiento del NHS. ¿Suena demasiado bueno para ser verdad?

Tal vez, pero pocos pueden negar el atractivo de la terapia con IA, que utiliza inteligencia artificial , como los chatbots y las plataformas digitales , para brindar apoyo de salud mental, orientación, estrategias de afrontamiento y ejercicios estructurados, a menudo imitando la terapia de conversación.

La creciente popularidad de la terapia con IA puede preocupar a algunos expertos , pero es comprensible por qué tantas personas recurren a este recurso conveniente y rentable para recibir apoyo en materia de salud mental.

En el Reino Unido, una derivación al NHS para atención de salud mental puede tardar 18 semanas o más. Según datos de 2025 de la Asociación Médica Británica: «Actualmente, los servicios no cuentan con los recursos necesarios para satisfacer la creciente demanda, lo que resulta en largas esperas y umbrales elevados para el tratamiento; las últimas estimaciones sitúan la lista de espera para atención de salud mental en un millón de personas».

No es de extrañar, entonces, que un número creciente de jóvenes , en particular, recurra a chatbots de IA para ayudarles a afrontar problemas de salud mental. Sin embargo, si bien la IA puede resultar beneficiosa para algunos —a menudo como complemento de la terapia humana—, no es un sustituto eficaz de un terapeuta humano. E incluso podría resultar peligrosa.

La psicoterapia, conocida como la «terapia de la palabra», utiliza el diálogo para explorar pensamientos y sentimientos y ayudar a los pacientes a comprender y abordar los problemas de salud mental. Los psicoterapeutas ahora utilizan herramientas de IA para mejorar su trabajo en el tratamiento de la salud mental. Por ejemplo, los terapeutas utilizan software como ChatGPT para realizar evaluaciones de los pacientes. Introducen datos del paciente, como su sexo, edad y problemas psicológicos. En respuesta, el chatbot recopila la información para crear un plan de tratamiento que el terapeuta debe seguir.

Pero, aunque la IA está resultando útil para algunos terapeutas, las personas que recurren a los chatbots en busca de ayuda para crisis de salud mental pueden encontrar mucho menos útil la falta de supervisión y aportes humanos.

Falta de humanidad

Los chatbots pueden simular empatía, pero no comprenden ni sienten emociones. Los terapeutas humanos pueden aportar matices emocionales, intuición y una conexión personal, algo que los chatbots actualmente no pueden replicar de forma significativa. Los chatbots también tienen una capacidad limitada para comprender emociones complejas y pueden tener dificultades para comprender la complejidad de las emociones humanas, especialmente cuando la situación implica un trauma profundo, un contexto cultural o problemas complejos de salud mental.

Por lo tanto, los chatbots no son adecuados para personas con problemas graves de salud mental. El software puede brindar apoyo en casos menos graves, pero no está preparado para abordar crisis graves de salud mental, como pensamientos suicidas o autolesiones. Sin embargo, los terapeutas humanos están capacitados para reconocer y responder a estas situaciones con intervenciones adecuadas.

Si bien los chatbots pueden programarse para brindar asesoramiento personalizado, es posible que no se adapten con la misma eficacia que un terapeuta humano . Los terapeutas humanos adaptan su enfoque a las necesidades y experiencias únicas de cada persona. Los chatbots se basan en algoritmos para interpretar la información del usuario, pero pueden producirse errores de comunicación debido a matices en el lenguaje o el contexto. Por ejemplo, los chatbots pueden tener dificultades para reconocer o responder adecuadamente a las diferencias culturales, que son un aspecto importante de la terapia. La falta de competencia cultural en un chatbot podría aislar e incluso perjudicar a usuarios de diferentes orígenes.

Por lo tanto, si bien los terapeutas que utilizan chatbots pueden ser un complemento útil a la terapia tradicional, no son un sustituto completo, especialmente cuando se trata de necesidades de salud mental más graves. La psicoterapia humana ofrece un espacio de apoyo y seguridad para que los clientes se relajen, reflexionen y exploren sus pensamientos y sentimientos con la guía de expertos. Los terapeutas humanos se rigen por normas éticas y estándares profesionales.

Sin embargo, los chatbots carecen de estructuras de rendición de cuentas, lo que puede dar lugar a asesoramiento inconsistente o inapropiado. Las investigaciones también han suscitado preocupación por la posibilidad de violaciones de la privacidad y riesgos de seguridad al compartir información confidencial con terapeutas que utilizan chatbots.

Algunas personas podrían volverse excesivamente dependientes de los terapeutas que utilizan chatbots, evitando así la terapia tradicional con profesionales humanos. Esto podría retrasar la recepción de una atención más integral cuando la necesiten, aislando aún más a las personas vulnerables en lugar de aliviar su sufrimiento.

La terapia conversacional en psicoterapia es un proceso que fomenta el potencial humano para una mayor autoconciencia y crecimiento personal. Estas aplicaciones nunca podrán reemplazar las relaciones terapéuticas desarrolladas como parte de la psicoterapia humana. Más bien, existe el riesgo de que limiten las conexiones de los usuarios con otras personas, lo que podría agravar el sufrimiento de quienes padecen problemas de salud mental , lo contrario de lo que la psicoterapia pretende lograr.

Este artículo se republica de The Conversation bajo una licencia Creative Commons. Lea el artículo original.