**La IA está aquí para escucharte… ¿o no?** La inteligencia artificial (IA) ha irrumpido en el mundo de la salud mental, generando tanto promesas como controversias. Desde influencers como Tomás Mazza, que confiesan usar ChatGPT como terapeuta personal, hasta aplicaciones como Woebot, que aseguran reducir la ansiedad en cuestión de días, la terapia digital está en el centro del debate. Pero, ¿estamos ante una revolución en la atención de la salud mental, o ante una peligrosa moda pasajera? Este artículo explora las luces y sombras de la terapia digital, analizando si la IA realmente puede cuidar de nuestra mente, o si solo estamos abriendo la puerta a una nueva forma de autoayuda con riesgos aún desconocidos.
En este artículo analizaremos:
-El problema de acceso a la salud mental y cómo la IA promete ser una solución. -El auge de los chatbots terapéuticos y su efectividad real. -Los riesgos del sesgo algorítmico y la privacidad de los datos. -El futuro híbrido de la terapia, donde la IA complementa el trabajo de los profesionales.
Salud mental en crisis: ¿la IA al rescate?
El acceso a la salud mental es un desafío creciente. Las listas de espera interminables, los costos prohibitivos de la terapia tradicional y el estigma social son barreras que impiden a muchas personas recibir la atención que necesitan. En este contexto, los **chatbots terapéuticos** emergen como una alternativa seductora, ofreciendo acceso rápido, económico y anónimo a herramientas de apoyo emocional. Pero, ¿son la panacea que prometen ser?
Estos programas de IA pueden mantener conversaciones, brindar consejos, guiar ejercicios de relajación e incluso derivar a profesionales en situaciones de crisis. Su disponibilidad 24/7 y su capacidad de adaptación individual los convierten en una opción atractiva para quienes buscan alivio inmediato. Sin embargo, es crucial analizar a fondo sus limitaciones y los potenciales riesgos.
Tomás Mazza y ChatGPT: ¿un terapeuta digital en tu bolsillo?
El caso del influencer Tomás Mazza, que admitió usar ChatGPT para “desahogarse”, desató un intenso debate sobre el uso de la IA como sustituto de la terapia tradicional. Si bien estos programas pueden ofrecer un espacio seguro para expresar emociones y obtener respuestas instantáneas, no están diseñados para proporcionar un tratamiento psicológico completo. **¿Podemos confiar en un algoritmo para cuidar nuestra salud mental?**
Según el psiquiatra Mariano H. Castelli, el principal peligro radica en el “mal manejo de la información” por parte de la IA, que carece del juicio clínico de un profesional. A diferencia de un terapeuta humano, ChatGPT no ofrece escucha activa, contención emocional ni interpreta el lenguaje no verbal del paciente. Su comprensión del contexto cultural y personal es limitada, lo que puede llevar a diagnósticos y consejos erróneos.
Es como pretender hacer autoterapia por leer libros. Se está utilizando un dispositivo que no tiene ni conciencia ni emociones, que no sabe de la experiencia interpersonal, del encuentro humano y de lo que está en juego. Por lo tanto, carece de lo que hace al registro profesional de lo que le pasa a un paciente: la escucha activa, la contención, el manejo de los tiempos, la lectura del lenguaje no verbal
¿Discriminación algorítmica? El sesgo oculto en la terapia digital
Uno de los riesgos más preocupantes de los chatbots terapéuticos es su potencial para replicar y amplificar los sesgos presentes en los datos con los que fueron entrenados. El Dr. Diego Fernández Slezak, experto en IA, explica que estos programas “absorben estos sesgos y, por supuesto, los potencian y replican”.
Esto significa que si los datos utilizados para entrenar a la IA reflejan estereotipos de género, raciales o culturales, el chatbot podría ofrecer respuestas discriminatorias o inapropiadas a ciertos grupos de personas. Aunque es posible modificar estos sesgos manualmente, el riesgo de que persistan y se propaguen a gran escala es una seria preocupación.
Fernández Slezak advierte: “Los seres humanos tenemos sesgos, pero como interactuamos con muchas personas y somos bombardeados por muchos sesgos distintos, generamos el nuestro propio. El gran problema de la masificación de la IA es que al estar completamente distribuido en toda la población, en todos los profesionales, en todos los usuarios, lo que termina pasando es que un único sesgo penetra a todas las personas. De ahí la exponencialidad en el impacto”.
Tu privacidad en riesgo: ¿quién espía tus conversaciones más íntimas?
La seguridad y privacidad de los datos es otro aspecto crítico al utilizar chatbots terapéuticos. Como señala Fernández Slezak, la mayoría de estos programas “almacenan los datos de las conversaciones en sus servidores centrales”, ubicados a menudo en países con leyes de protección de datos diferentes a las del usuario.
**Tu información más íntima podría estar vulnerable a hackeos, filtraciones o incluso ser utilizada con fines comerciales sin tu consentimiento.** Es fundamental leer detenidamente los términos y condiciones de uso antes de compartir cualquier información personal con un chatbot terapéutico, y asegurarse de que la empresa responsable implemente medidas de seguridad adecuadas para proteger tus datos.
Un futuro híbrido: la IA como aliada, no como enemiga
A pesar de los riesgos y limitaciones, la IA tiene el potencial de transformar positivamente la salud mental. En lugar de reemplazar la terapia tradicional, podemos verla como una herramienta complementaria para mejorar el acceso, personalizar tratamientos y optimizar el tiempo de los profesionales.
Existen bots conversacionales con IA aprobados por la FDA para casos específicos como alteraciones del sueño. Sin embargo, la comunidad científica aún debate si su utilidad y eficacia superan los tratamientos convencionales.
Un ejemplo prometedor es el proyecto del investigador argentino Guillermo Cecchi, que utiliza la IA para analizar sesiones de psicoterapia y diseñar intervenciones personalizadas para pacientes con esquizofrenia, ansiedad, depresión y suicidalidad. Sus investigaciones demuestran que la IA puede identificar patrones en el lenguaje de los pacientes que revelan su estado emocional y la calidad de la relación terapéutica, permitiendo a los profesionales adaptar sus estrategias y mejorar los resultados.
La IA no puede reemplazar la empatía, la intuición y el juicio clínico de un terapeuta humano, pero sí puede convertirse en un aliado valioso para mejorar el acceso a la atención, personalizar los tratamientos y optimizar el tiempo de los profesionales. Utilizados de forma ética, responsable y bajo supervisión de expertos, los chatbots terapéuticos pueden revolucionar la salud mental. **El futuro de la terapia digital es prometedor, pero debemos avanzar con cautela, priorizando siempre el bienestar y la seguridad de los pacientes.**