Un informe de la ONG Plan Internacional revela que una de cada cuatro jóvenes españolas entre 17 y 21 años utiliza un sistema de inteligencia artificial (IA) como confidente. Las razones son comprensibles: la IA siempre responde, no juzga y ofrece un tipo de atención que muchas personas no encuentran en su entorno inmediato.
Este fenómeno, que de entrada podría parecer inofensivo o incluso positivo, abre interrogantes profundos sobre el futuro de la salud mental y la ética tecnológica. Los sistemas conversacionales actuales, como ChatGPT o Replika, son capaces de reconocer patrones de lenguaje asociados a estados emocionales. Por ejemplo, si detectan tristeza, ansiedad o desesperanza, responden con mensajes de consuelo o apoyo.
En términos técnicos, estos modelos aprenden a predecir la siguiente palabra en función del contexto, pero su efecto psicológico es muy real. Nuestro cerebro responde a las interacciones con una IA de forma parecida a como lo haría ante otro ser humano: la voz digital o el texto empático activan los mismos circuitos neuronales de apego y recompensa.
Pero lo cierto es que estos sistemas no sienten: solo simulan sentir, y esa simulación puede provocar una ilusión de comprensión que confunde. En contextos de especial vulnerabilidad como la soledad no deseada o el sufrimiento emocional, esa ilusión puede aliviar… o crear dependencia.
Los nuevos riesgos de una mente digital
La IA aplicada a la salud mental encierra una paradoja: cuanto más humana parece, más fácil es que olvidemos que no lo es. De esa confusión derivan tres grandes riesgos.
El primero de ellos es la dependencia emocional. Algunos usuarios establecen vínculos afectivos con máquinas que de ningún modo pueden corresponder. La interacción habitual con una IA puede sustituir gradualmente el contacto humano y empobrecer la capacidad de empatía y autorregulación emocional.
Además, es posible desarrollar ansiedad tecnológica. Vivir bajo la influencia constante de sistemas que nos recomiendan cómo sentir o qué pensar puede generar una pérdida de autonomía y una sensación de control disminuido sobre la propia vida emocional.
Finalmente, corremos el riesgo de deuda cognitiva. Al delegar el pensamiento o la introspección a la máquina, perdemos el hábito de reflexionar y elaborar nuestras emociones. Del mismo modo que el GPS debilita nuestra memoria espacial, la IA puede debilitar nuestra memoria emocional.
A todo ello se suman los sesgos algorítmicos. Las IA aprenden de datos reales, pero estas bases de datos reproducen a menudo las mismas desigualdades de género, raza y cultura. Sin un mecanismo correctivo, esto puede provocar que una respuesta aparentemente neutral refuerce estereotipos o trivialice experiencias de dolor psicológico.
El espejo emocional de la IA
Recientemente, el Instituto para la Ética en Inteligencia Artificial de la Universidad Técnica de Múnich publicó un artículo informando de que los chatbots de IA necesitan salvaguardas emocionales. En él, los autores advierten que las interacciones prolongadas con IA pueden alterar la regulación emocional de los usuarios, e incluso inducir estados de dependencia o idealización del sistema.
Proponen introducir “salvaguardas emocionales obligatorias”, como la identificación clara de la IA como no humana, la inclusión automática de recursos de ayuda psicológica en situaciones de riesgo o la auditoría ética de los datos emocionales que estos sistemas recopilan.
El mensaje es claro: la inteligencia artificial no es neutral. Refleja las intenciones, valores y sesgos de quienes la diseñan. En el ámbito de la salud mental, donde las emociones son frágiles y el sufrimiento real, esto adquiere una relevancia ética decisiva.
De la amenaza al potencial
Pese a estos riesgos, la IA puede ser una gran aliada si se usa bien. Puede detectar precozmente signos de depresión o ansiedad analizando el lenguaje natural gracias a análisis de datos de una magnitud que va mucho más allá del alcance de la mente humana. También puede facilitar el acceso a atención psicológica en zonas rurales o con pocos recursos, además de servir como herramienta educativa para mejorar la metacognición, es decir, la capacidad de pensar sobre el propio pensamiento y gestionar mejor las emociones.
Paralelamente puede liberar a los profesionales de tareas repetitivas, ayudándolos a concentrarse en la relación terapéutica. No se trata de sustituir la empatía humana, sino de potenciarla mediante datos y análisis. Cuando la IA está al servicio del juicio clínico y no al revés, puede contribuir a un modelo de atención más humano, no menos.
Pero para ello necesitamos un marco regulatorio ético y científico sólido. La nueva Ley de IA europea, que entrará en vigor en febrero de 2026, es un paso adelante: exige transparencia, trazabilidad y supervisión humana en los sistemas de alto impacto.
En el ámbito de la salud mental, considerado de alto riesgo, esto debe traducirse en protocolos de seguridad emocional para estos sistemas, auditorías de sesgos y formación ética para los desarrolladores y clínicos.
En conclusión, la inteligencia artificial se han convertido en un espejo emocional de nuestra sociedad. Refleja nuestras fortalezas, pero también nuestras soledades. Puede acompañarnos, pero nunca reemplazarnos.
El desafío no es hacer que las máquinas sean más humanas, sino asegurar que los humanos no perdamos nuestra humanidad al hablar con ellas.
Pere Castellvi Obiols, Profesor lector del Área de salud pública del Departamento de Medicina, Universitat Internacional de Catalunya
Este artículo fue publicado originalmente en The Conversation. Lea el original.
--
--