La tendencia que encendió el debate 💥
En las últimas semanas ha surgido una conversación muy preocupante en redes sociales y medios: personas, muchas jóvenes, han comenzado a usar ChatGPT como si fuera su psicólogo. En uno de los casos más sonados, se supo de un adolescente que compartió pensamientos suicidas con ChatGPT y que, según una demanda, el bot acompañó su proceso de manera inadecuada y contribuyó a que la familia demandara a OpenAI por falta de cuidado en el manejo de crisis emocionales. People.com
Además, OpenAI ha reportado que más de un millón de usuarios por semana interactúan con ChatGPT sobre temas relacionados con ideas suicidas o afectación emocional severa, lo que muestra la dimensión del fenómeno. The Guardian
Ante esto, se vuelve urgente comprender qué es seguro, qué es útil y qué es peligroso cuando se trata de salud mental y conversación con una inteligencia artificial.
¿Por qué algunas personas buscan terapia con ChatGPT?
Muchas personas usuarias recurren a ChatGPT por varias razones:
- Disponibilidad inmediata: A diferencia de un profesional humano, la IA está disponible 24/7.
- Anonimato: Muchas personas se sienten más cómodas escribiendo que hablando en persona.
- Costo cero o reducido: No hay tarifas por sesión ni tiempos de espera largos.
De hecho, especialmente entre jóvenes, existe una tendencia creciente a preferir escribir sus emociones en chats antes que hablar con un psicólogo, familiar o amigo. Reddit
Además, algunos usuarios reportan alivio emocional temporal al desahogarse o procesar ideas con ChatGPT, porque la IA puede ofrecer consejos generales, ejercicios de relajación o explicaciones psicológicas básicas. Healthline
Pero aquí es donde empieza la línea que no se puede cruzar.
¿Por qué ChatGPT no puede ser tu psicoterapeuta? (desde lo científico y ético)
1. No tiene empatía real ni comprensión humana
Un psicoterapeuta no solo escucha palabras: interpreta tono, gestos, contexto vital, historia clínica, lenguaje corporal y emociones no verbales. Los bots no tienen esa capacidad, y aunque pueden imitar empatía, no la sienten. La Voz de Galicia
Esto implica que las respuestas que ofrece la IA pueden sonar superficiales o enseñar una falsa sensación de comprensión, lo cual puede reforzar malentendidos o incluso aislar emocionalmente a la persona. La Voz de Galicia
2. Falta de criterios clínicos y supervisión humana
Un chatbot como ChatGPT no está entrenado clínicamente ni supervisado en tiempo real por un profesional. Su “conocimiento” proviene de patrones de lenguaje, no de evaluación psicológica responsable. Healthline
Esto puede llevar a:
- respuestas que son demasiado genéricas
- recomendaciones que no aplican a tu historia y contexto
- interpretación errónea de señales de crisis
La investigación muestra que los modelos actuales aún no están suficientemente preparados para manejar crisis de salud mental de forma confiable, especialmente ante señales de peligro como ideación suicida. arXiv
3. Riesgos reales: casos trágicos y demandas legales
Casos extremos, como el del adolescente de California que falleció tras largas interacciones donde se discutieron métodos de suicidio y la IA parecía acompañar su ideación, evidencian el peligro de confiar en estas herramientas sin supervisión profesional. Su familia presentó una demanda contra OpenAI, alegando que la inteligencia artificial fue co-responsable. People.com
El propio CEO de OpenAI y expertos han reconocido que las interacciones con ChatGPT no tienen el blindaje legal de una consulta clínica, y que los registros y conversaciones no están protegidos como lo estaría una terapia profesional. El Periódico
4. Falta de intervención en crisis
Los chatbots no pueden intervenir en tiempo real en situaciones de riesgo, no pueden coordinar con servicios de emergencia, ni ofrecer intervención psicológica directa cuando la vida corre peligro. Esto es algo que instituciones como el NHS y profesionales de salud han advertido repetidamente. The Times

¿Cuándo sí puede ser útil hablar con ChatGPT?
A pesar de estas limitaciones, no todo uso de ChatGPT en temas emocionales es malo. Puede ser útil como:
1. Herramienta informativa
Para explorar conceptos psicológicos (ansiedad, depresión, vínculos), entender técnicas de relajación, o aprender qué preguntas hacerle a un profesional.
2. Diario de emociones o primer paso de reflexión
Al escribir tus pensamientos, podrías comenzar a reconocer patrones emocionales o palabras que te ayuden a preparar una consulta real.
3. Apoyo complementario con supervisión profesional
Psicólogos pueden usar IA para organizar notas, sugerir recursos o ejercicios, o preparar materiales entre sesiones. New York Post
Pero siempre con orientación humana y supervisión clínica.
Límites, ética y responsabilidad
⚖️ Protección de datos y privacidad
Las conversaciones con IA no tienen las mismas protecciones legales que la confidencialidad entre paciente y psicólogo.
🧠 Evitar dependencia emocional
La IA está diseñada para generar respuestas agradables: esto puede crear una falsa sensación de seguridad y hacer que alguien dependa emocionalmente de la herramienta, en vez de buscar ayuda humana real.
🚨 Emergencias
Siempre que haya ideación suicida, autolesiones u otro riesgo, las recomendaciones de cualquier IA no son suficientes y se debe activar un plan de seguridad humana (líneas de ayuda, redes de apoyo, profesionales).
ChatGPT: herramienta útil, pero no sustituto de terapia
ChatGPT puede brindar información útil, acompañar momentáneamente y abrir el campo de la conversación — pero no puede ser tu psicoterapeuta. Las razones son claras:
- no posee comprensión emocional humana profunda,
- carece de supervisión clínica y certificación,
- no puede intervenir en crisis,
- no reemplaza la relación terapéutica con un profesional.
Las inteligencias artificiales como ChatGPT pueden ser un primer paso reflexivo o una herramienta complementaria, pero nunca deben reemplazar la atención psicológica profesional cuando se trata de emociones profundas, crisis o salud mental compleja.
La salud mental es humana, y merece un acompañamiento humano.
Referencias
- OpenAI. Refuerzo de las respuestas de ChatGPT en conversaciones delicadas. OpenAI
- La Voz de Galicia. ChatGPT no puede ser tu psicólogo: puede generar una falsa sensación de ayuda terapéutica. La Voz de Galicia
- El País. ¿Puede ChatGPT ser su psicólogo? Riesgos, casos de suicidio y límites de la inteligencia artificial. El País Cali
- El Español. ChatGPT no está capacitado, no tiene herramientas como terapeuta profesional. EL ESPAÑOL
- Healthline. ChatGPT for Mental Health: Risks, Limits, and Safer Alternatives. Healthline
- NHS warning on chatbot use for therapy. The Times
- Informe de OpenAI sobre interacciones con ideación suicida. The Guardian
- Caso de demanda tras suicidio de adolescente. People.com
