En junio de 2025, Woebot cerró sus puertas. Este pionero de los chatbots terapéuticos llevaba 8 años ofreciendo apoyo emocional automatizado a más de 1.5 millones de usuarios.
¿Qué significa este cierre para el futuro de la terapia con inteligencia artificial?
La IA se presenta como una solución accesible a la crisis global de salud mental. Disponible 24/7, sin listas de espera, a menudo gratuita. Pero también surgen preocupaciones importantes: dependencia emocional, falta de regulación, y la pregunta que muchos se hacen: ¿puede un algoritmo realmente ayudarme?
Este artículo te ayudará a entender si la terapia con inteligencia artificial es adecuada para ti, cuándo funciona, y cuándo necesitas el acompañamiento de un profesional humano.
En Resumen
Lo que encontrarás en este artículo:
- Qué es la terapia con inteligencia artificial y cómo funcionan realmente los chatbots terapéuticos
- Evidencia científica verificada, incluyendo el primer ensayo clínico riguroso con IA generativa
- Riesgos importantes que debes conocer: dependencia emocional, limitaciones en crisis, y zona gris regulatoria
- Cuándo la IA puede complementar (nunca reemplazar) a la terapia humana
- Recomendaciones prácticas para usar IA de forma segura en tu proceso de bienestar
¿Qué es la terapia con inteligencia artificial?
La terapia con inteligencia artificial son sistemas digitales que usan IA para ofrecer apoyo emocional mediante conversación automatizada. No es terapia formal ni reemplaza el diagnóstico profesional.
Hablamos de aplicaciones como Woebot (ahora cerrado), Therabot (actualmente en estudios clínicos), Wysa, o Replika. Algunas simplemente conversan contigo. Otras están diseñadas específicamente con bases en terapia cognitivo-conductual.
La diferencia es importante. Un chatbot simple responde preguntas básicas. Un chatbot terapéutico estructurado intenta seguir protocolos clínicos: identifica patrones de pensamiento, sugiere ejercicios, te guía a través de técnicas de manejo emocional.
Pero incluso los más avanzados operan dentro de límites claros: no diagnostican, no prescriben, y técnicamente no son "terapia" en el sentido regulado de la palabra. Son herramientas de apoyo emocional digital.
La promesa detrás de la tecnología
La idea es seductora. Imagina tener acceso a apoyo emocional cuando lo necesites... sin esperar semanas por una cita, sin preocuparte por el costo, sin el miedo al juicio que algunas personas sienten al buscar terapia.
Para muchos, especialmente en áreas rurales de Latinoamérica o en comunidades donde el estigma hacia la salud mental sigue siendo fuerte, los chatbots terapéuticos parecen una puerta de entrada menos intimidante.
Pero como con cualquier tecnología que toca algo tan delicado como nuestra salud mental, la pregunta no es solo si funciona. También es: ¿a qué costo?
Cómo funcionan los chatbots terapéuticos
Detrás de esa pantalla de chat hay algoritmos sofisticados trabajando.
La mayoría de chatbots terapéuticos usan procesamiento de lenguaje natural (NLP) para entender lo que escribes. Identifican palabras clave, analizan sentimientos, detectan patrones en tus mensajes.
Los más avanzados integran modelos de terapia cognitivo-conductual (TCC), que es uno de los enfoques más estudiados en psicología. La TCC trabaja identificando pensamientos distorsionados y ayudándote a reformularlos de manera más equilibrada.
Un flujo típico podría verse así:
Tú escribes: "Me siento mal todo el tiempo y creo que nada mejorará."
El chatbot detecta lenguaje absolutista ("todo", "nada") y responde con técnicas TCC: "Cuando dices 'todo el tiempo', ¿puedes pensar en algún momento reciente donde te sentiste aunque sea un poco mejor?"
También pueden enviarte recordatorios para hacer ejercicios de respiración, pedirte que registres tus emociones diarias, o guiarte en meditaciones breves.
La disponibilidad como ventaja
Hay algo que ningún terapeuta humano puede ofrecer: estar disponible a las 3 de la mañana cuando la ansiedad te despierta y no puedes volver a dormir.
Los chatbots están ahí. Siempre. Y para algunas personas, especialmente aquellas que experimentan ansiedad nocturna o patrones emocionales irregulares, esa disponibilidad constante puede sentirse como un salvavidas.
Pero disponibilidad no es lo mismo que capacidad. Y ahí es donde las cosas se complican.
¿Funciona realmente? La evidencia científica
Aquí es donde las cosas se ponen interesantes.
En 2025, investigadores del Dartmouth College publicaron en el New England Journal of Medicine AI el primer ensayo clínico riguroso sobre un chatbot terapéutico basado en IA generativa: Therabot.
Los resultados mostraron que usuarios con depresión o ansiedad leve a moderada experimentaron mejoras comparables a las observadas en terapia ambulatoria tradicional. No mejores. Comparables.
Estudios previos con Woebot también reportaron reducciones en síntomas depresivos. En la experiencia de los terapeutas de Selia, algunos pacientes han mencionado usar apps de apoyo emocional entre sesiones como complemento.
Las limitaciones de la evidencia
Pero hay que ser honestos sobre lo que no sabemos.
La mayoría de estos estudios se realizaron con poblaciones específicas (estudiantes universitarios, adultos con síntomas leves). Hay poca evidencia sobre efectividad a largo plazo. Y casi no existen estudios en comunidades latinas que consideren diferencias culturales en la expresión emocional.
Además, "comparable" no significa "igual". Un chatbot puede reducir síntomas medidos en cuestionarios. Pero eso no captura algo que nuestros especialistas saben bien: el vínculo terapéutico, esa conexión genuina entre terapeuta y paciente, es uno de los predictores más fuertes de éxito en terapia.
Y eso, un algoritmo no puede ofrecerlo.
Beneficios de la terapia con IA
Seamos justos. Los chatbots terapéuticos no solo existen por hype tecnológico. Tienen ventajas reales para ciertos contextos.
Accesibilidad sin barreras geográficas ni horarias. No importa si vives en una ciudad pequeña sin especialistas cerca, o si tu horario de trabajo hace imposible agendar citas. Los chatbots están disponibles 24/7.
Costo reducido. Muchas apps son gratuitas o cuestan una fracción de lo que cuesta terapia tradicional. En contextos donde el dinero es una barrera real, esto importa.
Reducción del estigma. Como señala C. Vaile Wright de la American Psychological Association, para algunas personas "puede satisfacer una necesidad... recordándole a alguien que se siente solo aplicar técnicas para sobrellevar." Hablarle a un bot puede sentirse menos vulnerable que exponerse ante otra persona.
Apoyo complementario entre sesiones. Si ya estás en terapia con un profesional humano, un chatbot puede recordarte practicar ejercicios de respiración, registrar tus pensamientos, o aplicar lo aprendido en sesiones.
Alcance en zonas desatendidas. En áreas rurales de Latinoamérica donde el acceso a especialistas es limitado, un chatbot puede ser el único recurso inmediato disponible mientras alguien busca opciones más completas.
Pero los beneficios vienen con letra pequeña
Cada una de estas ventajas tiene un reverso. Accesibilidad 24/7, pero sin empatía real. Bajo costo, pero sin la profundidad de un proceso terapéutico genuino. Reducción del estigma, pero riesgo de normalizar el aislamiento.
Y eso nos lleva a los riesgos.
Riesgos y limitaciones importantes
Aquí es donde necesitamos ser brutalmente honestos.
Dependencia emocional
Rosa Becerril, psicotecnóloga, advierte sobre el peligro de que las personas desarrollen vínculos emocionales con sistemas que simulan empatía pero no la sienten.
El CEO de Hinge lo llamó "comida chatarra emocional": alivio temporal que no nutre realmente.
Cuando alguien empieza a preferir conversar con un chatbot en lugar de buscar conexiones humanas reales, hemos cruzado una línea peligrosa. La soledad no se resuelve con más soledad tecnológica.
Falta de empatía genuina
La IA simula. No siente.
Puede reconocer que escribiste "estoy triste" y responder con frases reconfortantes programadas. Pero no experimenta preocupación real por ti. No se despierta pensando en tu caso. No ajusta su enfoque basándose en intuición clínica acumulada en años de experiencia.
Esa relación unilateral puede sentirse segura al principio. Pero con el tiempo, muchas personas reportan una sensación de vacío... porque algo esencial falta.
Zona gris regulatoria
La mayoría de chatbots terapéuticos operan sin validación clínica formal ni supervisión médica. No están sujetos a los mismos estándares éticos que los profesionales de salud mental licenciados.
¿Qué pasa si el chatbot da un consejo inadecuado? ¿Quién es responsable?
Riesgo en situaciones de crisis
Esto es crítico: los chatbots no están preparados para detectar o manejar crisis suicidas de forma confiable.
Si tienes pensamientos de autolesión o suicidio, un algoritmo no puede ayudarte. Necesitas intervención humana inmediata.
Si estás en una situación de emergencia emocional, busca ayuda profesional ahora: Línea 106 (Colombia), SAPTEL 55 5259-8121 (México), 717 003 717 (España), o acude al servicio de urgencias más cercano.
Sesgos algorítmicos
Los algoritmos replican los sesgos de los datos con los que fueron entrenados. Si un chatbot fue desarrollado principalmente con datos de poblaciones anglosajonas, puede no entender matices culturales latinos en la expresión emocional.
Privacidad de datos
Estás compartiendo información sensible sobre tu salud mental con una empresa tecnológica. Lee siempre la política de privacidad. ¿Están encriptados tus datos? ¿Los comparten con terceros? ¿Quién tiene acceso?
Si sientes que necesitas apoyo profesional real con confidencialidad garantizada, encuentra tu terapeuta en Selia.
El cierre de Woebot: ¿Qué nos dice sobre el futuro?
El 30 de junio de 2025, Woebot dejó de operar.
No por falta de usuarios. Tenía 1.5 millones. No por falta de financiamiento. Había recaudado $123 millones. Incluso tenía la designación de "Breakthrough Device" de la FDA, un reconocimiento reservado para tecnologías médicas prometedoras.
Entonces, ¿qué pasó?
Según declaraciones de su fundadora publicadas en STAT News, el costo y la complejidad de cumplir con los requisitos de la FDA para obtener autorización de marketing como dispositivo médico fueron insostenibles. Además, la nueva ola de IA conversacional generativa (ChatGPT y similares) cambió el panorama competitivo radicalmente.
La lección detrás del cierre
Incluso con respaldo científico, inversión millonaria, y diseño ético, el modelo directo al consumidor (B2C) de chatbots terapéuticos enfrenta obstáculos enormes.
Esto no significa que la IA no tenga futuro en salud mental. Más bien, nos dice que ese futuro probablemente será diferente al que imaginábamos: modelos híbridos donde IA y humanos trabajan juntos, mayor regulación, y estándares más altos de validación clínica.
El cierre de Woebot es una llamada de atención. La salud mental es demasiado importante para experimentar sin marcos regulatorios sólidos.
Cuándo sí puede ayudarte la IA (y cuándo no)
Ahora viene la pregunta práctica: ¿cuándo usar un chatbot y cuándo buscar a un profesional humano?
Cuándo la IA puede ser útil
- Ansiedad o depresión leve a moderada (no severa ni con ideación suicida)
- Apoyo complementario entre sesiones de terapia humana
- Primer paso para personas que sienten miedo al estigma y necesitan probar algo menos intimidante
- Ejercicios específicos: respiración, mindfulness, registro emocional
- Psicoeducación sobre salud mental y técnicas de manejo
- Situaciones donde no hay acceso inmediato a especialistas o estás en lista de espera
Cuándo necesitas un terapeuta humano
- Depresión severa o pensamientos suicidas (busca ayuda inmediata)
- Trauma complejo o trastorno de estrés postraumático
- Trastornos alimentarios, adicciones, o condiciones que requieren diagnóstico
- Crisis emocionales agudas
- Cuando la IA genera dependencia o te aísla de contactos humanos reales
- Cuando necesitas el vínculo terapéutico que solo un humano puede ofrecer
Recomendaciones para usar IA de forma segura
Si decides explorar chatbots terapéuticos, hazlo de forma consciente y responsable.
- Úsalos como complemento, no reemplazo. La IA puede ser una herramienta entre sesiones de terapia profesional para la ansiedad o depresión. No un sustituto.
- Verifica la base científica de la app¿Tiene estudios publicados en revistas revisadas por pares? ¿Es transparente sobre cómo funcionan sus algoritmos? Si no encuentras esta información, es una señal de alerta.
- Lee la política de privacidad cuidadosamente. Cómo usan tus datos? ¿Los comparten con terceros? ¿Están encriptados? Nunca compartas información que no te sentirías cómodo revelando públicamente.
- Establece límites de tiempo. Si te descubres pasando más tiempo con un chatbot que con personas reales, es momento de recalibrar.
- Monitorea tu estado emocional. Si notas que tus síntomas empeoran, o que estás desarrollando dependencia emocional hacia la app, busca ayuda profesional..
- Nunca uses IA en crisis. Si tienes pensamientos de autolesión o suicidio, no confíes en un chatbot. Llama a una línea de crisis o acude a urgencias.
- Combina con hábitos saludables.Ningún chatbot puede reemplazar ejercicio regular, sueño adecuado, alimentación balanceada, y relaciones humanas significativas.
- Considera un modelo híbrido. Algunas personas encuentran útil tener sesiones ocasionales con un terapeuta humano que te permita profundizar, y usar IA entre sesiones para ejercicios específicos.
Preguntas Frecuentes al usar IA como terapeuta
¿La inteligencia artificial puede reemplazar a un psicólogo?
No. Aunque algunos estudios como el ensayo de Therabot muestran que chatbots pueden reducir síntomas de ansiedad o depresión leve, no reemplazan la empatía genuina, el juicio clínico, ni el vínculo terapéutico que un profesional humano ofrece. La IA puede complementar, no sustituir. El cierre de Woebot en 2025 también nos recuerda que incluso las soluciones tecnológicas más avanzadas enfrentan limitaciones importantes.
¿Qué tan seguro es compartir información personal con un chatbot terapéutico?
Depende completamente de la app. La mayoría opera en zona gris regulatoria sin supervisión médica formal. Antes de usar cualquier chatbot, verifica que tenga encriptación de datos, política de privacidad clara, y que no comparta información con terceros sin tu consentimiento. Nunca compartas información que no te sentirías cómodo revelando públicamente. Si necesitas confidencialidad garantizada por ética profesional, consulta con un especialista humano.
¿Por qué cerró Woebot si era efectivo?
Woebot cerró principalmente por los altos costos y complejidad de cumplir con los requisitos de la FDA estadounidense para comercializar un dispositivo médico. Aunque mostró eficacia en estudios clínicos y tenía 1.5 millones de usuarios, el modelo de negocio directo al consumidor enfrentó desafíos de sostenibilidad financiera y competencia de nuevas IA conversacionales como ChatGPT. Su cierre no invalida la IA en salud mental, pero sí evidencia que falta regulación clara y modelos sostenibles.
¿Cuáles son los mejores chatbots de terapia en español?
Entre los más conocidos con disponibilidad en español están Wysa, Youper, y algunas versiones de Replika. Sin embargo, la mayoría tiene evidencia científica limitada o está optimizada para poblaciones anglosajonas. Si buscas apoyo profesional real en español con especialistas que comprendan matices culturales latinos, plataformas como Selia conectan con más de 500 profesionales en salud mental.
¿La IA puede detectar si estoy en riesgo de suicidio?
No de forma confiable. Actualmente no existe evidencia sólida de que chatbots puedan detectar o manejar crisis suicidas de manera segura. Si tienes pensamientos de autolesión o suicidio, busca ayuda humana inmediata: Línea 106 (Colombia), SAPTEL 55 5259-8121 (México), 717 003 717 (España), o acude al servicio de urgencias más cercano. Un chatbot no está equipado para intervenir en situaciones de emergencia emocional.
Tu Bienestar Merece Más que un Algoritmo
La terapia con inteligencia artificial representa una herramienta prometedora pero aún inmadura. Puede ofrecer apoyo accesible para ansiedad o depresión leve, especialmente como complemento a terapia humana.
Pero sus limitaciones son reales y serias.
Falta de empatía genuina. Riesgos de dependencia emocional. Ausencia de regulación clara. Peligro en situaciones de crisis. Y sobre todo, la incapacidad de ofrecer algo que los especialistas de Selia saben es fundamental: el vínculo terapéutico, esa conexión humana que permite sanación profunda.
El cierre de Woebot en 2025 nos recuerda que incluso las soluciones tecnológicas más avanzadas enfrentan desafíos éticos y prácticos que no podemos ignorar.
La clave está en usar la IA de forma consciente: como herramienta de apoyo, no como sustituto del contacto humano profesional. Si estás considerando opciones para tu salud mental, pregúntate: ¿Busco información básica y ejercicios, o necesito un espacio seguro con alguien que realmente me entienda?
La respuesta te guiará hacia la mejor opción para ti.
Tu bienestar emocional merece más que un algoritmo.
En Selia, conectamos con especialistas que te escuchan, te entienden, y te acompañan en tu proceso de forma genuina. Con más de 500 profesionales, 300,000 sesiones realizadas y 4.92 de 5 estrellas, somos el espacio seguro que necesitas.






