¿Puede un bot salvar tu salud mental? El dilema ético y legal de la terapia con IA

Estados Unidos enfrenta una ola de regulaciones mientras millones de usuarios recurren a chatbots para manejar ansiedad, depresión y más

Una revolución silenciosa: la terapia digital en manos de la inteligencia artificial

La salud mental está experimentando una revolución tecnológica acelerada. Cada día, millones de personas recurren a bots de inteligencia artificial (IA) en busca de compañía, apoyo emocional y hasta orientación terapéutica. plataformas como Earkick, Woebot o Wysa han ganado popularidad por su capacidad para interactuar empáticamente con los usuarios las 24 horas del día. No obstante, esta tendencia ha encendido las alarmas en varios estados de EE.UU., generando un debate crucial: ¿acaso un algoritmo puede asumir el rol de un terapeuta?

Regulaciones estatales: un mosaico incompleto ante un problema sistémico

En ausencia de una legislación federal clara, estados como Illinois y Nevada han decidido prohibir el uso de IA para ofrecer terapia. Utah, por su parte, impone restricciones específicas como la obligación de proteger la privacidad del usuario y la necesidad de declarar explícitamente que el chatbot no es humano. Mientras tanto, otros estados —California, Nueva Jersey y Pensilvania— evalúan sus propios mecanismos regulatorios.

Pero el panorama es mucho más complejo. Muchas de estas leyes excluyen a herramientas como ChatGPT o Character.AI, cuyos servicios no son comercializados directamente como terapéuticos, aunque miles de usuarios los emplean con tal fin.

Chatbots populares y sus funciones: de acompañante a consejero

Los tipos de aplicaciones son variados. Algunos bots son diseñados meramente como "compañeros virtuales", mientras otros prometen asistencia emocional o apoyo de salud mental. Es el caso de Earkick, cuyo avatar de panda puede motivar al usuario y hasta sugerir acudir a un profesional si detecta un deterioro en su ánimo.

Sin embargo, el dilema semántico es clave: ¿un bot que escucha, aconseja y acompaña es un terapeuta, un asistente emocional, o simplemente una app de cuidado personal? Usar una palabra u otra puede marcar la diferencia en términos regulatorios y legales.

La urgencia de intervención federal

La doctora Vaile Wright, directora de innovación de salud de la Asociación Estadounidense de Psicología, reconoce que estas herramientas pueden llenar vacíos donde hay escasez de profesionales. Pero también advierte que “la tecnología actual en el mercado comercial no es una solución suficiente”.

La Federal Trade Commission (FTC) recientemente inició una investigación sobre cómo empresas como OpenAI (ChatGPT), Meta (LLaMa), Google (Gemini), y otras gestionan los riesgos de sus bots, especialmente en niños y adolescentes.

Además, la Administración de Alimentos y Medicamentos (FDA) convocará en noviembre un comité asesor para discutir el uso de IA en la salud mental, una medida aplaudida por expertos.

El caso Therabot: una IA entrenada científicamente

Uno de los experimentos más rigurosos en el campo es el de Therabot, un chatbot desarrollado por investigadores de Dartmouth University. En marzo, publicaron el primer estudio clínico aleatorizado sobre el uso de una IA generativa con pacientes diagnosticados con depresión, ansiedad o trastornos alimentarios.

¿El resultado? Los usuarios reportaron niveles significativamente más bajos de síntomas luego de ocho semanas. Un aspecto clave del experimento fue que cada conversación era monitoreada permanentemente por humanos, listos para intervenir si la IA ofrecía respuestas inadecuadas.

Es un espacio nuevo y revolucionario, pero necesitamos avanzar con más cautela de la que se está aplicando hoy”, advierte Nicholas Jacobson, psicólogo clínico del equipo de investigación.

Prohibiciones totales: ¿avance o retroceso?

Illinois y Nevada han decidido trazar una línea clara: ningún software podrá anunciarse como herramienta de tratamiento psicológico, punto. Las sanciones alcanzan los $10,000 en Illinois y $15,000 en Nevada. Pero esta estrategia levanta polémica, sobre todo entre desarrolladores que, como Jacobson, han invertido años en crear herramientas seguras, basadas en evidencia.

En Illinois, por ejemplo, la app Ash dejó de estar disponible. Los usuarios que intentan descargarla reciben un mensaje que los invita a contactar a sus legisladores y protestar contra esta “legislación mal orientada” que, según ellos, deja a las personas más vulnerables sin opciones.

¿Por qué tanta gente recurre a la IA para cuidar su salud mental?

  • Falta de terapeutas: Según la National Council for Mental Wellbeing, más del 60% de los condados en EE.UU. carecen de psiquiatras infantiles. El déficit también afecta a psicólogos y trabajadores sociales.
  • Costos elevados: Una sola sesión con un terapeuta puede superar los $150, incluso para personas con seguro médico.
  • Acceso 24/7: Las apps con IA están disponibles todo el tiempo, eliminando listas de espera y barreras geográficas.
  • Estigma social: Muchos prefieren conversar con un bot porque temen ser juzgados o sentirse vulnerables.

¿Qué debería incluir una regulación federal ética y eficaz?

De acuerdo con Wright y otros expertos como Stephan de Earkick, la regulación debería considerar al menos cinco pilares fundamentales:

  1. Transparencia absoluta: Todos los bots deberán informar claramente que no son médicos humanos.
  2. Protección de datos: Garantía de que la información del usuario no se comercializa ni se comparte sin consentimiento.
  3. Supervisión profesional: Diseño y optimización con asesoramiento clínico especializado.
  4. Mecanismos de reporte: Canales para denunciar mal uso o efectos adversos.
  5. Control de marketing: Prohibición de promesas engañosas y técnicas de manipulación emocional.

El futuro: ¿Nos tratarán bots o humanos?

Terapia no es solo intercambiar palabras”, recuerda Mario Treto Jr., director del Departamento de Regulación Profesional de Illinois. “Requiere empatía, juicio clínico y responsabilidad ética. Ninguna IA puede replicarlo hoy”.

Muchos desarrolladores no lo niegan. De hecho, reconocen que la clave está en la colaboración: bots que aporten, guíen y acompañen, pero nunca sustituyan a un profesional.

Y aunque las opiniones siguen divididas, lo cierto es que ya se ha abierto una caja de Pandora. La explosión de compañías ofreciendo "terapia asistida por IA" refleja una sed innegable de ayuda emocional accesible. Pero sin sistemas de regulación coherentes y basados en evidencia, se corre el riesgo de que el remedio sea peor que la enfermedad.

Una cosa está clara: nadie va a cerrar esta puerta. Ya no se trata de decidir si estas tecnologías deben usarse, sino de cómo hacerlo de forma segura, humana y ética.

Este artículo fue redactado con información de Associated Press