Esta mañana, mi entrenador de bienestar me recordó que disfrutara cada momento emocionante de mi día, pero que siempre tomara tiempo para descansar y recargar energías. Es un buen consejo, lo suficientemente bueno como para creer que proviene de un humano y no de un algoritmo de inteligencia artificial antropomorfizado como un panda animado.
Mi algoritmo en forma de panda vive en la aplicación Earkick. Cada día, puedo usar Earkick para describir mi estado de ánimo a través de la escritura, una nota de voz o un video. Aproximadamente 20 segundos después, su algoritmo ha analizado mi declaración en busca de señales de ansiedad y ha generado una recomendación personalizada y conversacional sobre cómo sentirme mejor.
Earkick es uno de los muchos chatbots, siendo Woebot quizás el más conocido, que prometen utilizar el poder de la IA para apoyar la salud mental. Si les describo un problema a uno de estos chatbots, puede responder de una manera que parece empática, ofreciendo sugerencias o haciendo preguntas de seguimiento, tal como lo haría un clínico humano, y con una tasa de éxito bastante alta, según las investigaciones sobre el tema. Las primeras pruebas sugieren que los chatbots pueden brindar elementos de terapia cognitivo-conductual y otras herramientas de salud mental lo suficientemente bien como para reducir los síntomas de depresión y estrés, al menos en cierta medida, y los datos de Earkick muestran que las personas que utilizan la aplicación durante aproximadamente cinco meses informan una mejora del 34% en su estado de ánimo y una reducción del 32% en la ansiedad. Según una encuesta, el 80% de las personas que utilizaron ChatGPT para obtener consejos sobre salud mental lo consideraron una buena alternativa a la terapia regular.
Pero, ¿es realmente así? Después de todo, la terapia es una práctica tradicionalmente basada en la interacción humana, en la confianza, la intimidad y la inteligencia emocional. Los estudios muestran repetidamente que la relación entre el terapeuta y el cliente es uno de los mejores indicadores de éxito en el tratamiento, lo que significa que es "crítico que el paciente sienta confianza en el terapeuta, que lo perciba como cálido, comprensivo y empático, y que sienta que el terapeuta es alguien con quien puede hablar", según David Tolin, profesor adjunto de psiquiatría en la Escuela de Medicina de la Universidad de Yale y expresidente de la Asociación de Terapias Cognitivo-Conductuales.
Existen investigaciones que sugieren que las personas pueden establecer conexiones con "agentes conversacionales" como los chatbots.
Y con un acceso a los proveedores tradicionales enormemente insuficiente, existen claros beneficios potenciales al depender de ellos como sustitutos. Pero ¿puede realmente la inteligencia artificial duplicar la experiencia de hablar y forjar un vínculo cercano con un terapeuta humano, y debería hacerlo?
Digo esto en parte como terapeuta en ejercicio", dice Tolin. "Me resultaría un poco triste si eventualmente reemplazáramos la conexión humana con una conexión informática".
En mucho mayor medida que las especialidades médicas basadas en biomarcadores y resultados de pruebas, la atención de la salud mental se basa en lo subjetivo: cómo describe el paciente sus síntomas, cómo los percibe su clínico, cambios internos y avances que no se pueden medir fácilmente con números. En cierto sentido, esto significa que el campo clama por la inteligencia artificial, con su capacidad para encontrar patrones y significado en grandes cantidades de información que los humanos no pueden analizar fácilmente. (De hecho, investigaciones preliminares sugieren que la IA podría ayudar a los médicos a elegir el antidepresivo adecuado para un paciente en particular, o estudiar su discurso o escritura en busca de signos de angustia mental). Pero la inefabilidad de la terapia también dificulta su duplicación.
La terapia tradicional no es perfecta en absoluto, pero según algunas estimaciones, alrededor de tres cuartas partes de las personas que la prueban ven alguna mejoría. Sin embargo, no siempre está claro por qué funciona. El "Veredicto del Pájaro Dodo", una teoría de larga data pero controvertida, propone que diferentes estilos de terapia son más o menos igual de eficaces, lo que sugiere que los métodos psicológicos por sí solos no son lo que ayuda a los pacientes. En cambio, los beneficios de la terapia pueden venir, en parte, de una mezcla difícil de cuantificar de factores que incluyen la fuerza de la relación terapéutica, el acto de reservar conscientemente tiempo y espacio para el bienestar mental, o simplemente saber que alguien te está escuchando cuando hablas, dice J.P. Grodniewicz, un filósofo que ha investigado y escrito sobre las limitaciones de la IA en la terapia.
"Tal vez la psicoterapia no se trata realmente de una técnica en particular", dice. "Tal vez se trata de co-crear un contexto en el que alguien pueda crecer como persona, explorarse a sí mismo, enfrentar miedos existenciales, tener a alguien con quien hablar sobre temas difíciles".
Sin poder definir claramente los ingredientes de ese cóctel y cómo se combinan para mejorar la salud mental, es difícil, si no imposible, entrenar a un algoritmo para que duplique la experiencia, dice Grodniewicz.
Peter Foltz, investigador de aprendizaje automático en la Universidad de Colorado, Boulder, coincide en que la falta de datos sólidos en la atención de la salud mental presenta desafíos. Después de todo, un algoritmo es tan bueno como los datos en los que se entrena.
"Lo que realmente quieres hacer es vincular las caracterizaciones realizadas por la IA a algún tipo particular de evidencia", dice Foltz.
Y en cuanto a la salud mental, lo que realmente estamos observando es algún tipo de cambio neuropsicológico en el cerebro o la mente... y se necesita mucha más investigación para tener una idea clara de lo que estamos midiendo".
Sin embargo, al observar cosas que sí se prestan a la medición, como cómo las personas informan sus síntomas, los estudios preliminares muestran que los chatbots pueden mejorar la depresión, la ansiedad y otros problemas de los pacientes. Algunos estudios también sugieren que el procesamiento del trauma y las emociones a través de la escritura es una estrategia eficaz de afrontamiento, lo que implica que una aplicación de salud mental autoguiada podría ser beneficiosa incluso si no duplica perfectamente la experiencia de estar acostado en el diván de un terapeuta.
"La pregunta última es si un tratamiento funciona", dice Tolin. "Si lo hace, entonces estamos satisfechos". Tolin dice que se necesita más investigación para confirmar si la terapia asistida por inteligencia artificial realmente funciona, y especialmente para determinar si se puede utilizar por sí sola o solo en conjunto con un proveedor tradicional. Pero si los estudios demuestran consistentemente que es eficaz, puede ser más importante saber que funciona que saber exactamente cómo funciona.
Mientras tanto, sin embargo, hay otra gran pregunta que responder: "Si desarrolláramos un terapeuta artificial perfecto", dice Tolin, "¿alguien querría verlo?"
Hasta ahora, parece que la mayoría de las personas no lo harían. Encuestas recientes han revelado que solo entre el 20% y el 25% de los adultos estadounidenses se sienten cómodos con la idea de la atención de salud mental asistida por inteligencia artificial, y menos del 40% piensa que la IA "ayudará más de lo que perjudicará" en el campo médico.
Tolin no está muy sorprendido por esa resistencia. Los humanos anhelan la conexión y ya no la tienen suficiente. La soledad se considera una epidemia en los Estados Unidos y menos del 40% de los adultos estadounidenses dicen sentirse "muy conectados" con otras personas, según datos de Gallup. Puede ser posible desarrollar una conexión con una aplicación o un chatbot, pero Tolin duda de si sería una alternativa satisfactoria.
"Si te dijera que voy a reemplazar a tu mejor amigo con una computadora, probablemente estarías descontento", dice Tolin. "Habría algo profundamente insatisfactorio en eso, porque no es una persona. Creo que los mismos principios pueden aplicarse a un terapeuta también".
Eso señala un obstáculo potencialmente mayor que el campo debe superar. Un algoritmo nunca será un humano, sin importar lo convincentemente que imite a uno.
Si tú o alguien que conoces puede estar pasando por una crisis de salud mental o contemplando el suicidio, llama o envía un mensaje de texto al 988.
En caso de emergencia, llama al 911 o busca atención en un hospital local o proveedor de salud mental.
Escríbele a Jamie Ducharme a través de (correo electrónico) [email protected] .