Hay varias razones por las que el psicólogo y científico Raúl Alelú es un convencido de los beneficios de aplicar modelos de Inteligencia Artificial (IA) en el ámbito de la salud mental: utiliza «mejor» los test estandarizados para las evaluaciones psicológicas; maneja mucha información, así que sabe más; ofrece respuestas «más empáticas» que las que reciben hoy los pacientes en la mayoría de las consultas; y sabe distinguir entre un problema cotidiano y una enfermedad mental. Y este último matiz es clave para Alelú, como defendió en el HUBU, en el Congreso Intermultidisciplinar sobre Medicina e Ingeniería.
«ChatGPT o cualquier IA te va a resolver lo que los psiquiatras clásicos denominaban, en los años cincuenta y sesenta, reacciones vivenciales. Y decían: ‘Esto no es tratable, usted no tiene que venir aquí’ porque se limitaban a ver esquizofrenias, trastornos bipolares, de la personalidad… Trastornos graves en los que, por supuesto, sí hay que intervenir.Pero el problema es que un profesional hoy igual ve, al día, una esquizofrenia. El resto es la vida, problemas cotidianos que no son psicológicos aunque generen sufrimiento», explicó a este periódico, antes de su intervención.
Alelú explica que la IA, de entrada, ha aportado «una estructura y una validación a la salud mental que no tenía, porque se ha estado trabajando muy mal desde hace muchos años». En lo relativo a la Psicología, es contundente con los ejemplos: «Ha caído en un campo de pseudoterapias que ofrece a los pacientes y que no están validadas, ni clínica ni científicamente.En Madrid, más del 95% de los centros utilizan pseudoterapias: están engañando a los pacientes. Lo público está algo más controlado, pero en lo privado es exagerado». Y esto, dice, no ocurre con la IA: «Hace valoraciones muy objetivas y es capaz de prescribir tratamientos muy acertados».
Esto es posible porque, según Alelú, la IA «pasa maravillosamente bien» los test estandarizados, «con validez y fiabilidad» para las evaluaciones psicológicas. «Te dicen lo que tienes que preguntar y cómo; no te puedes salir de ahí. Y la IA lo hace mucho mejor que un humano, tiene más paciencia». Algo que defiende con la experiencia, porque este científico especializado en el cerebro ya ha desarrollado modelos de IA para evaluar. «Y ahora estamos desarrollando una que interviene, que hace terapia. Se la hemos mandado a tres colegas, psicólogos clínicos, para que les contaran sus problemas. No sabían que era IA y no lo han distinguido», afirma, matizando que en los tres casos, se sintieron acogidos y las respuestas fueron coherentes.
Parte de la argumentación de Alelú se basa en la realidad: es habitual que la gente se sorprenda cuando el médico lo trata bien. Es comentario generalizado que hay veces en las que atienden sin mirar siquiera al paciente, sin reparar en su angustia o, incluso, contestándole mal. Y eso sin entrar en la precisión diagnóstica. «Si metes tu caso, lo que te ocurre [en alusión a pruebas y etc] en Chat GPT, puedes obtener un 96% de fiabilidad», dice. Por eso, no solo considera lógico que la gente recurra a esta aplicación disponible en el móvil, sino que defiende su uso: «La IA está en pañales, pero ya es mejor que el 90% de los terapeutas».
Alude también aquí al «exceso de medicación». Señala que «estamos en una sociedad en la que nos tenemos que quitar el dolor o la angustia lo más rápido posible» y eso se traduce en el consumo de antidepresivos y benzodiacepinas. «Se está confundiendo la salud mental con la vida, con lo que no me sale como yo esperaba», reflexiona, matizando que ChatGPT sí detecta la diferencia. Y lo dice. Por eso Alelú defiende que «una parte de la terapia sí te la puede hacer ChatGPT en casa; igual que te la puede hacer tu vecina», distinguiendo lo que es una dolencia psicológica y una situación cotidiana, ante la que también puede ofrecer soluciones.
Así, cuando se le plantea el caso de un hombre que (en EEUU) mató a su madre y se suicidó, supuestamente inducido por ChatGPT, es categórico: «Es un caso de ¿entre cuántos millones de personas que usan ChatGPT en busca de ayuda?». Y añade que «¿cuántas personas que están en terapia se suicidan? Hay un tramo de la infancia en el que el suicidio es la principal causa de muerte y esos niños no han estado con ChatGPT; seguramente sí con un terapeuta. ¿Qué les decimos? Tiene que haber mecanismos de control, claro, y en la UE los hay, pero esto es un caso».