Detrás de la provocación hay un mensaje claro. Los modelos actuales de inteligencia artificial no han sido diseñados para ofrecer soporte psicológico. Aunque puedan parecer empáticos y dar respuestas coherentes, carecen de formación clínica, filtros éticos específicos y responsabilidades legales. Hernández advierte de que delegar la salud mental en un chatbot puede ser contraproducente y, en algunos casos, amplificar pensamientos negativos, dinámicas depresivas o incluso teorías conspirativas.
Jon Hernández, experto en IA. (Youtube)
El divulgador insiste en que el problema no es la tecnología en sí, sino el uso que se hace de ella. “Yo no utilizaría ChatGPT para eso, pero simplemente porque el producto no ha sido diseñado para ello”, explica. Aun así, no descarta que en el futuro puedan desarrollarse herramientas más adecuadas para el acompañamiento emocional. Para ilustrarlo, recurre a un símil muy gráfico: usar ChatGPT como psicólogo es como meter un coche normal por un terreno de montaña. “Puede tirar, pero no hay garantías de que lo haga bien. Yo no me arriesgaría a poner mi salud mental en manos de algo que no ha sido preparado para eso”.
Este fenómeno no surge de la nada. La ingeniera Ana Freire, experta en IA y salud mental y creadora del proyecto STOP, apunta a un problema estructural: la falta de recursos en la sanidad pública. En el podcast IA de Jon Hernández, Freire recuerda que en España hay apenas seis psicólogos y alrededor de nueve psiquiatras por cada 100.000 habitantes. Las listas de espera pueden alargarse hasta tres meses y, entre citas, es habitual que pase más de un mes. En ese vacío, muchos jóvenes recurren a herramientas digitales para desahogarse o buscar orientación.
Hernández subraya que la terapia no consiste solo en escuchar o responder. Requiere formación, criterio clínico, experiencia y una relación interpersonal que ninguna máquina puede replicar. La salud mental implica matices, silencios, emociones y contextos que van mucho más allá del texto que aparece en una pantalla.