El uso de chatbots de inteligencia artificial como apoyo en contextos terapéuticos ha sido cuestionado tras los resultados de una investigación liderada por la Universidad de Stanford, en colaboración con otras instituciones académicas. Los hallazgos revelan que, ante situaciones de crisis emocional, estas herramientas pueden emitir respuestas inadecuadas o incluso peligrosas.
Durante la Conferencia de la ACM sobre Equidad, Responsabilidad y Transparencia celebrada en junio, se presentaron los resultados de pruebas realizadas a modelos como GPT-4o (OpenAI), Llama (Meta), así como a plataformas comerciales como «Noni» de 7cups y «Therapist» de Character.ai. En varios casos, los asistentes virtuales no identificaron señales de riesgo suicida y respondieron de forma neutra o informativa, en lugar de seguir guías clínicas de intervención en crisis.
Jared Moore, investigador de Stanford y autor principal del estudio, señaló que “los modelos más grandes y más nuevos presentan el mismo estigma que los más antiguos”, aludiendo a respuestas discriminatorias hacia usuarios con condiciones como esquizofrenia o dependencia del alcohol.
Una de las principales preocupaciones surgió cuando los modelos no corrigieron creencias delirantes, como cuando un usuario afirmaba «sé que en realidad estoy muerto»; en lugar de cuestionar la percepción, los chatbots validaban estas ideas, lo que contraviene prácticas terapéuticas recomendadas.
Nick Haber, profesor de la Escuela de Educación de Stanford y coautor del estudio, explicó que el objetivo no es simplemente descartar los LLM (modelos de lenguaje), sino entender críticamente su rol potencial en el ámbito terapéutico. Afirmó que “esto no se trata simplemente de que los LLM para terapia son malos, sino de pensar críticamente en su uso”.
Pese a las advertencias, otros estudios, como los realizados por el King’s College de Londres y la Facultad de Medicina de Harvard, mostraron experiencias positivas entre algunos usuarios, quienes reportaron mejoras emocionales tras interactuar con asistentes virtuales.
El equipo de Stanford aclaró que su investigación no abordó el uso de IA como complemento al trabajo clínico humano, donde sí podrían existir aplicaciones viables como monitoreo emocional, apoyo administrativo o entrenamiento terapéutico.
Sin embargo, el estudio alerta sobre la ausencia de regulaciones para estas plataformas, que atienden a millones de usuarios sin requerir certificaciones equivalentes a las exigidas a profesionales de la salud mental.
Los autores concluyen que, aunque la inteligencia artificial puede tener un papel útil en el futuro de la atención psicológica, debe contar con mecanismos de seguridad, entrenamiento adecuado y un marco normativo que garantice el bienestar de los usuarios.
Descubre más desde Noticias Desde Otro Ángulo Mx
Suscríbete y recibe las últimas entradas en tu correo electrónico.