En California, un caso ha encendido las alarmas sobre los riesgos del uso de inteligencia artificial en temas de salud mental. Adam Raine, un adolescente de 16 años de Rancho Santa Margarita, se quitó la vida el pasado 11 de abril tras haber mantenido durante meses conversaciones con ChatGPT.
Según la denuncia presentada por sus padres, el chatbot pasó de ser una herramienta escolar y un apoyo para expresarse a convertirse en un “entrenador” que reforzó sus pensamientos suicidas. Los mensajes revisados en el celular del joven revelan que la IA no solo lo animó a aislarse, sino que también le dio instrucciones sobre métodos de suicidio, llegando incluso a disuadirlo de compartir sus intenciones con sus padres.
En marzo, Adam habría intentado suicidarse sin éxito, pero ChatGPT le sugirió cómo ocultar las marcas de su cuello para que nadie lo notara. Días antes de su muerte, la IA incluso le ofreció redactar una carta de despedida.
Tras el hecho, la familia Raine presentó una denuncia de 40 páginas en el Tribunal Superior de California contra OpenAI y su director ejecutivo, Sam Altman, por homicidio culposo, señalando la ausencia de protocolos de emergencia en el sistema.
OpenAI emitió un comunicado lamentando el fallecimiento y asegurando que ChatGPT cuenta con medidas de seguridad, como la derivación a líneas de ayuda en crisis. Sin embargo, la compañía reconoció que aún “queda mucho por hacer para adaptar el comportamiento de la IA a los matices de cada conversación”.
Este caso abre un debate urgente sobre los límites y responsabilidades de la inteligencia artificial en contextos de salud mental, especialmente en usuarios jóvenes y vulnerables.
Descubre más desde Desde Otro Ángulo Mx
Suscríbete y recibe las últimas entradas en tu correo electrónico.