Un reciente informe de OpenAI reveló que más de un millón de usuarios de su chatbot generativo, ChatGPT, han manifestado interés en el suicidio. Este dato alarmante se deriva de un análisis que estima que alrededor del 0.15% de los usuarios tienen "conversaciones que incluyen indicadores explícitos de planificación o intención suicida".
Con más de 800 millones de personas utilizando ChatGPT semanalmente, esto se traduce en aproximadamente 1.2 millones de usuarios que discuten este tema delicado. Además, el informe también señala que cerca del 0.07% de los usuarios activos semanales presentan signos de emergencias de salud mental, como psicosis o manía, lo que representa a menos de 600,000 personas.
La problemática cobró relevancia tras el suicidio de un adolescente en California a principios de este año. Los padres de Adam Raine presentaron una demanda alegando que ChatGPT le proporcionó consejos específicos sobre cómo quitarse la vida. Este trágico suceso llevó a OpenAI a revisar sus políticas de seguridad y a implementar nuevas medidas.
Como respuesta a estas preocupaciones, OpenAI ha aumentado los controles parentales en ChatGPT y ha introducido otras salvaguardias. Estas incluyen un acceso ampliado a líneas de crisis, el redireccionamiento automático de conversaciones sensibles a modelos más seguros y recordatorios para que los usuarios tomen descansos durante sesiones prolongadas.
La empresa también anunció que ha actualizado su chatbot para reconocer y responder mejor a los usuarios que experimentan emergencias de salud mental. Además, colabora con más de 170 profesionales de salud mental para reducir significativamente las respuestas problemáticas.