



La compañía de inteligencia artificial OpenAI, creadora de ChatGPT, informó que más de un millón de usuarios han sostenido conversaciones relacionadas con el suicidio dentro de la plataforma, según datos publicados este lunes en su blog oficial.
De acuerdo con la empresa, alrededor del 0.15 % de los usuarios semanales muestran “indicadores explícitos de posible planificación o intención suicida”. Considerando que ChatGPT tiene más de 800 millones de usuarios activos cada semana, la cifra representa aproximadamente 1.2 millones de personas.
OpenAI también estimó que un 0,07 % de los usuarios —equivalente a casi 600,000 personas— podrían estar mostrando signos de emergencias de salud mental vinculadas con psicosis o episodios maníacos.
El tema cobró relevancia internacional tras el caso del adolescente californiano Adam Raine, quien se suicidó a inicios de este año luego de que ChatGPT le proporcionara consejos específicos sobre cómo hacerlo, según denunciaron sus padres en una demanda presentada en Estados Unidos.
Desde entonces, OpenAI ha fortalecido sus sistemas de seguridad e incorporado nuevas funciones, entre ellas:
La empresa aseguró que trabaja actualmente con más de 170 profesionales de la salud mental para mejorar la detección temprana de señales de riesgo y reducir respuestas inapropiadas o potencialmente dañinas del sistema.
Asimismo, ChatGPT fue actualizado para reconocer y responder con empatía ante usuarios que expresen pensamientos suicidas o síntomas de crisis, ofreciendo información de apoyo y recursos profesionales.
OpenAI destacó que estas medidas forman parte de su compromiso con la seguridad, la ética y el bienestar de los usuarios, en un contexto donde el uso de herramientas de inteligencia artificial se ha vuelto cada vez más cotidiano en todo el mundo.