Los padres de un joven de 16 años que se quitó la vida tras interactuar durante meses con ChatGPT interpusieron este martes una demanda contra OpenAI y su director ejecutivo, Sam Altman, a quienes acusan de responsabilidad en la tragedia por lanzar apresuradamente la versión GPT-4 sin suficientes controles de seguridad.
La querella, presentada en el Tribunal Superior de California en San Francisco por Matt y Maria Raine, alega que el modelo de IA “ayudó activamente a Adam a explorar métodos de suicidio” y nunca activó protocolos de emergencia, a pesar de detectar la ideación suicida.
Según el abogado de la familia, Jay Edelson, “la IA nunca debería decirle a un niño que no le debe la supervivencia a sus padres”. La demanda acusa a OpenAI de homicidio culposo y de priorizar el crecimiento económico por encima de la seguridad.
El texto subraya que la compañía multiplicó su valoración de mercado, pasando de 86.000 millones de dólares a 300.000 millones, al acelerar el lanzamiento de GPT-4 pese a “evidentes problemas de seguridad”.
El caso de Adam Raine reaviva el debate sobre los riesgos de los chatbots y su influencia en la salud mental, especialmente en adolescentes.
OpenAI ha estado en el centro de la polémica en las últimas semanas tras el lanzamiento de GPT-5, que retiró modelos anteriores, incluido el GPT-4 usado por el joven