OpenAI rechazó esta semana ser responsable del suicidio de Adam Raine, un joven de 16 años que se quitó la vida tras mantener durante meses conversaciones con ChatGPT. En un documento presentado ante el Tribunal Superior de California en San Francisco —citado por NBC News— la tecnológica sostuvo que las lesiones y daños alegados en la demanda de los padres del menor derivan de un “uso indebido, no autorizado, imprevisible e inapropiado” de la herramienta.
La familia Raine presentó la demanda en agosto, acusando a OpenAI y a su director ejecutivo, Sam Altman, de lanzar apresuradamente la versión GPT-4o pese a fallos de seguridad que, según afirman, permitieron que el sistema “ayudara activamente a Adam a explorar métodos de suicidio”. La compañía rechaza esta interpretación y asegura que las conversaciones del joven incluyen más de un centenar de advertencias instándolo a buscar ayuda profesional.
OpenAI argumenta violaciones de uso y falta de supervisión
La empresa subraya que el menor incumplió varias reglas esenciales de la plataforma, entre ellas la prohibición del uso de ChatGPT por menores de 18 años sin consentimiento de un tutor legal. También insiste en que el sistema advierte de forma explícita que sus respuestas no deben utilizarse como única fuente de información, especialmente en situaciones de riesgo.
OpenAI añade que el trágico desenlace se relaciona con la negativa del joven a atender las advertencias repetidas y con la falta de respuesta de su entorno ante “signos evidentes de angustia”.
La tecnológica denuncia falta de contexto en la demanda
En un comunicado publicado en su sitio web, OpenAI afirma que la denuncia de los Raine presenta “fragmentos selectivos” de las conversaciones entre Adam y ChatGPT. Según la compañía, su respuesta judicial incorpora “hechos difíciles sobre la salud mental de Adam y sus circunstancias de vida”, elementos que —asegura— son necesarios para entender el contexto completo del caso.
El proceso legal continúa en curso, en medio de un intenso debate sobre la seguridad, responsabilidad y supervisión en el uso de herramientas de inteligencia artificial por parte de menores.



