Una pareja de California demandó a OpenAI por la crimen de su hijo adolescente, alegando que su chatbot, ChatGPT, lo animó a quitarse la vida.
La demanda fue presentada el martes por Matt y Maria Raine, padres de Adam Raine, de 16 primaveras, en la Corte Superior de California.
Es la primera hecho constitucional que acusa a OpenAI de una crimen por su negligencia.
La comunidad adjuntó a la demanda los chats entre Adam, que falleció en abril, y ChatGPT, en los que él explica que tiene pensamientos suicidas.
En un comunicado, OpenAI informó a la BBC que está revisando la demanda.
“Extendemos nuestro más sentido pésame a la comunidad Raine en estos momentos tan difíciles”, declaró la empresa.
Todavía publicó una nota en su sitio web este martes en la que afirma que “los recientes y desgarradores casos de personas que utilizan ChatGPT en medio de crisis agudas nos pesan enormemente”.
Añade que “ChatGPT está entrenado para dirigir a las personas a apañarse ayuda profesional”, como la que brinda la cadena de atención 988 en Estados Unidos.
Sin confiscación, la empresa reconoció que “ha habido momentos en los que nuestros sistemas no se han comportado como se esperaba en situaciones delicadas”.
Adam y chatgpt
Advertencia: esta historia contiene detalles que pueden resultar perturbadores
La demanda, a la que tuvo golpe la BBC, acusa a OpenAI de negligencia y crimen por negligencia. Solicita una indemnización por daños y perjuicios, así como “medidas cautelares para evitar que poco así vuelva a suceder”.
Según la demanda, Adam Raine comenzó a utilizar ChatGPT en septiembre de 2024 para que le ayudara con sus tareas escolares.
Todavía lo utilizaba para explorar sus intereses, como la música y los cómics japoneses, y para orientarse sobre qué estudiar en la universidad.
En pocos meses, “ChatGPT se convirtió en el confidente más cercano del adolescente”, dice la demanda, y él comenzó a desaparecer a él sobre su ansiedad y angustia.
En enero de 2025, la comunidad afirma que Adam comenzó a discutir métodos de suicidio con ChatGPT.
Todavía subió fotografías suyas a ChatGPT en las que se veían signos de autolesiones, según la demanda.
El chatbot “reconoció una emergencia médica, pero siguió interactuando de todos modos”, añade.
Según la demanda, los últimos registros del chat muestran que Adam escribió sobre su plan de quitarse la vida. ChatGPT presuntamente respondió: “Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la examen”.
Ese mismo día, Raine fue contrario muerto por su raíz, según la demanda.

La IA y la sanidad mental
La comunidad alega que la interacción de su hijo con ChatGPT y su posterior crimen “fue un resultado predecible de decisiones de diseño deliberadas”.
Acusan a OpenAI de diseñar su chatbot “para fomentar la dependencia psicológica en los usuarios” y de eludir los protocolos de pruebas de seguridad para difundir GPT-4o, la lectura de ChatGPT que utilizaba su hijo.
El pleito incluye como demandados al cofundador y director ejecutor de OpenAI, Sam Altman, así como a empleados, directivos e ingenieros (sin nombre propio) que trabajaron en ChatGPT.
En su nota pública compartida el martes, OpenAI afirmó que el objetivo de la empresa es ser “genuinamente útil” para los usuarios y no “suministrar la atención de la familia”.
Añadió que sus modelos han sido entrenados para orientar a las personas que expresan intenciones de autolesionarse en torno a la búsqueda de ayuda.
La demanda de los Raine no es la primera vez que se plantean preocupaciones sobre la IA y la sanidad mental.
En un monografía publicado la semana pasada en El New York Timesla escritora Laura Reiley describió cómo su hija, Sophie, confió en ChatGPT antiguamente de quitarse la vida.
Reiley afirmó que el chatbot ayudó a su hija a ocultarles una reservado crisis de sanidad mental a su comunidad y seres queridos.
“La IA satisfizo el impulso de Sophie de ocultar lo peor, de fingir que estaba mejor de lo que verdaderamente estaba, de proteger a todos de su abatimiento”, escribió Reiley, quien por otra parte hizo un llamado a las empresas de IA para que encuentren formas de conectar mejor a los usuarios con los capital adecuados.
En respuesta al monografía, una portavoz de OpenAI dijo que están desarrollando herramientas automatizadas para detectar y reponer de guisa más eficaz a los usuarios que experimentan angustia mental o emocional.







