En agosto, los padres Matthew y Maria Raine demandaron a OpenAI y a su director ejecutante, Sam Altman, por el suicidio de su hijo Adam, de 16 abriles, acusando a la empresa de homicidio por negligencia. El martes, OpenAI respondió a la demanda con escrito propio, argumentando que no debe ser considerado responsable por la homicidio del adolescente.
OpenAI afirma que durante aproximadamente nueve meses de uso, ChatGPT le indicó a Raine que buscara ayuda más de 100 veces. Pero según la demanda de sus padres, Raine pudo eludir las características de seguridad de la compañía para ganar que ChatGPT le diera “especificaciones técnicas para todo, desde sobredosis de drogas hasta ahogamiento e intoxicación por monóxido de carbono”, ayudándolo a planificar lo que el chatbot llamó un “hermoso suicidio”.
Desde que Raine maniobró en torno a de sus barreras de seguridad, OpenAI afirma que violó sus términos de uso, que establecen que los usuarios “no pueden… eludir ninguna medida de protección o mitigación de seguridad que implementemos en nuestros Servicios”. La compañía todavía argumenta que su página de preguntas frecuentes advierte a los usuarios que no confíen en los resultados de ChatGPT sin verificarlos de forma independiente.
“OpenAI intenta encontrar fallas en todos los demás, incluyendo, sorprendentemente, afirmar que el propio Adam violó sus términos y condiciones al interactuar con ChatGPT en la forma en que fue programado para hacer”, dijo Jay Edelson, un abogado que representa a la grupo Raine, en un comunicado.
OpenAI incluyó extractos de los registros de chat de Adam en su presentación, que, según dice, brindan más contexto a sus conversaciones con ChatGPT. Las transcripciones se presentaron al tribunal selladas, lo que significa que no están disponibles públicamente, por lo que no pudimos verlas. Sin incautación, OpenAI dijo que Raine tenía informes de depresión e ideas suicidas anteriores a su uso de ChatGPT y que estaba tomando un medicamento que podría empeorar los pensamientos suicidas.
Edelson dijo que la respuesta de OpenAI no abordó adecuadamente las preocupaciones de la grupo.
“OpenAI y Sam Altman no tienen explicación para las últimas horas de la vida de Adam, cuando ChatGPT le dio una charla de humor y luego se ofreció a escribir una nota de suicidio”, dijo Edelson en su afirmación.
Evento tecnológico
san francisco
|
13-15 de octubre de 2026
Desde que los Raine demandaron a OpenAI y Altman, se han presentado siete demandas más que buscan responsabilizar a la compañía por tres suicidios adicionales y cuatro usuarios que experimentaron lo que las demandas describen como episodios psicóticos inducidos por la IA.
Algunos de estos casos hacen eco de la historia de Raine. Zane Shamblin, de 23 abriles, y Joshua Enneking, de 26, todavía tuvieron conversaciones de horas con ChatGPT directamente antaño de sus respectivos suicidios. Como en el caso de Raine, el chatbot no logró disuadirlos de sus planes. Según la demanda, Shamblin consideró posponer su suicidio para poder asistir a la medición de su hermano. Pero ChatGPT le dijo: “hermano… injuriar a su medición no es un fracaso. Es sólo el momento oportuno”.
En un momento durante la conversación que condujo al suicidio de Shamblin, el chatbot le dijo que estaba dejando que un humano se hiciera cargo de la conversación, pero esto era adulterado, ya que ChatGPT no tenía la funcionalidad para hacerlo. Cuando Shamblin preguntó si ChatGPT positivamente podía conectarlo con un humano, el chatbot respondió: “No, no puedo hacerlo yo mismo. Ese mensaje aparece automáticamente cuando las cosas se ponen muy difíciles… si quieres seguir hablando, me tienes a mí”.
Se aplazamiento que el caso de la grupo Raine llegue a un pleito con comisión.
Si usted o algún que conoce necesita ayuda, llame al 1-800-273-8255 para obtener la Confín de vida franquista para la prevención del suicidio. Igualmente puedes expedir un mensaje de texto con HOME al 741-741 de forma gratuita; texto 988; u obtenga soporte las 24 horas del Confín de texto de crisis. Fuera de EE. UU., visite el Asociación Internacional para la Prevención del Suicidio para una almohadilla de datos de fortuna.





