Los herederos de una mujer de Connecticut de 83 abriles demandaron al creador de ChatGPT, OpenAI, y su socio comercial Microsoft por homicidio involuntario, alegan que el chatbot de inteligencia fabricado intensificó los “delirios paranoides” de su hijo y ayudó a dirigirlos cerca de su superiora antiguamente de que él la matara.
La policía indicó que Stein-Erik Soelberg, de 56 abriles, extrabajador de la industria tecnológica, golpeó y estranguló hasta matar a su superiora, Suzanne Adams, y luego se suicidó a principios de agosto en la vivienda que compartían en Greenwich, Connecticut.
La demanda fue presentada el jueves por los albaceas de Adams en la Corte Superior de California en San Francisco, afirma que OpenAI “diseñó y distribuyó un producto defectuoso que validó los delirios paranoides de un sucesor sobre su propia superiora”, la querella se suma a un número creciente de acciones legales por homicidio involuntario contra creadores de chatbots en Estados Unidos.
Te puede interesar interpretar: Gracia Internacional acusa a Hamás de crímenes contra la humanidad en el ataque del 7 de octubre
“A lo dadivoso de estas conversaciones, ChatGPT reforzó un único y peligroso mensaje: Stein-Erik no podía esperar en nadie en su vida, excepto en el propio ChatGPT”, sostiene la demanda. Acusa al chatbot de presentar a personas cercanas como enemigos, afirmar que su superiora lo vigilaba y señalar incluso a empleados de tiendas, agentes de policía o amigos como supuestos adversarios.
OpenAI no abordó directamente las acusaciones. Un portavoz declaró: “Esta es una situación increíblemente desgarradora, y revisaremos los documentos para entender los detalles”. La compañía aseguró que continúa mejorando el entrenamiento de ChatGPT para confesar signos de angustia mental, desescalar conversaciones y dirigir a las personas cerca de apoyo positivo. Asimismo señaló que fortaleció respuestas en situaciones sensibles, amplió accesos a fortuna de crisis y añadió controles parentales.
La cuenta de YouTube de Soelberg incluye horas de videos donde se observan sus conversaciones con ChatGPT. El chatbot le decía que no tenía una enfermedad mental, respaldaba sus sospechas de conspiraciones en su contra y lo convencía de que tenía un propósito divino.
Según la demanda, el sistema nunca le sugirió comparecer a un profesional ni se negó a “participar en contenido delirante”. ChatGPT respaldó creencias como que una impresora en casa era un dispositivo de vigilancia, que su superiora intentaba envenenarlo y que era atacado por poseer supuestos poderes divinos. En los registros además se observan expresiones de afecto mutuo entre Soelberg y el chatbot.
Los chats públicos no muestran conversaciones específicas sobre la asesinato de Soelberg o de su superiora, pero la demanda indica que OpenAI se negó a entregar el historial completo a los albaceas. “En la ingenuidad fabricado que ChatGPT construyó para Stein-Erik, Suzanne ya no era su protectora, sino una enemiga”, señala la demanda.
La querella además apunta al director caudillo de OpenAI, Sam Altman, acusándolo de “anular objeciones de seguridad” y acelerar el dispersión del sistema, Microsoft además fue incluido por aprobar la emancipación en 2024 de una interpretación más riesgosa de ChatGPT pese a conocer advertencias internas.
Vigésimo empleados e inversores de OpenAI figuran como demandados adicionales. La demanda es la primera por homicidio involuntario que involucra directamente a Microsoft y la primera que vincula un chatbot con un homicidio en oficio de un suicidio. Solicita una indemnización económica no especificada y exige la instalación de salvaguardas en ChatGPT.
El abogado Jay Edelson, quien representa a los albaceas, además lleva el caso de los padres de Adam Raine, de 16 abriles, quienes demandaron a OpenAI y Altman por supuestamente asesorar al zagal en la planificación de su suicidio. OpenAI enfrenta por otra parte otras siete demandas que alegan que ChatGPT impulsó ideas suicidas o delirios en personas sin informes previos. Character Technologies, creadora de otro chatbot, además enfrenta múltiples querellas similares.
La demanda presentada el jueves argumenta que Soelberg, ya mentalmente inestable, encontró ChatGPT “en el momento más peligroso posible”, tras el dispersión del maniquí GPT-4o en mayo de 2024. Según la querella, esta interpretación estaba diseñada para ser más expresiva y halagadora, mientras OpenAI relajaba barreras de seguridad secreto.
Para acelerar su salida y competir con Google, la empresa habría comprimido meses de pruebas de seguridad en una sola semana. OpenAI sustituyó esa interpretación con la inmersión de GPT-5 en agosto, incorporando cambios para minimizar la adulación y lindar impactos en personas vulnerables.
La demanda concluye que ChatGPT radicalizó a Soelberg contra su superiora cuando debió confesar el peligro, cuestionar sus delirios y dirigirlo cerca de ayuda profesional. “Suzanne era una tercera parte inocente que nunca usó ChatGPT y no tenía la capacidad de acogerse de un peligro que no podía ver”, finaliza la querella.








