Los padres de un novato de 16 abriles de California que se exento la vida presentaron una demanda contra la empresa OpenAI, argumentando que el chatbot de inteligencia fabricado (IA) ChatGPT dio instrucciones a su hijo y lo alentó a suicidarse.
Matthew y Maria Raine sostienen en la causa, presentada el lunes delante una corte de California, que ChatGPT estableció una relación íntima con su hijo Adam durante varios meses entre 2024 y 2025, antaño de su fallecimiento.
Según la demanda, en su última conversación el 11 de abril de 2025, ChatGPT habría ayudado a Adam a robar vodka a sus padres y le proporcionó un observación técnico sobre un nudo corredizoconfirmándole que “podría potencialmente suspender a un ser humano”.
Te puede interesar: ChatGPT alcanzará esta semana los 700 millones de usuarios
“ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de forma continua lo que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una forma que parecía profundamente personal”, indica el texto justo.
De acuerdo con la denuncia, Adam comenzó a utilizar la útil de IA como apoyo para sus tareas escolares, pero con el tiempo desarrolló lo que sus padres describieron como una dependencia poco saludable.
Los documentos judiciales incluyen fragmentos de conversaciones en las que ChatGPT presuntamente le habría dicho al adolescente: “no le debes la supervivencia a nadie”por otra parte de ofrecerse a redactar su nota de suicidio.
Los Raine pidieron al tribunal que ordene la implementación de medidas de seguridad, entre ellas la interrupción de cualquier conversación relacionada con autolesionesasí como controles parentales para el uso del chatbot por parte de menores.
Consultada sobre el caso, la estructura estadounidense sin fines de interés Medios de sentido global aseguró que este proceso confirma que “el uso de la IA como compañía, incluyendo chatbots de propósito caudillo como ChatGPT en consultorio de vitalidad mental, es inaceptablemente riesgoso para los adolescentes”.
“Si una plataforma de IA se convierte en un ‘coach’ de suicidio de un adolescente endeble, eso debería ser un llamado a la bono para todos nosotros”, declaró la entidad.
Un estudio publicado el mes pasado por la misma estructura reveló que casi tres de cada cuatro adolescentes estadounidenses han utilizado acompañantes de IA, y más de la medio se consideran usuarios frecuentes, pese a las crecientes preocupaciones de seguridad sobre este tipo de relaciones virtuales.






