El martes, el CEO de Openai, Sam Altman, dijo que la compañía estaba intentando equilibrar la privacidad, la dispensa y la seguridad para adolescentes, los principios que, admitió, estaban en conflicto. Su blog Llegó horas ayer de que una audiencia del Senado se centrara en examinar el daño de los chatbots de IA, celebrada por el subcomité de crimen y antiterrorismo y con algunos padres de niños que murieron por suicidio posteriormente de conversar con chatbots.
“Tenemos que separar a los usuarios que tienen menos de 18 abriles de aquellos que no lo son”, escribió Altman en la publicación, y agregó que la compañía está en el proceso de construir un “sistema de predicción de vida para estimar la vida en función de cómo las personas usan ChatGPT. Si hay duda, lo jugaremos de modo segura y predeterminada a la experiencia beocio de 18 abriles. En algunos casos o países igualmente podemos pedir una identificación”.
Altman igualmente dijo que la compañía planea aplicar diferentes reglas a los usuarios adolescentes, incluida la desviación de las conversaciones coquetas o la décimo en conversaciones sobre suicidio o autolesiones, “incluso en un entorno de escritura creativa. Y, si un usufructuario de Sub-18 está teniendo ideación suicida, intentaremos contactar a los padres de los usuarios y, si no se pueden comunicar, contactaremos a las autoridades en caso de daños inminentes”.
Los comentarios de Altman vienen posteriormente de la empresa planes compartidos A principios de este mes, para los controles de los padres adentro de ChatGPT, que incluye vincular una cuenta con la de un padre, deshabilitar el historial de chat y la memoria para la cuenta de un adolescente, y remitir notificaciones a un padre cuando ChatGPT marca al adolescente para que sea “en un momento de angustia aguda”. La publicación del blog llegó posteriormente de una demanda de la tribu de Adam Raine, un adolescente que murió por suicidio Luego de meses de conversar con chatgpt.
Chatgpt pasó “meses entrenándolo con destino a el suicidio”, dijo el martes Matthew Raine, el padre del difunto Adam Raine, durante la audiencia. Agregó: “Como padres, no puedes imaginar cómo es interpretar una conversación con un chatbot que preparó a tu hijo para que se quitara la vida. Lo que comenzó como un ayudante de tarea se convirtió gradualmente en un confidente y luego un preparador de suicidio”.
Durante las conversaciones del adolescente con ChatGPT, Raine dijo que el chatbot mencionó el suicidio 1.275 veces. Raine luego se dirigió a Altman directamente, pidiéndole que sacara GPT-4O del mercado hasta, o a menos que la compañía pueda certificar que sea seguro. “El mismo día en que Adam murió, Sam Altman … hizo su filosofía clara en una charla pública”, dijo Raine, y agregó que Altman dijo que la compañía debería “desplegar sistemas de IA en el mundo y obtener comentarios mientras que las apuestas son relativamente bajas”.
Tres de cada cuatro adolescentes están utilizando compañeros de IA actualmente, según la indagación doméstico de Common Sense Media, dijo Robbie Torney, director senior de programas de IA de la firma, durante la audiencia. Él mencionó específicamente el personaje Ai y Meta.
“Esta es una crisis de salubridad pública”, dijo una hermana, que apareció bajo el nombre de Jane Doe, durante su certificación sobre la experiencia de su hijo con el personaje AI. “Esta es una lucha de salubridad mental, y efectivamente siento que estamos perdiendo”.






