
El martes, el director ejecutor de OpenAI, Sam Altman anunciado que la empresa permitirá a los usuarios adultos verificados tener conversaciones eróticas con ChatGPT a partir de diciembre. El cambio representa un cambio en la forma en que OpenAI aborda las restricciones de contenido, que la compañía había aliviado en febrero pero luego endureció drásticamente posteriormente de una demanda en agosto de los padres de un adolescente que se suicidó posteriormente de supuestamente percibir apoyo de ChatGPT.
“En diciembre, a medida que implementemos la restricción de perduración de forma más completa y como parte de nuestro principio de ‘tratar a los usuarios adultos como adultos’, permitiremos aún más, como contenido amoroso para adultos verificados”, escribió Altman en su publicación en X (anteriormente Twitter). El anuncio sigue a la fresco sugerencia de OpenAI de que permitiría a los desarrolladores crear aplicaciones ChatGPT “maduras” una vez que la empresa implemente controles y comprobación de perduración adecuados.
Altman explicó que OpenAI había hecho que ChatGPT fuera “congruo restrictivo para avalar que tuviéramos cuidado con los problemas de lozanía mental”, pero reconoció que este enfoque hizo que el chatbot fuera “menos útil/agradable para muchos usuarios que no tenían problemas de lozanía mental”. El CEO dijo que la compañía ahora tiene nuevas herramientas para detectar mejor cuando los usuarios experimentan angustia mental, lo que permite a OpenAI relajar las restricciones en la mayoría de los casos.
Alcanzar el contrapeso adecuado entre la arbitrio de los adultos y la seguridad de los usuarios ha sido un acto de contrapeso difícil para OpenAI, que ha oscilado entre controles de contenido de chat permisivos y restrictivos durante el extremo año.
En febrero, la compañía actualizó sus especificaciones de maniquí para permitir el erotismo en “contextos apropiados”. Pero una aggiornamento de marzo hizo que GPT-4o fuera tan agradable que los usuarios se quejaron de su “tono implacablemente positivo”. En agosto, Ars informó sobre casos en los que el comportamiento ignominioso de ChatGPT había validado las falsas creencias de los usuarios hasta el punto de causar crisis de lozanía mental, y la información de la demanda por suicidio antiguamente mencionada llegó poco posteriormente.
Encima de ajustar los resultados de comportamiento de su maniquí de estilo de IA GPT-40 aludido, los cambios del nuevo maniquí asimismo han creado cierta confusión entre los usuarios. Desde el impulso de GPT-5 a principios de agosto, algunos usuarios se han quejado de que el nuevo maniquí parece menos atractivo que su predecesor, lo que llevó a OpenAI a traer de envés el maniquí aludido como opción. Altman dijo que el próximo impulso permitirá a los usuarios designar si quieren que ChatGPT “responda de una forma muy humana, use un montón de emoji o actúe como un amigo”.





