OpenAi es despliegue Medidas de seguridad más estrictas para ChatGPT posteriormente de que las demandas vincularon el chatbot con múltiples suicidios. “Chatgpt Will Ahora intente adivinar la momento de un legatarioy en algunos casos puede requerir que los usuarios compartan una identificación para revisar que tengan al menos 18 primaveras “, informa 404 Media.” Sabemos que este es un compromiso de privacidad para los adultos, pero cree que es una compensación digna “, dijo la compañía en su anuncio. “No espero que todos estén de acuerdo con estas compensaciones, pero cubo el conflicto, es importante explicar nuestra toma de decisiones”, dijo el CEO de Operai, Sam Altman, en X. del documentación: Operai introdujo los controles de los padres para ChatGPT a principios de septiembre, pero ahora ha introducido nuevas medidas de seguridad más estrictas e invasivas. Por otra parte de intentar adivinar o revisar la momento de un legatario, ChatGPT ahora incluso aplicará diferentes reglas a los adolescentes que están utilizando el chatbot. “Por ejemplo, ChatGPT estará capacitado para no hacer la charla coqueta mencionada anteriormente si se le pregunta, o participar en discusiones sobre el suicidio de autolesiones incluso en un entorno de escritura creativa”, dijo el anuncio. “Y, si un legatario de Sub-18 tiene una ideación suicida, intentaremos contactar a los padres de los usuarios y, si no puede, se comunicaremos con las autoridades en caso de daño inminente”.
La publicación de Openai explica que está luchando por manejar un problema inherente con modelos de idiomas grandes que 404 Media ha rastreado durante varios primaveras. ChatGPT solía ser un chatbot mucho más restringido que se negaría a involucrar a los usuarios en una amplia variedad de problemas que la compañía consideraba peligrosa o inapropiada. La competencia de otros modelos, especialmente localmente alojados y llamados modelos “sin censura”, y un cambio político en dirección a el derecho que ve muchas formas de moderación de contenido como censura, ha causado que OpenAi afloje esas restricciones.
“Queremos que los usuarios puedan usar nuestras herramientas de la forma que quieran, internamente de un término de seguridad muy amplios”, dijo Open Ai en su anuncio. La posición en la que parecía acaecer aterrizado dadas estas historias recientes sobre el suicidio para adolescentes es que quiere “tratar a nuestros usuarios adultos como adultos” es cómo hablamos de esto internamente, extendiendo la autodeterminación lo más posible sin causar daño o socavar la autodeterminación de otra persona “.





