Futurismo informes:
A principios de esta semana, enterrado en medio de un Publicación de blog larga dirigirse a la propensión de Chatgpt para daños graves de vigor mentalOpenAi admitió que está escaneando las conversaciones de los usuarios y informando a la policía Cualquier interacción que un revisor humano considere suficientemente amenazador.
“Cuando detectamos a los usuarios que planean dañar a otros, enrutamos sus conversaciones a tuberías especializadas donde son revisados por un pequeño equipo capacitado en nuestras políticas de uso y que están autorizados a tomar medidas, incluidas las cuentas de prohibición”, escribió. “Si los revisores humanos determinan que un caso implica una amenaza inminente de daño físico solemne para los demás, podemos remitirlo a la policía”.
El anuncio planteó preguntas inmediatas. ¿No los moderadores humanos no juzgan el tono, por ejemplo, socavan toda la premisa de un sistema de IA que sus creadores dicen que pueden resolver problemas amplios y complejos? ¿Cómo está OpenAI incluso descubrir las ubicaciones precisas de los usuarios para proporcionarlos a los respondedores de emergencia? ¿Cómo está protegiendo contra el alcaldada por llamados Swatters¿Quién podría fingir ser otra persona y luego hacer amenazas violentas para chatgpt para que los policías asalten sus objetivos …? La admisión todavía parece contradecir los comentarios del CEO de Operai Sam Altman, quien recientemente pidió privacidad similar a un “terapeuta, un abogado o un médico” para los usuarios que hablan con ChatGPT.
“Otros argumentaron que la industria de la IA está empujando apresuradamente a los productos mal entendidos al mercado, utilizando personas reales como conejillos de indias y adoptando soluciones cada vez más al azar a los problemas del mundo existente a medida que surgen …”
Gracias al profesor de slashdot desde hace mucho tiempo schwit1 por compartir las noticiario.





