Marcel Bucher, profesor de ciencias vegetales en la Universidad de Colonia en Alemania, perdió dos abriles de trabajo culto cuidadosamente estructurado en un instante cuando deshabilitó temporalmente la opción de “consentimiento de datos” de ChatGPT en agosto para probar si las funciones de la aparejo de inteligencia industrial seguirían funcionando sin proporcionar sus datos a OpenAI. Todos sus chats fueron eliminados permanentemente y sus carpetas de proyectos se vaciaron sin ninguna advertencia ni opción de deshacer, dijo. escribió en una publicación sobre Naturaleza.
Bucher, un suscriptor de ChatGPT Plus que pagaba 20 dólares al mes, había utilizado la plataforma diariamente para redactar solicitudes de subvenciones, preparar materiales didácticos, revisar borradores de publicaciones y crear exámenes. Se puso en contacto con el soporte de OpenAI y primero recibió respuestas de un agente de IA antiguamente de que un empleado humano confirmara que los datos se habían perdido permanentemente y eran irrecuperables. OpenAI citó la “privacidad por diseño” como la razón y le dijo a Nature que proporciona un mensaje de confirmación antiguamente de que los usuarios eliminen permanentemente un chat, pero no mantiene copias de seguridad.
Bucher dijo que había guardado copias parciales de algunos materiales, pero las indicaciones subyacentes, las iteraciones y las carpetas de proyectos (lo que él describe como el andamio intelectual detrás de su trabajo terminado) desaparecieron para siempre.





