- El nuevo modo de incógnito de Claude es tirado para todos los usuarios
- Las conversaciones con la IA permanecerán privadas y no estarán en su historia o memoria
- Las nuevas características llegan con el sistema de memoria recientemente actualizado de Claude para los suscriptores a Claude Max, Team y Enterprise
Si te gusta usar el chatbot Claude Ai de Anthrope, pero no me gusta verdaderamente la idea de que tus conversaciones permanezcan para siempre en la montón, estás de suerte. Claude ahora puede ser incógnito, lo que significa que cualquier interacción será privada y no salvada. No lo verá en su historial o cuando fiordo la aplicación.
En una industria donde la privacidad de IA a menudo viene con una rótulo de precio mensual, la valentía de Anthrope palabra de cuán explosivamente popular se encuentra el modo de incógnito de la información de la información personal que las herramientas digitales absorben a los caprichos de las compañías tecnológicas masivas.
Claude ahora ofrece este tipo de modo efímero sin memoria a cada agraciado en cada nivel de suscripción, incluido el nivel tirado. Simplemente haga clic en el pequeño icono Ghost al comenzar un nuevo chat, y está activado. El borde desafortunado y la rótulo confirman que su chat es de incógnito. Cuando cierras la ventana, se ha ido. Sin historia. Sin memoria. No hay rastrillo apartado de un período de retención temporal de 30 días para la seguridad.
Al igual que con los navegadores web, el modo de incógnito es excelente si desea penetrar a un kit de herramientas digitales sin que todo lo que considere es una aviso potencial. Tal vez te avergüence tu pregunta personal, especulativa o simplemente extraña. Ahora puede preguntar al respecto sin el temor de que Claude lo mencione más tarde o lo incorporará a una respuesta futura. No se manejo solo de ocultar preguntas embarazosas. Se manejo de dar a los usuarios una caja de arena mental: un espacio para pensar en voz ingreso, probar ideas o estudiar poco nuevo sin que se convierta en parte de la memoria a desprendido plazo del chatbot.
Optar en las características de la memoria permite que Claude recuerde el contexto de las conversaciones, recuerde proyectos anteriores en modo de proyectos, almacene notas sobre sus preferencias de trabajo e incluso lo ayude a retomar dónde lo dejó. La memoria de cada esquema está aislada, lo que significa que sus chats de trabajo no sangrarán en su escritura personal.
Claude recuerda
Pero aquí es donde se pone interesante: el modo de incógnito y la memoria no compiten. Se complementan entre sí. Use incógnito cuando desee una pizarra limpia, osado de influencia o historial. Use la memoria cuando desee que Claude sea una máquina de continuidad, ayudándole a admitir hilos a desprendido plazo a través de chats y tareas.
Y si eres el tipo de persona que cambia mucho de lo que te cambia sobre lo que quieres que recuerde, el enfoque de Claude es refrescantemente respetuoso. Carencia se tutela a menos que opte. ¿Y si no quieres memoria? No tienes que usarlo.
Incluso aparece a Claude apartado de algunos de sus mayores rivales. Mientras Chatgpt de OpenAI y Google Gemini ofrecen sus propias versiones de memoria y chats privados, no hacen que esas distinciones sean tan claras o personalizables. La implementación de Claude se siente inusualmente transparente gracias a sus etiquetas e íconos prominentes
No tener la función de memoria en su ocupación es atractiva y parece desmentir algunas de las posibilidades de un chatbot de IA. Son su propia burbuja y = no se pueden convertir en regulares posteriormente del hecho, por lo que si olvida copiar poco importante antaño de cerrar la ventana, se ha ido. Siquiera puede usar el modo de incógnito interiormente de la función “Proyectos” de Claude.
Aún así, la implicación más amplia de que la masa quiere al menos tener la opción de privacidad en sus conversaciones de chatbot de IA es obvia. El modo de incógnito reduce la barrera de entrada para las personas que tienen curiosidad por la IA pero desconfían de dejar un rastrillo de datos. Y, por extraño que parezca, una IA que todavía puede olvidar las cosas o al menos imitar la experiencia parece mucho más humana que una con un retiro total.





