Microsoft dice que un error de Microsoft 365 Copilot ha provocado que el asistente de IA resumir correos electrónicos confidenciales desde finales de eneroevitando las políticas de prevención de pérdida de datos (DLP) en las que confían las organizaciones para proteger la información confidencial. De un documentación: Según una alerta de servicio presencia por BleepingComputer, este error (rastreado bajo CW1226324 y detectado por primera vez el 21 de enero) afecta la función de chat de la “pestaña de trabajo” de Copilot, que lee y resume incorrectamente los correos electrónicos almacenados en las carpetas Principios enviados y Borradores de los usuarios, incluidos los mensajes que llevan etiquetas de confidencialidad diseñadas explícitamente para restringir el ataque mediante herramientas automatizadas.
Copilot Chat (sigla de Microsoft 365 Copilot Chat) es el chat basado en inteligencia químico y con agradecimiento de contenido de la compañía que permite a los usuarios interactuar con agentes de inteligencia químico. Microsoft comenzó a implementar Copilot Chat en Word, Excel, PowerPoint, Outlook y OneNote para clientes comerciales de suscripción de Microsoft 365 en septiembre de 2025.




