“Acciones de Copilot en Windows 11” está arreglado actualmente en compilaciones de Insider (interpretación 26220.7262) como parte de Copilot Labs, según un crónica fresco“y está desactivado de forma predeterminada, lo que requiere acercamiento de administrador para configurarlo”.
Pero tal vez esté desactivado por una buena razón… encima del hecho de que puede entrar a cualquier aplicación instalada en su sistema:
En un documento de soporteMicrosoft admite que características como Copilot Actions introducen “ nuevos riesgos de seguridad ” Advierten sobre la inyección cruzada (XPIA), donde el contenido desconfiado en documentos o rudimentos de la interfaz de afortunado puede anular las instrucciones de la IA. ¿El resultado? “ Acciones no deseadas como exfiltración de datos o instalación de malware. “.
Sí, leíste aceptablemente. Microsoft ofrece una función que podría errar para instalar malware en su sistema. La propia advertencia de Microsoft golpea cachas: “Le recomendamos que solo habilite esta función si comprende las implicaciones de seguridad..” Cuando intenta habilitar estas funciones experimentales, Windows le muestra un cuadro de diálogo de advertencia que debe buscar. (“Esta función aún se está probando y puede afectar el rendimiento o la seguridad de su dispositivo”).
Incluso con estas advertencias, el nivel de acercamiento que exige Copilot Actions es preocupante. Cuando habilita la función, obtiene acercamiento de recital y escritura a su Documentos, descargas, escritorio, imágenes, vídeos, y Música carpetas… Microsoft dice que están implementando medidas de seguridad. Todas las acciones se registran, los usuarios deben aprobar las solicitudes de acercamiento a los datos, la función opera en espacios de trabajo aislados y el sistema utiliza registros de auditoría para rastrear la actividad.
Pero todavía estás dando un sistema de IA que puede “desvariar y producir resultados inesperados” (Palabras de Microsoft, no mías) acercamiento completo a sus archivos personales.
Para chocar esto, Ars Técnica notasMicrosoft agregó esta útil advertencia a su documento de soporte esta semana. “A medida que se introducen estas capacidades, los modelos de IA todavía enfrentan limitaciones funcionales en términos de cómo se comportan y ocasionalmente pueden desvariar y producir resultados inesperados”.
Pero Microsoft no describió “qué acciones deberían tomar para evitar que sus dispositivos se vean comprometidos. Le pedí a Microsoft que proporcionara estos detalles y la compañía se negó…”






