
Un sistema impulsado por IA pronto podría admitir la responsabilidad de evaluar los posibles daños y los riesgos de privacidad de hasta el 90% de las actualizaciones realizadas a meta aplicaciones como Instagram y WhatsApp, según documentos internos Según se informa, conocido por NPR.
NPR dice un acuerdo de 2012 Entre Facebook (ahora Meta) y la Comisión Federal de Comercio requieren que la Compañía realice revisiones de privacidad de sus productos, evaluando los riesgos de cualquier modernización potencial. Hasta ahora, esas revisiones han sido realizadas en gran medida por evaluadores humanos.
Según el nuevo sistema, Meta, según los informes, se les pedirá a los equipos de productos que completen un cuestionario sobre su trabajo, luego generalmente recibirán una “valor instantánea” con riesgos identificados por AI, anejo con los requisitos que una modernización o función debe cumplir antaño de que se acontecimiento.
Este enfoque centrado en la IA permitiría a Meta renovar sus productos más rápidamente, pero un ex ejecutor le dijo a NPR que incluso crea “mayores riesgos”, ya que “es menos probable que se eviten los cambios negativos de los cambios de productos antaño de que comiencen a causar problemas en el mundo”.
En un comunicado, un portavoz de Meta dijo que la compañía ha “invertido más de $ 8 mil millones en nuestro software de privacidad” y está comprometido a “entregar productos innovadores para las personas mientras cumple con las obligaciones regulatorias”.
“A medida que los riesgos evolucionan y nuestro software madura, mejoramos nuestros procesos para identificar mejor los riesgos, acelerar la toma de decisiones y mejorar la experiencia de las personas”, dijo el portavoz. “Aprovechamos la tecnología para juntar consistencia y previsibilidad a las decisiones de bajo aventura y dependemos de la experiencia humana para evaluaciones rigurosas y supervisión de temas novedosos o complejos”.
Esta publicación se ha actualizado con citas adicionales de la proclamación de Meta.