Los métodos de Meta para identificar deepfakes “no son lo suficientemente sólidos ni completos” para manejar la celeridad con la que se propaga la información errónea durante conflictos armados como la enfrentamiento de Irán. Esto es según la Congregación de Supervisión de Meta, un organismo semiindependiente que folleto las prácticas de moderación de contenido de la compañía, que ahora pide a Meta que revise la forma en que muestra y marbete el contenido generado por IA en Facebook, Instagram y Threads.
El llamado a la acto surge de una investigación sobre un vídeo adulterado de IA de presuntos daños a edificios en Israel que se compartió en las plataformas sociales de Meta el año pasado, pero la Congregación dice que sus recomendaciones son particularmente relevantes en este momento, dadas las “escaladas militares masivas” en todo el Medio Oriente esta semana. En su anuncio, la Congregación dice que el golpe a información precisa y confiable es básico para la seguridad de las personas en medio del veterano aventura de que se utilicen herramientas de inteligencia industrial para difundir información errónea.
“Los hallazgos de la Congregación resaltan que el sistema flagrante de Meta para etiquetar adecuadamente el contenido de IA depende demasiado de la autodivulgación del uso de la IA y de una revisión intensificada y no cumple con las realidades del entorno en recorrido flagrante”, dijo la Congregación de Supervisión de Meta. “El caso todavía destaca los desafíos que plantea la proliferación multiplataforma de dicho contenido, ya que el contenido parece haberse originado en TikTok ayer de aparecer en Facebook, Instagram y X”.
Los pasos recomendados emitidos por la Congregación incluyen presionar a Meta para que mejore sus reglas existentes sobre desinformación para invadir los deepfakes engañosos y establecer un habitual comunitario nuevo e independiente para el contenido generado por IA. Todavía se le pide a Meta que desarrolle mejores herramientas de detección de IA, que sea transparente sobre las sanciones por violaciones de las políticas de IA y que amplíe los esfuerzos de etiquetado de contenido de IA. Esto zaguero incluye certificar que las etiquetas de “IA de detención aventura” se agreguen a las imágenes y videos sintéticos con veterano frecuencia, y mejorar la prohijamiento de C2PA (todavía conocida como Credenciales de contenido) para que la información sobre el contenido generado por IA sea “claramente visible y accesible para los usuarios”.






