Un leedor ignorado cita un documentación del Korea Herald: Corea del Sur comenzará a aplicar su Ley de Inteligencia Sintético el jueves, convirtiéndose en la Primer país en establecer formalmente requisitos de seguridad para sistemas de IA de parada rendimiento, o los llamados de frontera. –una medida que distingue al país en el panorama regulatorio entero. Según el Tarea de Ciencia y TIC, la nueva ley está diseñada principalmente para fomentar el crecimiento en el sector franquista de IA, al tiempo que introduce salvaguardias básicas para enfrentarse los riesgos potenciales que plantean las tecnologías de IA cada vez más poderosas. Los funcionarios describieron la inclusión de obligaciones legales de seguridad para la IA de frontera como un primer paso parlamento a nivel mundial.
La ley sienta las bases para un situación de políticas de IA a nivel franquista. Establece un organismo central de toma de decisiones, el Consejo Presidencial sobre la Logística Franquista de Inteligencia Sintético, y crea una colchoneta reglamentario para un Instituto de Seguridad de IA que supervisará las evaluaciones relacionadas con la seguridad y la confianza. La ley igualmente describe medidas de apoyo de amplio difusión, que incluyen investigación y ampliación, infraestructura de datos, capacitación de talentos, socorro para la puesta en marcha y ayuda con la expansión en el extranjero.
Para sujetar la carga original sobre las empresas, el gobierno planea implementar un período de chiste de al menos un año. Durante este tiempo, no llevará a agarradera investigaciones de determinación de hechos ni impondrá sanciones administrativas. En cambio, la atención se centrará en las consultas y la educación. Un servicio de soporte exclusivo de la Ley de IA ayudará a las empresas a determinar si sus sistemas están interiormente del difusión de la ley y cómo replicar en consecuencia. Los funcionarios señalaron que el período de chiste puede ampliarse dependiendo de cómo evolucionen los estándares internacionales y las condiciones del mercado. La ley se aplica sólo a tres áreas: IA de parada impacto, obligaciones de seguridad para la IA de parada rendimiento y requisitos de transparencia para la IA generativa.
La aplicación de la ley coreana es intencionadamente ligera. No impone sanciones penales. En cambio, da prioridad a las órdenes correctivas por incumplimiento, con multas (con un linde de 30 millones de wones (20.300 dólares)) emitidas sólo si se ignoran esas órdenes. Esto, dice el gobierno, refleja un enfoque orientado al cumplimiento más que punitivo. Las obligaciones de transparencia para la IA generativa se alinean en gran medida con las de la UE, pero Corea las aplica de modo más estricta. El contenido que pueda confundirse con auténtico, como imágenes, vídeos o audios deepfake, debe revelar claramente su origen generado por IA. Para otros tipos de contenido generado por IA, se permite el etiquetado invisible mediante metadatos. El uso personal o no comercial de la IA generativa está excluido de la regulación. “No se manejo de alardear de que somos los primeros en el mundo”, afirmó Kim Kyeong-man, viceministro de la oficina de política de inteligencia fabricado del Tarea de TIC. “Estamos abordando esto desde el nivel más sustancial de consenso entero”.
El enfoque de Corea difiere del de la UE al puntualizar “IA de parada rendimiento” utilizando umbrales técnicos como el cálculo de entrenamiento acumulativo, en ocasión de regular en función de cómo se utiliza la IA. Como resultado, Corea cree que ningún maniquí flagrante cumple con los requisitos de regulación, mientras que la UE está introduciendo progresivamente normas de IA más amplias y basadas en el uso a lo grande de varios abriles.





