
Siga ZDNET: Agréganos como fuente preferida en Google.
Conclusiones esencia de ZDNET
- Dos leyes estatales importantes sobre IA están en vigor ya que la regulación federal sobre IA sigue sin estar clara.
- Trump ha renovado sus ataques a la carta estatal sobre IA.
- Los investigadores todavía están descontentos con las leyes actuales.
Estamos a unas semanas de 2026 y la compañía Trump aún tiene que proponer una carta sobre IA a nivel federal.
Al mismo tiempo, han entrado en vigor leyes de seguridad de IA, primeras en su tipo en California y Nueva York, uno y otro estados proporcionadamente posicionados para influir en las empresas de tecnología. Pero una orden ejecutiva de diciembre y su subsiguiente liga de trabajo han renovado los ataques a las leyes estatales sobre IA. ¿Qué significan las nuevas leyes en la ejercicio? ¿Podrán sobrevivir al investigación a nivel federal?
Adicionalmente: 5 formas en que las reglas y regulaciones pueden ayudar a conducir su innovación en IA
SB-53 y la Ley RAISE
California SB-53la nueva ley de seguridad de la IA que entró en vigor el 1 de enero, exige que los desarrolladores de modelos publiquen cómo mitigarán los mayores riesgos que plantea la IA y que informen sobre los incidentes de seguridad que involucran a sus modelos (o se enfrentarán a multas de hasta 1 millón de dólares si no lo hacen). Aunque no es tan exhaustiva como la carta que se intentó anteriormente en el estado, la nueva ley es prácticamente la única en un panorama de IA enormemente desregulado. Más recientemente se le sumó el Ley AUMENTARaprobada en Nueva York a finales de diciembre, que es similar a la ley de California.
En comparación, la Ley RAISE además establece requisitos de notificación de incidentes de seguridad que involucran modelos de todos los tamaños, pero tiene un paso de multa superior de $3 millones luego de la primera infracción de una empresa. Mientras que la SB 53 exige que las empresas notifiquen al estado adentro de los 15 días posteriores a un incidente de seguridad, RAISE requiere la notificación adentro de las 72 horas.
Adicionalmente: El acto de contrapeso de la IA que su empresa no puede darse el suntuosidad de perder en 2026
La SB 1047, una interpretación mencionado de la SB 53, habría requerido que los laboratorios de inteligencia sintético realizaran pruebas de seguridad en modelos que costaban más de 100 millones de dólares y desarrollaran un mecanismo de acabado, o interruptor de acabado, para controlarlos en caso de que se comportaran mal. Ese esquema de ley fracasó en presencia de los argumentos de que sofocaría la creación de empleo y la innovación, una respuesta global a los esfuerzos de regulación, especialmente de la compañía contemporáneo.
SB 53 usa una mano más ligera. Al igual que la Ley RAISE, se dirige a empresas con ingresos brutos anuales de más de 500 millones de dólares, un paso que exime a muchas nuevas empresas de IA más pequeñas de los requisitos de presentación de informes y documentación de la ley.
“Es interesante que exista este paso de ingresos, especialmente porque se han introducido muchos modelos de IA más eficientes que aún pueden participar en una gran cantidad de procesamiento, pero que pueden ser implementados por empresas más pequeñas”, dijo a ZDNET la abogada de protección de datos Lily Li, quien fundó Metaverse Law. Señaló que el director Gavin Newsom vetó la SB-1047, en parte, porque impondría costos que inhibirían el crecimiento a las empresas más pequeñas, una preocupación de la que además se hicieron eco los grupos de presión.
Adicionalmente: ¿Le preocupa que la IA le quiebro su trabajo remoto? Estás a fuera de por ahora, muestra este estudio
“Creo que tiene una motivación más política que necesariamente impulsada por diferencias en el daño o impacto potencial de la IA en función del tamaño de la empresa o del maniquí”, dijo sobre el paso.
En comparación con el SB-1047, el SB-53 se centra más en la transparencia, la documentación y la presentación de informes que en los daños reales. La ley crea requisitos para barreras de seguridad en torno a riesgos catastróficos: ataques con armas cibernéticas, químicas, biológicas, radiológicas y nucleares, daños corporales, agresiones o situaciones en las que los desarrolladores pierden el control de un sistema de inteligencia sintético.
Límites renovados a la carta estatal sobre IA
La compañía contemporáneo y las empresas que se oponen a la regulación de la seguridad de la IA, especialmente a nivel federal, dicen que ralentizaría el incremento, perjudicaría los empleos en el sector tecnológico y cedería ámbito en la carrera de la IA a países como China.
El 11 de diciembre, el presidente Trump firmó un orden ejecutiva declarando una intención renovada de centralizar las leyes de IA a nivel federal para asegurar que las empresas estadounidenses sean “libres de innovar sin regulaciones engorrosas”. La orden sostiene que “una regulación estatal excesiva frustra este imperativo” al crear un alicatado de leyes diferentes, algunas de las cuales, según alega, “son cada vez más responsables de exigir a las entidades que incorporen sesgos ideológicos adentro de los modelos”.
Adicionalmente: el Senado elimina la prohibición de las regulaciones estatales de IA del esquema de ley de impuestos de Trump
Todavía anunció un liga de trabajo de litigios sobre IA para desafiar las leyes estatales que sean inconsistentes con un “entorno de política franquista mínimamente molesto para la IA”. Esto renueva un intento del Congreso el verano pasado de prohibir a los estados aprobar regulaciones de IA durante 10 abriles, lo que habría retenido fondos para costado ancha e infraestructura de IA de los estados que no las cumplieran. La moratoria fue derrotada de forma arrollador, preservando temporalmente los derechos de los estados a sancionar la IA en su zona.
La semana pasada, Parte CBS informó que el Sección de Conciencia estaba formando el liga de trabajo. Un memorando interno revisado por CBS News decía que el liga de trabajo estará dirigido por la fiscal militar de los Estados Unidos, Pam Bondi, u otra persona designada.
Dicho esto, Li no calma que el nuevo liga de trabajo afecte sustancialmente la regulación estatal, al menos en California.
“El liga de trabajo de litigios de IA se centrará en leyes que son inconstitucionales según la cláusula de comercio inactivo y la Primera Perfeccionamiento, reemplazadas por la ley federal o ilegales de otro modo”, dijo a ZDNET. “La Décima Perfeccionamiento, sin incautación, reserva explícitamente derechos a los estados si no hay una ley federal, o si no hay preferencia sobre las leyes estatales por una ley federal”.
Adicionalmente: ¿Es la conflagración de la IA contra el trabajo pesado un maligno de la creatividad? Lo que dicen los expertos
por otra parte de un nueva solicitud de información (RFI) del Centro de Estándares e Innovación de IA (CAISI), anteriormente Instituto de Seguridad de IA, sobre los riesgos de seguridad de los agentes de IA, la compañía no parece ocurrir ofrecido un reemplazo para las leyes estatales.
“Los requisitos federales de HIPAA permiten a los estados aprobar leyes estatales de privacidad de la atención médica más estrictas”, dijo Li. “Aquí, no existe ninguna ley federal de IA que prevalezca sobre muchas de las leyes estatales, y el Congreso ha rechazado esfuerzos anteriores para juntar la preferencia federal de IA a la carta mencionado”.
Protecciones adicionales y límites
La SB-53 de California además exige que las empresas de inteligencia sintético protejan a los denunciantes. Esto llamó la atención de Li, quien señaló que, a diferencia de otras partes de la ley, que se reflejan en la Ley de la UE y para las cuales muchas empresas ya están preparadas, las protecciones a los denunciantes son únicas en la tecnología.
“En realidad no ha habido muchos casos en el espacio de la IA, obviamente, porque es nuevo”, dijo Li. “Creo que esa es una preocupación decano para muchas empresas de tecnología, porque hay mucha rotación en el espacio tecnológico y no se sabe cómo será el mercado. Esto es otra cosa que preocupa a las empresas como parte del proceso de despidos”.
Añadió que los requisitos de presentación de informes de la SB 53 hacen que las empresas se preocupen más por crear material que pueda estar de moda en demandas colectivas.
Adicionalmente: Por qué pagará más por la IA en 2026 y tres consejos para eludir hacienda que puede probar
Gideon Futerman, asociado de proyectos especiales del Centro para la Seguridad de la IA, no cree que la SB 53 tenga un impacto significativo en la investigación de seguridad.
“Esto no cambiará mucho el día a día, en gran parte porque la Ley de IA de la UE ya exige estas revelaciones”, explicó. “El SB-53 no impone ninguna carga nueva”.
Ninguna ley exige que los laboratorios de IA hagan que terceros prueben sus modelos, aunque la Ley RAISE de Nueva York exige auditorías anuales de terceros en el momento de escribir este artículo. Aún así, Futerman considera que la SB 53 es un avance.
“Esto demuestra que la regulación de la seguridad de la IA es posible y tiene impulso político. La cantidad de trabajo existente de seguridad que se realiza hoy en día todavía está muy por debajo de lo que se necesita”, afirmó. “Las empresas que compiten por construir IA superinteligente, aunque admiten que estos sistemas podrían programar riesgos de terminación, todavía no entienden efectivamente cómo funcionan sus modelos”.
¿Dónde deja esto la seguridad de la IA?
“El nivel de regulación del SB-53 no es carencia comparado con los peligros, pero es un primer paso valioso alrededor de la transparencia y la primera aplicación de la ley en torno al aventura catastrófico en los EE.UU. Aquí es donde deberíamos ocurrir estado hace abriles”, dijo Futerman.
Independientemente de las regulaciones estatales y federales, Li dijo que la gobernanza ya se ha convertido en una decano prioridad para las empresas de IA, impulsada por sus resultados. Los clientes empresariales están imponiendo la responsabilidad a los desarrolladores y los inversores están teniendo en cuenta la privacidad, la ciberseguridad y la gobernanza en sus decisiones de financiación.
Adicionalmente: 5 formas de hacer crecer su negocio con IA, sin dejar de costado a su gentío
Aún así, dijo que muchas empresas simplemente pasan desapercibidas para los reguladores mientras pueden.
“La transparencia por sí sola no hace que los sistemas sean seguros, pero es un primer paso crucial”, afirmó Futerman. Aplazamiento que la carta futura llene los vacíos restantes en la organización de seguridad franquista.
“Eso incluye proteger los controles de exportación y el seguimiento de chips, mejorar la inteligencia sobre proyectos fronterizos de IA en el extranjero y coordinar con otras naciones las aplicaciones militares de la IA para evitar una ascenso involuntaria”, añadió.






