Por primera vez, Washington está a punto de lanzarse cómo regular la inteligencia sintético. Y la lucha que se está gestando no tiene que ver con la tecnología, sino con quién puede regular.
En abandono de un tipificado federal significativo de IA que se centre en la seguridad del consumidor, los estados han presentado docenas de proyectos de ley para proteger a los residentes contra los daños relacionados con la IA, incluido el plan de ley de seguridad de la IA SB-53 de California y la Ley de Gobernanza Responsable de la IA de Texas, que prohíbe el uso indebido intencional de los sistemas de IA.
Los gigantes tecnológicos y las nuevas empresas nacidas en Silicon Valley argumentan que tales leyes crean un azulejo inviable que amenaza la innovación.
“Nos va a frenar en la carrera contra China”, dijo a TechCrunch Josh Vlasto, cofundador de pro-AI PAC Leading the Future.
La industria, y varios de sus trasplantes en la Casa Blanca, está presionando para que se adopte una norma doméstico o ninguna. En las trincheras de esa batalla de todo o carencia, han surgido nuevos esfuerzos para prohibir a los estados promulgar su propia reglamento sobre IA.
Según se informa, los legisladores de la Cámara de Representantes están intentando utilizar la Ley de Autorización de Defensa Doméstico (NDAA) para cerrar las leyes estatales sobre IA. Al mismo tiempo, un paño filtrado de una orden ejecutiva de la Casa Blanca asimismo demuestra un resistente apoyo a la prevención de los esfuerzos estatales para regular la IA.
Una medida preventiva radical que eliminaría los derechos de los estados a regular la IA es impopular en el Congreso, que votó abrumadoramente en contra de una moratoria similar a principios de este año. Los legisladores han argumentado que sin un tipificado federal válido, los estados que bloqueen dejarán a los consumidores expuestos a daños y a las empresas de tecnología libres de actuar sin supervisión.
Evento tecnológico
san francisco
|
13-15 de octubre de 2026
Para crear ese tipificado doméstico, el representante Ted Lieu (D-CA) y el corro de trabajo bipartidista sobre IA de la Cámara de Representantes están preparando un paquete de proyectos de ley federales sobre IA que cubren una variedad de protecciones al consumidor, incluido el fraude, la atención médica, la transparencia, la seguridad pueril y el aventura catastrófico. Un megaproyecto de ley como este probablemente tardará meses, si no primaveras, en convertirse en ley, lo que subraya por qué la presente prisa por prohibir la autoridad estatal se ha convertido en una de las luchas más polémicas en la política de IA.
Las líneas de batalla: NDAA y EO

Los esfuerzos para impedir que los estados regulen la IA se han intensificado en las últimas semanas.
La Cámara ha considerado incluir en la NDAA un estilo que impediría a los estados regular la IA, dijo el líder de la mayoría Steve Scalise (R-LA). Telediario de Punchbowl. Según se informó, el Congreso estaba trabajando para finalizar un acuerdo sobre el plan de ley de defensa ayer del Día de Bono de Gracias. político informó. Una fuente familiarizada con el asunto dijo a TechCrunch que las negociaciones se han centrado en someter el significación para preservar potencialmente la autoridad estatal en áreas como la seguridad y la transparencia de los niños.
Mientras tanto, un EO filtrado de la Casa Blanca El paño revela la potencial táctica preventiva de la propia establecimiento. La EO, que supuestamente ha quedado en suspenso, crearía un “Peña de Trabajo de Litigios sobre IA” para impugnar las leyes estatales sobre IA en los tribunales, ordenaría a las agencias que evalúen las leyes estatales consideradas “onerosas” y presionaría a la Comisión Federal de Comunicaciones y a la Comisión Federal de Comercio con destino a estándares nacionales que anulen las normas estatales.
En particular, la EO otorgaría a David Sacks, el zar de las criptomonedas y la inteligencia sintético de Trump y cofundador de la firma de haber de aventura Craft Ventures, autoridad codirectora para crear un entorno lícito uniforme. Esto le daría a Sacks una influencia directa sobre la política de IA que reemplaza el papel distintivo de la Oficina de Política Científica y Tecnológica de la Casa Blanca y su director Michael Kratsios.
Sacks ha abogado públicamente por cerrar la regulación estatal y persistir la supervisión federal en un nivel servil, favoreciendo la autorregulación de la industria para “maximizar el crecimiento”.
El argumento del azulejo
La posición de Sacks refleja el punto de audiencia de gran parte de la industria de la IA. En los últimos meses han surgido varios súper PAC pro-IA, que han invertido cientos de millones de dólares en elecciones locales y estatales para oponerse a candidatos que apoyan la regulación de la IA.
Leading the Future, respaldado por Andreessen Horowitz, el presidente de OpenAI, Greg Brockman, Perplexity y el cofundador de Palantir, Joe Lonsdale, ha recaudado más de 100 millones de dólares. Esta semana, Liderando el Futuro lanzó una campaña de 10 millones de dólares presionando al Congreso para que elabore una política doméstico de IA que anule las leyes estatales.
“Cuando intentas impulsar la innovación en el sector tecnológico, no puedes tener una situación en la que todas estas leyes sigan surgiendo de personas que no necesariamente tienen la experiencia técnica”, dijo Vlasto a TechCrunch.
Sostuvo que un azulejo de regulaciones estatales “nos retrasará en la carrera contra China”.
Nathan Leamer, director ejecutante de Build American AI, el protector de defensa del PAC, confirmó que el corro apoya la preferencia sin que existan protecciones federales al consumidor específicas de AI. Leamer argumentó que las leyes existentes, como las que abordan el fraude o la responsabilidad del producto, son suficientes para encarar los daños de la IA. Mientras que las leyes estatales a menudo buscan organizar los problemas ayer de que surjan, Leamer favorece un enfoque más reactivo: dejar que las empresas actúen con presteza y encarar los problemas en los tribunales más tarde.
Sin preferencia sin representación

Alex Bores, miembro de la Asamblea de Nueva York que se postula para el Congreso, es uno de los primeros objetivos de Leading the Future. Patrocinó la Ley RAISE, que exige que los grandes laboratorios de IA tengan planes de seguridad para evitar daños críticos.
“Creo en el poder de la IA y por eso es tan importante tener regulaciones razonables”, dijo Bores a TechCrunch. “En última instancia, la IA que ganará en el mercado será una IA confiable y, a menudo, el mercado infravalora o otorga pocos incentivos a corto plazo a la inversión en seguridad”.
Bores apoya una política doméstico de IA, pero sostiene que los estados pueden realizar más rápido para encarar los riesgos emergentes.
Y es cierto que los estados avanzan más rápido.
En noviembre de 2025, 38 estados han acogido Este año se aprobaron más de 100 leyes relacionadas con la IA, principalmente dirigidas a deepfakes, transparencia y divulgación, y uso ministerial de la IA. (Un flamante estudiar descubrió que el 69% de esas leyes no imponen ningún requisito a los desarrolladores de IA).
La actividad en el Congreso proporciona más evidencia del argumento de que son más lentos que los estados. Se han presentado cientos de proyectos de ley sobre IA, pero pocos han sido aprobados. Desde 2015, el representante Lieu ha presentado 67 proyectos de ley al Comité Verificado de la Cámara de Representantes. Sólo uno se convirtió en ley.
Más de 200 legisladores firmaron un carta abierta oponiéndose a la preferencia en la NDAA, argumentando que “los estados sirven como laboratorios de las democracias” que deben “conservar la flexibilidad para contraponer nuevos desafíos digitales a medida que surjan”. Casi 40 fiscales generales estatales asimismo envió una carta abierta oponerse a una prohibición estatal de regulación de la IA.
El habituado en ciberseguridad Bruce Schneier y el sabio de datos Nathan E. Sanders, autores de Reconfigurando la democracia: Cómo la IA transformará nuestra política, gobierno y ciudadanía – argumentan que la queja sobre el azulejo es exagerada.
Las empresas de IA ya cumplen con regulaciones más estrictas de la UE, señalan, y la mayoría de las industrias encuentran la guisa de actuar bajo diferentes leyes estatales. El real motivo, dicen, es evitar la rendición de cuentas.
¿Cómo sería una norma federal?
Lieu está redactando un megaproyecto de ley de más de 200 páginas que retraso presentar en diciembre. Cubre una variedad de temas, como sanciones por fraude, protecciones deepfakeprotecciones para denunciantes, bienes informáticos para el mundo clásico, y pruebas y divulgación obligatorias para grandes empresas de modelos lingüísticos.
Esa última disposición requeriría que los laboratorios de IA prueben sus modelos y publiquen los resultados, poco que la mayoría hace ahora de forma voluntaria. Lieu aún no ha presentado el plan de ley, pero dijo que no ordena a ninguna agencia federal que revise los modelos de IA directamente. Que se diferencia de uno similar confección presentado por Sens Josh Hawley (R-MS) y Richard Blumenthal (D-CN) que requeriría un software de evaluación administrado por el gobierno para sistemas avanzados de IA ayer de su implementación.
Lieu reconoció que su plan de ley no sería tan ajustado, pero dijo que tenía más posibilidades de convertirse en ley.
“Mi objetivo es convertir poco en ley esta sesión”, dijo Lieu, señalando que el líder de la mayoría de la Cámara de Representantes, Scalise, es abiertamente hostil a la regulación de la IA. “No estoy escribiendo un plan de ley que tendría si fuera rey. Estoy tratando de escribir un plan de ley que podría ser apto por una Cámara controlada por los republicanos, un Senado controlado por los republicanos y una Casa Blanca controlada por los republicanos”.





