
La relación entre uno de los fabricantes de modelos de inteligencia fabricado más lucrativos y poderosos de Silicon Valley, Anthropic, y el gobierno de EE. UU. llegó a un punto de ruptura el viernes 27 de febrero de 2026.
El presidente Donald J. Trump y la Casa Blanca publicado en las redes sociales ordenar a todas las agencias federales que dejen de utilizar inmediatamente la tecnología de Anthropic, el fabricante de la poderosa tribu Claude de modelos de IA, a posteriori de meses de renegociar un acuerdo de menos de dos primaveras. Siguiendo el ejemplo del Presidente, El Secretario de Cruzada, Pete Hegseth, dijo que estaba ordenando al Unidad de Cruzada que designara Anthropic a "Aventura de la sujeción de suministro para la seguridad doméstico," una inventario negra tradicionalmente reservada a adversarios extranjeros como Huawei o Kaspersky Lab.
La medida pone fin efectivamente al acuerdo marcial de 200 millones de dólares de Anthropic y establece un plazo auténtico de seis meses para que el Unidad de Cruzada elimine a Claude de sus sistemas.
Pero el negocio de Anthropic ha estado en auge finalmente, con Sólo su servicio Claude Code despega en una división ARR de más de 2.500 millones de dólares. menos de un año a posteriori del divulgación, y acaba de anunciar un Serie G de 30.000 millones de dólares con una valoración de 380.000 millones de dólares a principios de este mes y, más o menos sin ayuda de nadie estimuló caídas masivas de acciones en el sector SaaS mediante el divulgación de complementos y habilidades para funciones empresariales específicas y de la industria verticalizada, incluidos fortuna humanos, diseño, ingeniería, operaciones, observación financiero, banca de inversión, investigación de caudal, caudal privado y diligencia patrimonial.
Irónicamente, las empresas de SaaS en industrias y sectores como Salesforce, Spotify, Novo Nordisk, Thompson Reuters y más están reportando algunos de los mayores beneficios en productividad y rendimiento gracias a los modelos Claude AI, en gran medida capaces y efectivos, con puntajes de remisión de Anthropic. No es exagerado aseverar que Anthropic se encuentra entre los laboratorios de inteligencia fabricado más exitosos de EE. UU. y del mundo.
Entonces, ¿por qué se considera ahora un "¿Aventura de la sujeción de suministro para la seguridad doméstico?"
¿Por qué el Pentágono designa a Anthropic como un ‘peligro de la sujeción de suministro para la seguridad doméstico’ y por qué ahora?
La ruptura surge de una disputa fundamental sobre "todo uso legal." El Pentágono exigió ataque irrestricto a Claude para cualquier ocupación considerada permitido, mientras El director ejecutante de Anthropic, Dario Amodei, se negó a ceder en dos específicos "lineas rojas": el uso de sus modelos para la vigilancia masiva de ciudadanos estadounidenses y armamento mortal totalmente autónomo.
Hegseth caracterizó la negativa como "arrogancia y traición," mientras que Amodei sostuvo que tales barreras son esenciales para evitar "subida involuntaria o fracaso de la ocupación."
Las consecuencias son inmediatas; El Unidad de Cruzada ha organizado a todos los contratistas y socios que dejen de realizar actividades comerciales con Anthropic de inmediato, aunque el propio Pentágono tiene una ventana de 180 días para realizar la transición a "mas patriótico" proveedores.
El infructifero dejado por Anthropic ya lo están llenando sus principales rivales. El CEO de OpenAI, Sam Altman, acaba de anunciar un acuerdo con el Pentágono que incluye dos sonidos similares "principios de seguridad," aunque aún no está claro si son el mismo tipo de jerga contractual. Más temprano ese mismo día, OpenAI anunció un asombrosa ronda de inversión de 110 mil millones de dólares liderado por Amazon, Nvidia y SoftBank.
Según se informa, xAI de Elon Musk igualmente firmó un acuerdo para permitir que su maniquí Grok se utilice en sistemas en gran medida clasificados, habiendo aceptado el "todo uso permitido" estereotipado que Anthropic rechazó, pero se dice que califican mal entre los trabajadores gubernamentales y militares ya lo estoy usando.
Mientras tanto, Anthropic ha manifestado su intención de impugnar la designación en presencia de los tribunales y ha alentado a sus clientes comerciales a continuar utilizando sus productos y servicios con excepción del trabajo marcial.
Qué significa para las empresas: el imperativo de la interoperabilidad
Para los tomadores de decisiones técnicas empresariales, el "Prohibición antrópica" Es un toque de atención que trasciende las políticas específicas de la sucursal Trump. Independientemente de si está de acuerdo con la postura ética de Anthropic (como yo) o con la posición del Pentágono, la conclusión central es la misma: la interoperabilidad de los modelos es más importante que nunca.
Si todo su flujo de trabajo agente o su pila de atención al cliente está codificado en la API de un único proveedor, no será lo suficientemente ágil o flexible para satisfacer las demandas de un mercado donde algunos clientes potenciales, como el ejército o el gobierno de EE. UU., quieren que use o evite modelos específicos como condiciones de sus contratos con ellos.
La medida más prudente en este momento no es necesariamente alcanzar el "borrar" yema en Claude, que sigue siendo el mejor maniquí de su clase para codificación y razonamiento matizado, pero para asegurar que tenga una "modo de demora cálido."
Esto significa utilizar capas de orquestación y formatos de indicaciones estandarizados que le permitan relacionarse entre Claude, GPT-4o y Gemini 1.5 Pro sin una degradación masiva del rendimiento. Si no puede cambiar de proveedor en un gazapo de 24 horas, su sujeción de suministro es frágil.
Diversifique su suministro de IA
Mientras los gigantes estadounidenses luchan por el servicio del Pentágono, el mercado se está fragmentando de maneras que ofrecen coberturas sorprendentes.
Google Gemini vio aumentar sus acciones tras la informe, y la nueva inyección masiva de efectivo de OpenAI por parte de Amazon (anteriormente un confederado incondicional de Anthropic) indica una consolidación de poder.
Sin incautación, no pase por detención el "franco" y alternativas internacionales. empresas estadounidenses como Airbnb ya ha causado sensación al acudir a modelos chinos de código franco de pequeño coste como Qwen de Alibaba para ciertas funciones de servicio al cliente, citando costo y flexibilidad.
Si perfectamente los modelos chinos conllevan su propio conjunto de riesgos geopolíticos posiblemente mayores, para algunas empresas sirven como una protección viable contra la contemporáneo volatilidad del mercado interno estadounidense.
De guisa más realista, para la mayoría, el movimiento en torno a el alojamiento interno a través de cervezas nacionales como la serie GPT-OSS de OpenAI, Granite de IBM, Ardor de Meta, modelos Trinity de Arcee, Olmo de AI2, modelos LFM2 más pequeños de Liquid AI u otros pesos de código franco de detención rendimiento es la póliza de seguro definitiva. Herramientas de evaluación comparativa de terceros como Investigación artificiales y sotabanco de pellizco puede ayudar a las empresas a arriesgarse qué modelos cumplen con sus criterios de costo y rendimiento en las tareas y cargas de trabajo que están implementando.
Al ejecutar modelos localmente o en una cúmulo privada y ajustarlos según sus datos propietarios, aísla su negocio del "Términos de servicio" guerras y listas negras federales.
Incluso si un maniquí secundario es tenuemente inferior en rendimiento de remisión, tenerlo astuto para ampliar evita un corte total si su proveedor principal de repente deja de funcionar. "sitiado" por represalias del gobierno. Es simplemente un buen negocio: necesita diversificar su ofrecimiento.
La nueva diligencia debida
Como líder empresarial, su inventario de comprobación de diligencia debida acaba de ampliarse gracias a una volátil lucha entre el sector federal y el sector privado.
La conclusión es clara: si planea apoyar negocios con agencias federales, debe poder certificarles que sus productos no se basan en ningún proveedor de maniquí prohibido, por muy repentina que sea la designación.
En última instancia, esta es una asignatura de pleonasmo estratégica. Se suponía que la era de la IA giraba en torno a la democratización de la inteligencia, pero actualmente parece una batalla clásica sobre las adquisiciones de defensa y el poder ejecutante.
Asegure su respaldo y proveedores diversificados, construya para la portabilidad y no deje que su "agentes" convertirse en daños colaterales en la hostilidades entre el gobierno y cualquier empresa específica.
Ya sea que esté motivado por el apoyo ideológico a Anthropic o por una protección despiadada de los resultados, el camino a seguir es el mismo: diversificar, desacoplar y estar preparado para entrar y salir rápidamente.
La interoperabilidad de modelos acaba de convertirse en la nueva empresa "imprescindible."





