Más de 30 empleados de OpenAI y Google DeepMind presentaron una explicación el lunes apoyando la demanda de Anthropic contra el Sección de Defensa de EE. UU. a posteriori de que la agencia federal calificara a la empresa de inteligencia sintético como un peligro para la condena de suministro, según documentos judiciales.
“La designación de Anthropic por parte del gobierno como un peligro para la condena de suministro fue un uso inadecuado y infundado del poder que tiene serias ramificaciones para nuestra industria”, se lee en el documentación, entre cuyos firmantes se encuentra el estudiado caudillo de Google DeepMind, Jeff Dean.
A fines de la semana pasada, el Pentágono calificó a Anthropic como un peligro para la condena de suministro, generalmente reservado para adversarios extranjeros, a posteriori de que la empresa de inteligencia sintético se negara a permitir que el Sección de Defensa (DOD) usara su tecnología para la vigilancia masiva de estadounidenses o para disparar armas de forma autónoma. El DOD había argumentado que debería poder utilizar la IA para cualquier propósito “lícito” y no estar escaso por un contratista privado.
El documentación amicus curiae en apoyo de Anthropic apareció en el expediente unas horas a posteriori de que el fabricante de Claude presentara dos demandas contra el Sección de Defensa y otras agencias federales. cableado Fue el primero en informar la nueva.
En el expediente procesal, los empleados de Google y OpenAI señalan que si el Pentágono “ya no estuviera satisfecho con los términos acordados de su resolución con Anthropic”, la agencia podría acaecer “simplemente cancelado el resolución y comprado los servicios de otra empresa líder en inteligencia sintético”.
De hecho, el DOD firmó un acuerdo con OpenAI momentos a posteriori de designar a Anthropic como un peligro para la condena de suministro, una medida que muchos de los empleados del fabricante de ChatGPT protestaron.
“Si se permite que proceda, este esfuerzo por castigar a una de las principales empresas estadounidenses de inteligencia sintético tendrá sin duda consecuencias para la competitividad industrial y científica de Estados Unidos en el campo de la inteligencia sintético y más allá”, se lee en el escrito. “Y enfriará la deliberación abierta en nuestro campo sobre los riesgos y beneficios de los sistemas de IA actuales”.
Evento tecnológico
San Francisco, CA
|
13-15 de octubre de 2026
La presentación además afirma que las líneas rojas declaradas por Anthropic son preocupaciones legítimas que justifican barreras de seguridad fuertes. Sin un derecho conocido que rija el uso de la IA, argumenta, las restricciones contractuales y técnicas que los desarrolladores imponen a sus sistemas son una visa crítica contra un uso indebido catastrófico.
Muchos de los empleados que firmaron la explicación además firmaron cartas abiertas durante las últimas semanas instando al Sección de Defensa a retirar la rótulo y pidiendo a los líderes de sus empresas que apoyen a Anthropic y rechacen el uso autónomo de sus sistemas de inteligencia sintético.






