Es el día del inminente ultimátum del Pentágono para Anthropic: permitir que el ejército estadounidense tenga paso sin control a su tecnología, incluso para vigilancia masiva y armas letales totalmente autónomas, o potencialmente ser designado como un “peligro de sujeción de suministro” y potencialmente perder cientos de miles de millones de dólares en contratos. En medio de las crecientes declaraciones públicas y amenazas, los trabajadores tecnológicos de toda la industria analizan los contratos gubernamentales y militares de sus propias empresas y se preguntan qué tipo de futuro están ayudando a construir.
Si acertadamente el Unidad de Defensa ha pasado semanas negociando con Anthropic sobre la asesinato de sus barreras de seguridad, incluida la posibilidad de permitir que el ejército estadounidense utilice la IA de Anthropic para matar objetivos sin supervisión humana, OpenAI y xAI habían según se informa Ya hemos convenido dichos términos, aunque OpenAI es según se informa intentando adoptar las mismas líneas rojas en los acuerdos que Anthropic. La situación caudillo ha hecho que los empleados de algunas empresas con contratos de defensa se sientan traicionados. “Cuando me uní a la industria de la tecnología, pensé que la tecnología consistía en hacer la vida de las personas más obvio”, dijo un empleado de Amazon Web Services. El borde“pero ahora parece que se alcahuetería de hacer más obvio la vigilancia, la deportación y el homicidio de personas”.
En conversaciones con El bordeempleados actuales y anteriores de OpenAI, xAI, Amazon, Microsoft y Google expresaron sentimientos similares sobre el cambiante panorama ético de sus empresas. Grupos organizados que representan a 700.000 trabajadores tecnológicos en Amazon, Google, Microsoft y más han firmó una carta exigiendo que las empresas rechacen las exigencias del Pentágono. Pero muchos vieron pocas posibilidades de que sus empleadores (estén o no directamente involucrados en este conflicto) cuestionaran al gobierno o respondieran.
“Desde su perspectiva, les encantaría seguir ganando efectivo y no tener que conversar de ello”, dijo un ingeniero de software de Microsoft.
Hasta ahora, Anthropic se ha mantenido firme. El director ejecutor de Anthropic, Dario Amodei, publicó un revelación el jueves que las “amenazas del Pentágono no cambian nuestra posición: no podemos, en conciencia, ingresar a su solicitud”. Pero ha patente que no se opone en incondicional a que haya armas letales autónomas en el futuro, sólo que la tecnología no era lo suficientemente fiable “hoy”. Amodei incluso se ofreció a asociarse con el Unidad de Defensa en “I+D para mejorar la confiabilidad de estos sistemas, pero no aceptaron esta propuesta”, escribió en el comunicado.
Sin requisa, en los últimos primaveras, las principales empresas de tecnología han flexibilizado sus reglas o cambiado sus declaraciones de cometido para expandirse a lucrativos contratos gubernamentales o militares. En 2024, OpenAI eliminó de sus términos de servicio la prohibición de casos de uso “militares y bélicos”; a posteriori de eso, firmó un acuerdo con el fabricante de armas autónomas Anduril y luego su resolución con el Unidad de Defensa, y exacto esta semana, Anthropic cambió su tan promocionada política de escalamiento responsableabandonando su compromiso de seguridad de larga data para avalar que siga siendo competitivo en la carrera de la IA. Los grandes actores tecnológicos como Amazon, Google y Microsoft todavía han permitido que las agencias de defensa y de inteligencia utilicen sus productos de inteligencia sintético, incluidos algunos que aceptaron trabajar con ICE a pesar de la creciente protesta del notorio y de los empleados por igual.
En los últimos primaveras, la resistor de los trabajadores tecnológicos a asociaciones y acuerdos que consideran perjudiciales para la sociedad en caudillo condujo a veces a grandes cambios. En 2018, por ejemplo, miles de empleados de Google presionaron con éxito a la empresa para que pusiera fin a su “Esquema Maven” asociación con el Pentágono y los trabajadores de Microsoft presentaron a los líderes una campaña anti-ICE petición firmado por más o menos de 500 Empleados de Microsoft, aunque Microsoft todavía funciona con la agencia. En 2020, tras el homicidio de George Floyd, las empresas de tecnología hicieron declaraciones públicas y compromisos financieros en apoyo al movimiento Black Lives Matter. Pero en los últimos meses, la industria ha trillado una sinceridad muy diferente: una civilización de miedo y silencio, especialmente en medio de la cooperación con la oficina Trump y ICE, dijeron recientemente trabajadores del sector tecnológico. El borde.
Las empresas han seguido los pasos de antiguas asociaciones de vigilancia y tecnología marcial, que sólo se han vuelto más agresivas. Eso incluye Palantir, cofundada por Peter Thiel, cuyo director ejecutor Alex Karp recientemente fijado a los accionistas que “Palantir está aquí para perturbar y hacer que las instituciones con las que nos asociamos sean las mejores del mundo y, cuando sea necesario, para asustar a los enemigos y, en ocasiones, matarlos. Y esperamos que estén a auspicio de eso”. (Protect Democracy, una ordenamiento sin fines de interés, publicó recientemente un carta abierta pidiendo que el Congreso supervise las demandas del Unidad de Defensa sobre el uso irrestricto de la IA. )
OpenAI, Google, Microsoft, xAI y Amazon no respondieron de inmediato a las solicitudes de comentarios.
Un ex empleado de xAI dijo El borde“En este momento, todo el mundo está trabajando en robots asesinos”, y agregó que cree que todos seguirán los pasos de Palantir, Anduril y xAI, ya que el sentimiento del gobierno es que si una empresa no accede, va “en cierto sentido, en contra de los beneficios del país”. Dijo que hay “un gran impulso para trabajar con los militares, y la tendencia es que está acertadamente hacerlo… Eres un patriota si lo haces”.
Un empleado de Google calificó la situación como una “muestra de dominio de Hegseth que es repugnante”. Y añadió: “Una y otra vez, la IA nos presenta opciones sobre quiénes queremos ser y qué tipo de sociedad y futuro queremos tener. Y vienen con destino a nosotros rápidamente y, en sinceridad, con los líderes en el poder menos reflexivos y con menos principios que podamos imaginar. Sólo puedo reconocer a Anthropic por insistir en el camino curioso y utilizar su influencia (que son indispensables) para trazar un rumbo con destino a un mundo y un futuro humanos”.
El empleado de AWS dijo El borde que “los límites definitivamente se han erosionado en términos de los clientes que las grandes tecnológicas están dispuestas a cortejar” y que hay “un encubrimiento deliberado de las implicaciones de nuevos acuerdos lucrativos”. Recordó sobrevenir recibido recientemente un correo electrónico de un ejecutor de AWS promocionando un resolución de más de 580 millones de dólares con la Fuerza Aérea de EE. UU., entre otras asociaciones, como una señal de los éxitos de la IA de Amazon, sin explorar el importancia más amplio ni los daños involucrados.
“Si el gobierno está empeñado en desarrollar tecnologías como ésta, debería tener que construirlas él mismo y ser responsable de esas decisiones”, afirmó.
Es posible que la rozamiento se haya extendido todavía a la civilización interna, normalizando la idea de que las empresas siempre deberían estar observando. La empleada de AWS dijo que a ella y a sus colegas se les realiza un seguimiento de cuánto utilizan la IA para sus trabajos, con qué frecuencia trabajan desde la oficina y más. “Me veo a mí y a mis compañeros de trabajo cada vez más insensibles a la vigilancia sobre nosotros mismos en el trabajo, y me preocupa que eso signifique que estemos obedeciendo, cumpliendo y renunciando demasiado por aventajado”, dijo.
Un empleado de OpenAI dijo que el sentimiento caudillo interiormente de la industria de la IA durante las últimas semanas “ha reabierto la puerta a más discusiones… sobre los títulos y el futuro de la tecnología”. El empleado dijo que la situación antrópica del Pentágono, los recientes titulares de ICE y el rápido avance de la IA han sido algunos de los principales factores que abrieron esas discusiones internamente.
Aun así, las personas que son inmigrantes o se encuentran en posiciones más vulnerables tienen más miedo de conversar, dijo el empleado de OpenAI.
Anthropic, dijo el ex empleado de xAI, parece estar en una posición en la que puede sostener que no y aún mantenerse a flote. Su enfoque en el negocio de IA empresarial en zona del de consumo puede hacerlo más sostenible incluso sin contratos gubernamentales, ofreciéndole cierta influencia. Un ingeniero de software de Microsoft dijo de Anthropic, hablando en caudillo: “Me sorprendió verlos fundamentarse en algún tipo de principio. No sé cuánto durará”.
“¿Durará?” Parece ser la pregunta en boca de todos. El Pentágono ya según se informa pidió a dos importantes contratistas de defensa, Boeing y Lockheed Martin, que proporcionaran información sobre su dependencia de Claude de Anthropic, mientras avanza para designar potencialmente a Anthropic como un “peligro de sujeción de suministro”, una clasificación generalmente reservada para amenazas a la seguridad franquista y rara vez, o nunca, asignada a una empresa estadounidense. Además según se informa puede estar considerando invocar la Ley de Producción de Defensa para intentar exigir a Anthropic a cumplir con su solicitud.
Al igual que con cualquier otra empresa de inteligencia sintético, si Anthropic se retira, dijo el empleado de Microsoft, hay pocas posibilidades de que ella u otros retiren los robots asesinos y la vigilancia. “Una vez que estás en la puerta con el Unidad de Defensa o como lo llamemos ahora… creo que probablemente sea difícil para ellos tener la supervisión que afirman. Simplemente será productivo darse básicamente permiso para hacer lo que genere más efectivo”.
En el caso de Microsoft, dijo que no dilación que la empresa se adhiera a ningún tipo de principio ético. La empresa ha trabajado extensamente con las Fuerzas de Defensa de Israel, incluso para la vigilancia masiva de palestinos y disidentes, a pesar de las protestas de los empleados. (Lo dijo terminó algunas partes de la asociación el año pasado.)
Otro empleado de Microsoft dijo El borde que aunque “Microsoft tiene un ‘compromiso’ con la IA responsable… actualmente están intentando retozar en uno y otro lados en aras de obtener ganancias en zona de un compromiso significativo con la IA responsable”.
Pero esto no es falta nuevo, afirmó un empleado de una startup de IA. En su opinión, los límites a menudo han sido “borrosos, especialmente interiormente de la IA”, sobre qué tipo de cosas las empresas están dispuestas a permitir que su tecnología impulse. “Mucho de esto ha estado sucediendo bajo la superficie desde que existe la IA”.
El empleado de AWS enfatizó que “ahora más que nunca necesitamos solidaridad entre tecnologías y una visión coherente y liderada por los trabajadores para la IA”.
“Las salvaguardias que Anthropic está tratando de nutrir son la marcha de vigilancia masiva de los estadounidenses y la marcha de armas totalmente autónomas, lo que simplemente significa que quieren que un humano esté al tanto si la máquina va a matar a determinado”, añadió. “Incluso si esta tecnología fuera perfecta (que no lo es), creo que la mayoría de los estadounidenses no quieren máquinas que maten a personas sin supervisión humana en un Estados Unidos que se ha convertido en un estado de vigilancia masiva impulsado por inteligencia sintético”.





