Sam Altman de OpenAI dijo que la compañía modificará su acuerdo con el Área de Defensa (o el Área de Pelea) para prohibir explícitamente el uso de su sistema de inteligencia sintético en la vigilancia masiva contra estadounidenses. Altman tiene publicado un memorando interno enviado previamente a los empleados en X, diciéndoles que la empresa modificará el acuerdo para asociar verbo que deje ese punto especialmente claro. En concreto, dice:
“De conformidad con las leyes aplicables, incluida la Cuarta Mejora de la Constitución de los Estados Unidos, la Ley de Seguridad Doméstico de 1947 y la Ley FISA de 1978, el sistema de IA no se utilizará intencionalmente para la vigilancia interna de personas y nacionales estadounidenses.
Para evitar dudas, el Área entiende que esta término prohíbe el seguimiento, la vigilancia o el monitoreo deliberado de personas o nacionales estadounidenses, incluso mediante la adquisición o el uso de información personal o identificable adquirida comercialmente”.
Altman igualmente afirmó en el memorando que la agencia afirmó que sus servicios no serán utilizados por sus agencias de inteligencia, incluida la NSA, sin una modificación de su anuencia. Añadió que si recibiera lo que creía que era una orden inconstitucional, preferiría ir a la gayola ayer que seguirla.
Por otra parte, el CEO de OpenAI admitió en el memorando que la compañía no debería haberse apresurado a cerrar el trato el viernes 27 de febrero, ya que los problemas eran “súper complejos y exigían una comunicación clara”. Altman explicó que la empresa estaba “tratando de calmar las cosas y evitar un resultado mucho peor”, pero al final “pareció oportunista”. Si recuerda, OpenAI anunció la asociación poco a posteriori de que el presidente Trump ordenara a todas las agencias gubernamentales de EE. UU. que dejaran de usar Claude y cualquier otro servicio de Anthropic. Junto a señalar que Anthropic comenzó a trabajar con el gobierno de EE. UU. en 2024.
El Área de Defensa y el secretario Pete Hegseth habían estado presionando a Anthropic para que eliminara las barreras de seguridad de su IA para que pudiera estilarse para todos los fines “legales”. Entre ellos se incluyen la vigilancia masiva y el mejora de armas totalmente autónomas. Anthropic se negó a ceder delante las demandas de Hegseth y en un comunicado dijo que “ninguna cantidad de intimidación o castigo” cambiará su “posición sobre la vigilancia interna masiva o las armas totalmente autónomas”. Como resultado, Trump emitió la orden. El Área de Defensa igualmente había donado los primeros pasos para designar a Anthropic como un “aventura de la sujeción de suministro”, que normalmente está reservado para empresas chinas que se cree que trabajan con el gobierno de su país.
Altman dijo que en sus conversaciones con funcionarios estadounidenses, reiteró que Anthropic no debería ser designado como un aventura para la sujeción de suministro y que esperaba que el Área de Defensa le ofreciera el mismo trato que acordó OpenAI. En una sesión de AMA en X durante el fin de semana, Altman aclaró que no conocía los detalles del acuerdo de Anthropic y en qué se diferenciaba del firmado por OpenAI. Pero si hubiera sido lo mismo, pensó que Anthropic debería suceder aceptado.
A posteriori de que estalló la comunicación sobre el acuerdo de OpenAI, Anthropic ascendió hasta el puesto número uno de la clasificación de las mejores aplicaciones gratuitas de la App Store, superando a ChatGPT y Google Gemini. Anthropic, aprovechando la repentina popularidad de Claude, lanzó una útil de importación de memoria para solucionar el cambio a su chatbot desde el de otra empresa. Mientras tanto, desinstalaciones de ChatGPT saltó en un 295 por ciento día tras día, según Sensor Tower.






