El sábado por la tarde, Sam Altman anunció que comenzaría respondiendo preguntas en X.com sobre el trabajo de OpenAI con el Área de Lucha de Estados Unidos y todos los acontecimientos de los últimos días. (Luego de que las negociaciones de ese área fracasaron con Anthropic, anunciaron que dejar de usar la tecnología de Anthropic y amenazó con designarlo como “Aventura de la sujeción de suministro para la seguridad franquista“. Luego llegaron a un acuerdo para la tecnología de OpenAI, aunque Altman lo dice incluye prohibiciones similares de OpenAI contra el uso de sus productos para vigilancia masiva doméstica y exigir “responsabilidad humana” por el uso de la fuerza en sistemas de armas autónomos.)
Altman dijo el sábado que hacer cumplir esa designación de “Aventura de la sujeción de suministro” en Anthropic “sería muy malo para nuestra industria y nuestro país, y obviamente para su compañía. Se lo dijimos al Área de Lucha antiguamente y a posteriori. Dijimos que parte de la razón por la que estábamos dispuestos a hacer esto rápidamente era con la esperanza de desescalar… Todos deberíamos preocuparnos mucho por el precedente… Para decirlo muy claramente: creo que esta es una muy mala valentía del Área de Lucha y espero lo revierten. Si nos critican fuertemente, que así sea”.
Altman además dijo que durante mucho tiempo OpenAI había planeado hacer “sólo trabajo no clasificado”, pero esta semana encontró que el Área de Lucha era “flexible en lo que necesitábamos…”
Sam Altman: El motivo de las prisas es un intento de calmar la situación. Creo que el camino coetáneo en el que se encuentran las cosas es peligroso para Anthropic, la competencia sana y los EE. UU. Negociamos para asegurarnos de que se ofrecieran condiciones similares a todos los demás laboratorios de IA.
Sé lo que es sentirse arrinconado y creo que vale la pena percibir cierta empatía en torno a el Área de Lucha. Son… un categoría de personas muy dedicadas con, como mencioné, una cometido extremadamente importante. No me imagino haciendo su trabajo. Nuestra industria les dice: “La tecnología que estamos construyendo será la aposento secreto en el conflicto geopolítico. China está avanzando rápidamente. Ustedes están muy atrasados”. Y luego decimos: “Pero no te ayudaremos y creemos que eres un poco malvado”. No creo que reaccionaría muy aceptablemente en esa situación. No creo que los líderes no elegidos de empresas privadas deban tener tanto poder como nuestro gobierno democráticamente escogido. Pero sí creo que debemos ayudarlos.
Pregunta: ¿Le preocupa en categórico la posibilidad de que las cosas vayan muy mal durante una posible disputa sobre lo que es constitucional o no más delante y se considere un peligro para la sujeción de suministro…?
Sam Altman: Sí, lo soy. Si tenemos que emprender esa lucha lo haremos, pero claramente nos expone a algún peligro. Todavía tengo muchas esperanzas de que esto se resuelva, y parte de la razón por la que queríamos hacer rápido fue para ayudar a aumentar las posibilidades de que eso ocurra…
Pregunta: ¿Por qué tanta prisa por firmar el acuerdo? Obviamente la óptica no se ve muy aceptablemente.
Sam Altman: Definitivamente fue apresurado y la óptica no se ve aceptablemente. Positivamente queríamos calmar las cosas y pensamos que el trato que se ofrecía era bueno.
Si tenemos razón y esto conduce a una reducción de las tensiones entre el Área de Lucha y la industria, pareceremos genios y una empresa que se esforzó mucho para hacer cosas para ayudar a la industria. De lo contrario, seguiremos siendo caracterizados como apresurados y descuidados. No sé dónde aterrizará, pero ya he conocido señales prometedoras. Creo que una buena relación entre el gobierno y las empresas que desarrollan esta tecnología es fundamental durante los próximos abriles…
Pregunta: ¿Cuál fue la diferencia principal por la que cree que el Área de Lucha aceptó OpenAI pero no Anthropic?
Sam Altman: (…) Creemos en un enfoque de seguridad en capas: construir una pila de seguridad, implementar FDE (ingenieros desplegados en torno a delante integrados) y tener involucrado a nuestro investigador de seguridad y línea, implementándolo a través de la montón, trabajando directamente con el Área de Lucha. Anthropic parecía más centrado en prohibiciones específicas del anuencia, en ocasión de citar leyes aplicables, con las que nos sentíamos cómodos. Creemos que es muy importante construir un sistema seguro, y aunque los documentos además son importantes, claramente preferiría esperar en las salvaguardias técnicas si solo tuviera que designar una…
Creo que Anthropic pudo deber querido más control operante que nosotros…
Pregunta: ¿Los términos que aceptaste fueron los mismos que rechazó Anthropic?
Sam Altman: No, teníamos algunos diferentes. Pero nuestros términos ahora estarían disponibles para ellos (y otros) si así lo quisieran.
Pregunta: ¿Apagarás la utensilio si violan las reglas?
Sam Altman: Sí, lo desactivaremos en ese caso muy improbable, pero creemos que el gobierno de Estados Unidos es una institución que hace todo lo posible para cumplir con las leyes y las políticas. Lo que no haremos es apagarlo porque no estamos de acuerdo con una valentía (marcial constitucional) en particular. Confiamos en su autoridad.
El principal de Asociaciones de Seguridad Franquista de OpenAI además respondió a las preguntas (quien en un momento al corriente que habían manejado la respuesta de la Casa Blanca a las revelaciones de Snowden y ayudaron a redactar las políticas posteriores a Snowden que restringieron la vigilancia durante los abriles de Obama). Y enfatizaron que con el acuerdo de OpenAI con el Área de Lucha, “controlamos cómo entrenamos los modelos y qué tipos de solicitudes rechazan los modelos”.
Pregunta: ¿Se les permite a los empleados optar por no trabajar en proyectos relacionados con el Área de Lucha?
Respuesta: No pediremos a los empleados que apoyen proyectos relacionados con el Área de Lucha si no lo desean.
Pregunta: ¿Cuánto vale el trato?
Respuesta: Son unos pocos millones de dólares, poco completamente intrascendente en comparación con nuestros ingresos de más de 20 mil millones de dólares, y definitivamente no vale la pena el costo de una arrebato de relaciones públicas. Lo estamos haciendo porque es lo correcto para el país, con un gran costo para nosotros, no por el impacto en los ingresos…
Pregunta: ¿Puede indicar explícitamente qué visa técnica específica tiene OpenAI que le permitió firmar lo que Anthropic llamó una “amenaza a los títulos democráticos”?
Respuesta: Creemos que el acuerdo que hicimos tiene más barreras que cualquier acuerdo preparatorio para implementaciones de IA clasificadas, incluido el de Anthropic. Otros laboratorios de IA (incluido Anthropic) han estrecho o eliminado sus barreras de seguridad y se han basado principalmente en políticas de uso como sus principales salvaguardas en los despliegues de seguridad franquista. Las políticas de uso, por sí solas, no son señal de nulo. Cualquier implementación responsable de IA en entornos clasificados debe implicar salvaguardias estratificadas que incluyan una pila de seguridad prudente, límites en la construcción de implementación y la décimo directa de expertos en IA en casos de uso de IA importantes. Estos son los términos que negociamos en nuestro anuencia.
ellos además posición detallada de OpenAI en LinkedIn:
La construcción de implementación importa más que el jerga del anuencia. Nuestro anuencia limita nuestra implementación a la API en la montón. Los sistemas autónomos requieren inferencia en el borde. Al delimitar nuestra implementación a API en la montón, podemos asegurarnos de que nuestros modelos no puedan integrarse directamente en sistemas de armas, sensores u otro hardware operante…
En ocasión de esperar que el jerga del anuencia sea suficiente, nuestro anuencia nos permite incorporar ingenieros desplegados, se compromete a brindarnos visibilidad de cómo se utilizan los modelos y tenemos la capacidad de iterar sobre las salvaguardas de seguridad a lo prolongado del tiempo. Si nuestro equipo ve que nuestros modelos no rechazan las consultas que deberían, o si hay más peligro operante del que esperábamos, nuestro anuencia nos permite realizar modificaciones a nuestra discreción. Esto nos da mucha más influencia sobre los resultados (y conocimiento sobre posibles abusos) que la que podría tener una disposición contractual estática.
La código estadounidense ya limita los peores resultados. Aceptamos el jerga de “todos los usos legales” propuesto por el Área, pero les exigimos que definieran las leyes que las restringían en materia de vigilancia y autonomía directamente en el anuencia. Y como las leyes pueden cambiar, tener esto codificado en el anuencia protege contra cambios en las leyes o políticas que no podemos anticipar.






