Si correctamente la ruptura de Washington con Anthropic expuso la total yerro de reglas coherentes que gobiernen la inteligencia industrial, una coalición bipartidista de pensadores ha reunido poco que el gobierno hasta ahora se ha inepto a producir: un situación para cómo debería ser efectivamente el avance responsable de la IA.
El Proclamación prohumana se finalizó antaño del enfrentamiento entre el Pentágono y Anthropic de la semana pasada, pero la colisión de los dos eventos no pasó desapercibida para ningún de los involucrados.
“Ha ocurrido poco asaz importante en Estados Unidos en los últimos cuatro meses”, dijo Max Tegmark, físico del MIT e investigador de IA que ayudó a organizar el esfuerzo. en conversacion con este editor. “Las encuestas de repente (muestran) que el 95% de todos los estadounidenses se oponen a una carrera no regulada en torno a la superinteligencia”.
El documento recién publicado, firmado por cientos de expertos, ex funcionarios y figuras públicas, comienza con la observación sensata de que la humanidad se encuentra en una intersección. Un camino, que la revelación ardor “la carrera por el reemplazo”, lleva a que los seres humanos sean suplantados primero como trabajadores, luego como tomadores de decisiones, a medida que el poder se acumula en instituciones que no rinden cuentas y sus máquinas. El otro conduce a la IA que expande enormemente el potencial humano.
Este final escena depende de cinco pilares esencia: sostener a los humanos a cargo, evitar la concentración de poder, proteger la experiencia humana, preservar la sencillez individual y responsabilizar legalmente a las empresas de IA. Entre sus disposiciones más contundentes se encuentra una prohibición absoluta del avance de superinteligencia hasta que haya un consenso sabio de que se puede hacer de modo segura y una éxito democrática genuina; apagados obligatorios en sistemas potentes; y una prohibición de arquitecturas que sean capaces de autorreplicación, superación autónoma o resistor al falleba.
La publicación de la revelación coincide con un período que hace mucho más hacedero apreciar su necesidad. El final viernes de febrero, el secretario de Defensa, Pete Hegseth, designó a Anthropic –cuya IA ya funciona en plataformas militares clasificadas– como un “aventura para la sujeción de suministro” posteriormente de que la compañía se negara a otorgar al Pentágono el uso ilimitado de su tecnología, una ceremonial normalmente reservada para empresas con vínculos con China. Horas más tarde, OpenAI llegó a su propio acuerdo con el Unidad de Defensa, uno que, según los expertos legales, será difícil de hacer cumplir de modo significativa. Lo que todo esto dejó al descubierto es lo costosa que se ha vuelto la inacción del Congreso en materia de IA.
Como Dean Ball, miembro principal de la Fundación para la Innovación Estadounidense, dijo al New York Times Luego, “Esto no es sólo una disputa sobre un entendimiento. Esta es la primera conversación que hemos tenido como país sobre el control de los sistemas de IA”.
Evento tecnológico
San Francisco, CA
|
13-15 de octubre de 2026
Tegmark recurrió a una vinculación que la mayoría de la multitud puede entender cuando hablamos. “Nunca hay que preocuparse de que alguna compañía farmacéutica vaya a propalar algún otro medicamento que cause un daño masivo antaño de que la multitud haya descubierto cómo hacerlo seguro”, dijo, “porque la FDA no les permitirá liberar carencia hasta que sea lo suficientemente seguro”.
Las guerras territoriales en Washington rara vez generan el tipo de presión pública que cambie las leyes. En lado de ello, Tegmark considera que la seguridad inmaduro es el punto de presión que con maduro probabilidad romperá el flagrante estancamiento. De hecho, la revelación exige pruebas obligatorias previas al despliegue de los productos de inteligencia industrial (en particular, chatbots y aplicaciones complementarias dirigidas a usuarios más jóvenes) que cubran riesgos que incluyen una maduro ideación suicida, agravamiento de condiciones de vitalidad mental y manipulación emocional.
“Si un anciano espeluznante le envía mensajes de texto a un gurí de 11 primaveras haciéndose advenir por una pupila y tráfico de persuadirlo para que se suicide, el tipo puede ir a la calabozo por eso”, dijo Tegmark. “Ya tenemos leyes. Es ilegal. Entonces, ¿por qué es diferente si lo hace una máquina?”
Cree que una vez que se establezca el principio de pruebas previas al emanación de productos para niños, el magnitud se ampliará casi inevitablemente. “La multitud vendrá y dirá: agreguemos algunos otros requisitos. Quizás además deberíamos probar que esto no puede ayudar a los terroristas a fraguar armas biológicas. Quizás deberíamos probar para asegurarnos de que la superinteligencia no tenga la capacidad de derrocar al gobierno de Estados Unidos”.
No es poca cosa que el ex asesor de Trump, Steve Bannon, y Susan Rice, asesora de seguridad doméstico del presidente Obama, hayan firmado el mismo documento, pegado con el ex presidente del Estado Viejo Conjunto, Mike Mullen, y líderes religiosos progresistas.
“En lo que están de acuerdo, por supuesto, es en que todos son humanos”, dice Tegmark. “Si todo se reduce a si queremos un futuro para los humanos o un futuro para las máquinas, por supuesto que estarán del mismo flanco”.





