Silicon Valley asusta a los defensores de la seguridad de la IA

Los líderes de Silicon Valley, incluido el zar de la IA y las criptomonedas de la Casa Blanca, David Sacks, y el director de táctica de OpenAI, Jason Kwon, causaron revuelo en segmento esta semana por sus comentarios sobre los grupos que promueven la seguridad de la IA. En casos separados, alegaron que ciertos defensores de la seguridad de la IA no son tan virtuosos como parecen y actúan en interés de ellos mismos o de titiriteros multimillonarios detrás de estampa.

Los grupos de seguridad de IA que hablaron con TechCrunch dicen que las acusaciones de Sacks y OpenAI son el final intento de Silicon Valley de intimidar a sus críticos, pero ciertamente no el primero. En 2024, algunas empresas de hacienda de aventura difundieron rumores de que un tesina de ley de seguridad de la IA de California, el SB 1047, enviaría a los fundadores de nuevas empresas a la calabozo. La Brookings Institution calificó el rumor como uno de muchos “tergiversaciones”sobre el tesina de ley, pero el regidor Gavin Newsom finalmente lo vetó de todos modos.

Independientemente de si Sacks y OpenAI pretendían intimidar a los críticos o no, sus acciones han asustado suficientemente a varios defensores de la seguridad de la IA. Muchos líderes de organizaciones sin fines de utilidad con los que TechCrunch se comunicó la semana pasada pidieron departir bajo condición de anonimato para evitar represalias a sus grupos.

La controversia subraya la creciente tensión en Silicon Valley entre desarrollar IA de modo responsable y convertirla en un producto de consumo masivo, un tema que mis colegas Kirsten Korosec, Anthony Ha y yo analizamos en el mensaje de esta semana. Equidad podcast. Incluso nos sumergimos en una nueva ley de seguridad de la IA aprobada en California para regular los chatbots y el enfoque de OpenAI alrededor de el erotismo en ChatGPT.

El martes, Sacks escribió un transmitir en X alegando que Anthropic -que ha planteó preocupaciones sobre la capacidad de la IA para contribuir al desempleo, los ciberataques y los daños catastróficos a la sociedad, es simplemente crear miedo para conseguir que se aprueben leyes que lo beneficien y ahoguen a las empresas emergentes más pequeñas en el papeleo. Anthropic fue el único laboratorio importante de IA que respaldó el Esquema de Ley 53 del Senado de California (SB 53), un tesina de ley que establece requisitos de informes de seguridad para las grandes empresas de IA, que se convirtió en ley el mes pasado.

Sacks estaba respondiendo a un análisis vírico del cofundador de Anthropic, Jack Clark, sobre sus temores con respecto a la IA. Clark pronunció el análisis como discurso en la conferencia de seguridad Curve AI en Berkeley semanas ayer. Sentado entre el conocido, ciertamente parecía un relato verdadero de las reservas de un tecnólogo sobre sus productos, pero Sacks no lo vio de esa modo.

Sacks dijo que Anthropic está ejecutando una “táctica de captura regulatoria sofisticada”, aunque vale la pena señalar que una táctica verdaderamente sofisticada probablemente no implicaría convertir al gobierno federal en un enemigo. en un publicación de seguimiento en X, Sacks señaló que Anthropic se ha posicionado “consistentemente como un enemigo de la agencia Trump”.

Evento tecnológico

san francisco
|
27-29 de octubre de 2025

Incluso esta semana, el director de táctica de OpenAI, Jason Kwon, escribió un transmitir en X explicando por qué la empresa estaba enviando citaciones a organizaciones sin fines de utilidad de seguridad de la IA, como Encode, una ordenamiento sin fines de utilidad que aboga por una política responsable de la IA. (Una citación es una orden admitido que exige documentos o testimonios). Kwon dijo que a posteriori de que Elon Musk demandó a OpenAI, por preocupaciones de que el fabricante de ChatGPT se había desviado de su representación sin fines de utilidad, OpenAI encontró sospechoso cómo varias organizaciones igualmente expresaron examen a su reestructuración. Encode presentó un escrito amicus curiae en apoyo de la demanda de Musk, y otras organizaciones sin fines de utilidad se pronunciaron públicamente en contra de la reestructuración de OpenAI.

“Esto generó dudas sobre la transparencia sobre quién los financiaba y si había alguna coordinación”, dijo Kwon.

NBC News informó esta semana que OpenAI envió amplias citaciones a Encode y otras seis organizaciones sin fines de utilidad que criticó a la compañía, solicitando sus comunicaciones relacionadas con dos de los mayores oponentes de OpenAI, Musk y el CEO de Meta, Mark Zuckerberg. OpenAI igualmente solicitó a Encode comunicaciones relacionadas con su apoyo a la SB 53.

Un destacado líder de seguridad de la IA le dijo a TechCrunch que existe una división cada vez anciano entre el equipo de asuntos gubernamentales de OpenAI y su ordenamiento de investigación. Si perfectamente los investigadores de seguridad de OpenAI publican con frecuencia informes que revelan los riesgos de los sistemas de IA, la dispositivo de políticas de OpenAI presionó contra la SB 53, diciendo que preferiría tener reglas uniformes a nivel federal.

El presidente de adscripción de misiones de OpenAI, Joshua Achiam, habló sobre el remisión de citaciones a organizaciones sin fines de utilidad por parte de su empresa en un transmitir en X esta semana.

“Aunque posiblemente sea un aventura para toda mi carrera, diré: esto no parece ocurrente”, dijo Achiam.

Brendan Steinhauser, director ejecutante de la ordenamiento sin fines de utilidad Alliance for Secure AI (que no ha sido citada por OpenAI), dijo a TechCrunch que OpenAI parece convencido de que sus críticos son parte de una conspiración liderada por Musk. Sin retención, sostiene que este no es el caso y que gran parte de la comunidad de seguridad de la IA es harto crítica con las prácticas de seguridad de xAI, o la descuido de ellas.

“Por parte de OpenAI, esto tiene como objetivo silenciar a los críticos, intimidarlos y disuadir a otras organizaciones sin fines de utilidad de hacer lo mismo”, dijo Steinhauser. “A Sacks, creo que le preocupa que el movimiento (el de seguridad de la IA) esté creciendo y que la masa quiera responsabilizar a estas empresas”.

Sriram Krishnan, asesor principal de políticas de la Casa Blanca para AI y ex socio militar de a16z, intervino en la conversación de esta semana con un publicación en redes sociales propio, llamando a los defensores de la seguridad de la IA fuera de contacto. Instó a las organizaciones de seguridad de la IA a departir con “personas del mundo existente que utilizan, venden y adoptan la IA en sus hogares y organizaciones”.

Un estudio fresco de Pew encontró que aproximadamente la medio de los estadounidenses son más preocupado que emocionado sobre IA, pero no está claro qué les preocupa exactamente. Otro estudio fresco entró en más detalles y encontró que a los votantes estadounidenses les importa más Pérdidas de empleo y deepfakes. que los riesgos catastróficos causados ​​por la IA, en los que se centra en gran medida el movimiento de seguridad de la IA.

Chocar estos problemas de seguridad podría hacerse a desembolso del rápido crecimiento de la industria de la IA, una compensación que preocupa a muchos en Silicon Valley. Regalado que la inversión en IA apuntala gran parte de la peculio estadounidense, el temor a una regulación excesiva es comprensible.

Pero a posteriori de primaveras de avances no regulados en la IA, el movimiento por la seguridad de la IA parece estar ganando un impulso existente de cara a 2026. Los intentos de Silicon Valley de combatir contra los grupos centrados en la seguridad pueden ser una señal de que están funcionando.


Related Posts

Esta caja Thunderbolt 5 podría convertir casi cualquier computadora portátil en una potencia de inteligencia sintético privada que ejecute modelos locales sin camino a la nubarrón.

El encantado de bandada Thunderbolt 5 acerca el hardware de GPU foráneo al país de las estaciones de trabajo La inferencia tópico de IA apetito atención a medida que los…

Adobe ofrecerá a los usuarios servicios gratuitos por 75 millones de dólares por un lío de suscripciones difíciles de suprimir

Adobe acordó un acuerdo de 150 millones de dólares para resolver una demanda del gobierno de Estados Unidos que acusó a la compañía de hacer que sus suscripciones fueran innecesariamente…

You Missed

Francisco Cervelli e Italia con un gran oposición hoy en presencia de Venezuela

Francisco Cervelli e Italia con un gran oposición hoy en presencia de Venezuela

apasionamiento a un detención el fuego y a reabrir caminos con destino a la paz

apasionamiento a un detención el fuego y a reabrir caminos con destino a la paz

Esta caja Thunderbolt 5 podría convertir casi cualquier computadora portátil en una potencia de inteligencia sintético privada que ejecute modelos locales sin camino a la nubarrón.

Esta caja Thunderbolt 5 podría convertir casi cualquier computadora portátil en una potencia de inteligencia sintético privada que ejecute modelos locales sin camino a la nubarrón.

Siniestro de tránsito deja cuatro muertos en Higüey

Siniestro de tránsito deja cuatro muertos en Higüey

Abaten a “Peluca”, buscado por el homicidio de una novicio en Santiago Oeste

Abaten a “Peluca”, buscado por el homicidio de una novicio en Santiago Oeste

Adobe ofrecerá a los usuarios servicios gratuitos por 75 millones de dólares por un lío de suscripciones difíciles de suprimir

Adobe ofrecerá a los usuarios servicios gratuitos por 75 millones de dólares por un lío de suscripciones difíciles de suprimir