
Siga ZDNET: Agréganos como fuente preferida en Google.
Conclusiones esencia de ZDNET
- Anthropic documentó un ciberataque a gran escalera utilizando IA.
- Anthropic dice que la falta es de un liga patrocinado por el Estado chino.
- El ataque puede ser el primer caso de este tipo.
Se ha registrado la primera campaña de ciberataque a gran escalera que aprovecha la inteligencia industrial (IA) como poco más que una simple ayuda digital.
Todavía: Google detecta malware en la naturaleza que se transforma en medio del ataque gracias a la IA
Como informó por primera vez el Diario de Wall StreetAnthropic, la empresa detrás de Claude, un asistente de IA, publicó un crónica (.PDF) que documenta el extralimitación de sus modelos de IA, secuestrados en una campaña de ataque a gran escalera dirigida simultáneamente a múltiples organizaciones.
¿Qué pasó?
A mediados de septiembre, Anthropic detectó una “operación de ciberespionaje en gran medida sofisticada” que utilizaba IA durante todo el ciclo de ataque.
Se abusó de Claude Code, IA agente, en la creación de un situación de ataque automatizado capaz de “registro, descubrimiento de vulnerabilidades, explotación, movimiento vecino, monasterio de credenciales, exploración de datos y operaciones de exfiltración”. Encima, estas etapas se realizaron “en gran medida de forma autónoma”, con operadores humanos proporcionando supervisión básica luego de encargarle a Claude Code que operara como “orquestadores y agentes de pruebas de penetración”; en otras palabras, fingir ser un defensor.
Encima: Google detecta malware en la naturaleza que se transforma en medio del ataque gracias a la IA
La IA no solo encontró vulnerabilidades en las organizaciones objetivo, sino que incluso permitió su explotación, el robo de datos y otras actividades maliciosas posteriores a la explotación.
Según Anthropic, esto no solo resultó en que organizaciones de stop perfil fueran atacadas, sino que entre el 80% y el 90% de las “operaciones tácticas” fueron operadas de forma independiente por la IA.
“Al presentar estas tareas a Claude como solicitudes técnicas de rutina a través de indicaciones cuidadosamente diseñadas y personas establecidas, el actor de amenazas pudo inducir a Claude a ejecutar componentes individuales de cadenas de ataque sin ataque al contexto receloso más amplio”, dijo Anthropic.
¿Quién fue el responsable y cómo respondió Anthropic?
Según Anthropic, un liga patrocinado por el estado chino supuestamente estuvo en el centro de la operación. Ahora rastreado como GTG-1002 y se cree que cuenta con buenos medios y respaldo estatal, el liga aprovechó a Claude en su campaña, pero se sabe poco más sobre ellos.
Una vez que Anthropic descubrió el extralimitación de sus tecnologías, rápidamente prohibió las cuentas asociadas con GTG-1002 y expandió sus sistemas de detección de actividades maliciosas, que con suerte descubrirán lo que la compañía ardor “patrones de amenazas novedosos”, como el descanso de roles utilizado por GTG-1002 para hacer que el sistema actúe como un auténtico probador de penetración basado en defensa.
Encima: este nuevo ciberataque te engaña para que te hackees a ti mismo. He aquí cómo detectarlo
Anthropic incluso está creando prototipos de medidas de detección temprana para detener los ciberataques autónomos, y tanto las autoridades como la industria fueron informadas del incidente.
Sin requisa, la compañía incluso emitió una advertencia a la comunidad de ciberseguridad en universal, instándola a permanecer alerta:
“La comunidad de ciberseguridad debe contraer que se ha producido un cambio fundamental: los equipos de seguridad deben ensayar aplicando IA para la defensa en áreas como la automatización de SOC, la detección de amenazas, la evaluación de vulnerabilidades y la respuesta a incidentes, y desarrollar experiencia con lo que funciona en sus entornos específicos”, dijo Anthropic. “Y necesitamos una inversión continua en salvaguardias en todas las plataformas de IA para evitar el uso indebido de adversarios. Las técnicas que describimos hoy proliferarán en todo el panorama de amenazas, lo que hace que el intercambio de amenazas en la industria, los métodos de detección mejorados y los controles de seguridad más estrictos sean aún más críticos”.
¿Es importante este ataque?
Recientemente hemos conocido los primeros indicadores de que los actores de amenazas en todo el mundo están explorando cómo se puede disfrutar la IA en herramientas, técnicas y ataques maliciosos. Sin requisa, anteriormente estos han estado relativamente limitados (al menos, en el ámbito notorio) a automatización y colaboración menores, phishing mejorado, cierta procreación de código dinámico, estafas por correo electrónico y cierta ofuscación de código.
Parece que casi al mismo tiempo que el caso Anthropic, OpenAI, los creadores de ChatGPT, publicaron su propio crónica, que afirmaba que hubo extralimitación pero poca o ninguna evidencia de que se abusara de los modelos OpenAI para obtener “capacidad ataque novedosa”, GTG-1002 estaba ocupado implementando IA para apuntar cibernética y simultáneamente a organizaciones.
Todavía: Las empresas no están preparadas para un mundo de agentes maliciosos de IA
(Divulgación: Ziff Davis, la empresa matriz de ZDNET, presentó una demanda en abril de 2025 contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y actuar sus sistemas de IA).
Aproximadamente 30 organizaciones fueron atacadas. Sólo un pequeño número de estos ataques, “un puñado”, tuvieron éxito; sin requisa, correcto a alucinaciones de IA y una serie de otros problemas, incluida la fabricación de datos y mentiras descaradas sobre la logro de credenciales válidas. Entonces, aunque sigue siendo trascendente, se podría argumentar que este caso es un paso delante en las técnicas, pero aún no es el fin del mundo de la IA.
O, como dijo Anthropic, este descubrimiento “representa un cambio fundamental en la forma en que los actores de amenazas avanzadas utilizan la IA”.





