AI AGENICA DE ANTHROPE, ha sido “armado” en ataques cibernéticos de detención nivel, según un nuevo Publicado por la Compañía. Afirma sobrevenir interrumpido con éxito un ciberdelincuente cuyo esquema de trastorno de “pirateo de ambientes” se dirigió al menos a 17 organizaciones, incluidas algunas relacionadas con la atención médica, los servicios de emergencia y el gobierno.
Anthrope dice que el hacker intentó perjudicar a algunas víctimas a abonar rescates de seis cifras para evitar que sus datos personales se hicieran públicos, con una dependencia “sin precedentes” de la concurrencia de IA. El documentación afirma que el código de Claude, la aparejo de codificación de agente de Anthrope, se utilizó para “automatizar el examen, las credenciales de las víctimas de cosecha y penetrar en redes”. La IA todavía se utilizó para tomar decisiones estratégicas, aconsejar qué datos apuntar e incluso producir notas de rescate “visualmente alarmantes”.
Adicionalmente de compartir información sobre el ataque con las autoridades relevantes, Anthrope dice que prohibió las cuentas en cuestión posteriormente de descubrir actividades criminales, y desde entonces ha desarrollado una aparejo de detección automatizada. Igualmente ha introducido un método de detección más rápido y capaz para casos futuros similares, pero no especifica cómo funciona.
El documentación (que puede interpretar en su totalidad ) Igualmente detalla la décimo de Claude en un esquema de empleo fraudulento en Corea del Ártico y el explicación de ransomware generado por IA. El tema popular de los tres casos, según antrópico, es que la naturaleza en extremo reactiva y autoludante de la IA significa cibercriminales ahora lo usa por razones operativas, así como solo consejos. La IA todavía puede desempeñar un papel que alguna vez habría requerido un equipo de individuos, y la sagacidad técnica ya no fue la barrera que alguna vez fue.
Claude no es la única IA que se ha utilizado para los medios nefastos. El año pasado, dijo que sus herramientas generativas de IA estaban siendo utilizadas por grupos cibercriminales con lazos con China y Corea del Ártico, con piratas informáticos que usan GAI para la depuración de códigos, investigando posibles objetivos y redactar correos electrónicos de phishing. Operai, cuya inmueble usa Microsoft para avivar su propia IA de copilotos, dijo que había bloqueado el paso de los grupos a sus sistemas.






