La inteligencia químico (IA) se ha convertido en un objetivo de los cibercriminales, que buscan clonar los modelos propietarios, pero incluso en la útil que permite perfeccionar y exhalar ataques, lo que en paralelo ha hecho crecer un mercado clandestino de servicios de IA.
El año pasado se detectó un aumento de los conocidos como ataques de destilación, es asegurar, intentos de cuna de modelos de IA generativa para obtener información sobre su funcionamiento para clonarlos.
El objetivo es el razonamiento subyacente de los modelos y los procesos de la esclavitud de pensamiento, como se recoge en el postrer noticia ‘AI Threat Tracker’ de Google Threat Intelligence Group (GTIG). En él, adicionalmente, se señala que Un objetivo popular para los atacantes es la capacidad de razonamiento de Gemini.
Este noticia destaca, asimismo, el uso de la inteligencia químico por parte de los actores maliciosos en todo el ciclo de vida del ataque, que alpargata desde tareas de codificación y creación de ‘scripts’, hasta la compendio de información sobre objetivos potenciales, la investigación de vulnerabilidades conocidas públicamente y la facultad de actividades posteriores al compromiso.
Esta destreza se ha identificado en actores de amenazas respaldados por gobiernos, como APT42, vinculado a Irán, que usó modelos de IA generativa para agenciárselas correos electrónicos oficiales de entidades específicas y realizar reconocimientos sobre posibles socios comerciales para establecer un pretexto posible.
Incluso se cita UNC2970, relacionado con Corea del Ártico, que utilizó Gemini para sintetizar inteligencia de fuentes abiertas (Osint) y perfilar objetivos de parada valencia para respaldar la planificación y el agradecimiento de campañas.
La IA incluso se ha utilizado de modo empírico para implementar nuevas capacidades en el ‘malware’. Un ejemplo de ello es Honestcue, en el que se aprovechó la API de Gemini para subcontratar la engendramiento de funcionalidades, en un intento de eludir la detección tradicional basada en red y el prospección parado.
Adicionalmente, el noticia recoge que los actores de amenazas integran capacidades de IA en sus operaciones de intrusión, como ocurrió con el kit de ‘phishing’ Coinbait, cuya construcción probablemente fue acelerada por herramientas de engendramiento de código mediante IA, el cual se hacía acaecer por un servicio intercambio de criptomonedas para la cosecha de credenciales
El noticia identifica incluso un mercado de servicios de IA diseñados para respaldar las actividades maliciosas. En este sentido, GTIG ha observado foros clandestinos en inglés y ruso en los que se promocionan y venden herramientas y servicios habilitados para IA.
El noticia destaca que los actores de amenazas tienen todavía dificultades para desarrollar modelos personalizados y, en cambio, confían en modelos de IA maduros y existentes.
Así, GTIG identificó un kit denominado Xanthorox que se anuncia como una IA personalizada para la engendramiento autónoma de código de ‘malware’ y el avance de campañas de ‘phishing’. Como se explica en el noticia, el maniquí, que fue publicitado como hecho a medida, no era una IA personalizada, sino que estaba potenciada por varios productos de IA comerciales y de terceros.






