
Las evaluaciones proporcionan un cachas contraargumento a las narrativas exageradas que pregonan las empresas de IA, muchas de las cuales buscan nuevas rondas de financiación de peligro, de que el malware generado por IA está muy extendido y es parte de un nuevo muestra que plantea una amenaza presente a las defensas tradicionales.
Un ejemplo característico es Anthropic, que reportado recientemente su descubrimiento de un actor de amenazas que utilizó su Claude LLM para “desarrollar, comercializar y distribuir varias variantes de ransomware, cada una con capacidades avanzadas de esparcimiento, oculto y mecanismos anti-recuperación”. La compañía continuó diciendo: “Sin la ayuda de Claude, no podrían implementar ni solucionar problemas de los componentes principales del malware, como algoritmos de oculto, técnicas antianálisis o manipulación interna de Windows”.
Inicio ConnectWise dijo recientemente que la IA generativa estaba “bajando el tabla de entrada para que los actores de amenazas entraran en el charnela”. La publicación citó un mensaje separado de OpenAI que encontró 20 actores de amenazas distintos que utilizan su motor ChatGPT AI para desarrollar malware para tareas que incluyen identificar vulnerabilidades, desarrollar código de explotación y depurar ese código. Mientras tanto, BugCrowd dicho que en una averiguación de personas autoseleccionadas, “el 74 por ciento de los piratas informáticos están de acuerdo en que la IA ha hecho que la piratería sea más accesible, abriendo la puerta para que los recién llegados se unan al redil”.
En algunos casos, los autores de dichos informes señalan las mismas limitaciones señaladas en este artículo. El mensaje de Google del miércoles dice que en su disección de las herramientas de inteligencia fabricado utilizadas para desarrollar código para administrar canales de comando y control y ofuscar sus operaciones “no vimos evidencia de automatización exitosa ni de capacidades innovadoras”. OpenAI dijo más o menos lo mismo. Aún así, estas exenciones de responsabilidad rara vez se destacan y a menudo se les resta importancia en el frenesí resultante por presentar el malware asistido por IA como una amenaza a corto plazo.
El mensaje de Google proporciona al menos otro hallazgo útil. Un actor de amenazas que explotó el maniquí de IA Gemini de la compañía pudo sortear sus barreras haciéndose sobrevenir por hackers de sombrero blanco que investigaban para participar en un charnela de capturar la bandera. Estos ejercicios competitivos están diseñados para enseñar y demostrar estrategias efectivas de ciberataque tanto a los participantes como a los espectadores.
Estas barreras de seguridad están integradas en todos los LLM convencionales para evitar que se utilicen de forma maliciosa, como en ataques cibernéticos y autolesiones. Google dijo que desde entonces ha afinado mejor las contramedidas para resistir tales estratagemas.
En última instancia, el malware generado por IA que ha aparecido hasta la momento sugiere que es en su veterano parte real y los resultados no son impresionantes. Vale la pena monitorear los eventos para detectar desarrollos que muestren que las herramientas de inteligencia fabricado producen nuevas capacidades que antiguamente eran desconocidas. Por ahora, sin secuestro, las mayores amenazas siguen dependiendo predominantemente de tácticas anticuadas.





