Libera tu mente y alcanza tus metas
Entrenan la IA Qwen 2.5 para generar malware que supera Microsoft Defender en el 8% de los casos
Entrenan la IA Qwen 2.5 para generar malware que supera Microsoft Defender en el 8% de los casos

Entrenan la IA Qwen 2.5 para generar malware que supera Microsoft Defender en el 8% de los casos

Según va pasando el tiempo vemos como la inteligencia artificial va mejorando. Aparecen nuevos modelos de IA o versiones mejoradas de los actuales que logran un mayor porcentaje de éxito en las pruebas de rendimiento. Estos implican preguntas complejas y algunas de estas pruebas están aún lejos de alcanzar ese 100% deseado, pero todo va progresando.

Recientemente hemos visto como Elon Musk ha anunciado Grok 4, a la que considera la IA más inteligente del mundo, al margen de la basura de algunos resultados y respuestas obtenidos por usuarios de a pie

A pesar de que tenemos IA mucho más complejas y capaces de hacer todo tipo de cosas, también tenemos el otro lado de la moneda, pues una consola de hace casi 50 años como la Atari 2600 es capaz de superar a las mejores IA sin dificultad jugando al ajedrez. Ahora nos toca hablar de otra victoria para la IA, pues resulta que unos investigadores de Outflank han conseguido crear una especie de malware IA que puede superar las medidas de seguridad de Windows Defender con una tasa de éxito bastante alta teniendo en cuenta el poco tiempo de entrenamiento.

Kyle Avery, el investigador principal de este proyecto, ha declarado que solo han necesitado tres meses de entrenamiento y una inversión de unos 1.500 dólares para convertir el LLM Open Source Qwen 2.5 en una IA capaz de crear malware que puede sobrepasar a Windows Defender.

Tras un entrenamiento de 3 meses el malware tiene una tasa de éxito del 8%. Puede que parezca poco, pero como comparativa la IA de Anthropic solo lograba un 1% de éxito y DeepSeek peor aún, aproximadamente un 0,5% de las veces.

Esta no es la primera vez que se logra este objetivo. En 2023, investigadores de CyberArk crearon malware polimórfico y en 2024, científicos usaron un modelo basado en GPT-2, entrenado mediante aprendizaje por refuerzo, un método de "premio y castigo". La IA modificaba el código malicioso y era "recompensada" si la nueva versión evadía a, y "castigada" si era detectada. Con el tiempo, el sistema aprendió de forma autónoma técnicas avanzadas como la ofuscación de código, haciendo que el malware fuera irreconocible para los sistemas de detección tradicionales.

Visto de esta forma la mejora es más que notoria y teniendo en cuenta que se entrenó por un precio relativamente económico para esa tarea, no sería extraño que algún ciberdelincuente se anime a emprender con esto y mejorar esa tasa de rendimiento.

A medida que se entrena más tiempo y se invierte más dinero los resultados deberían mejorar, aunque no sabemos hasta que punto se marcaría el límite. Aun así, es preocupante la situación en la que en un futuro cercano tengamos a ciberdelincuentes que son capaces de generar malware completamente nuevo y al que somos vulnerables.

Los investigadores de Outflank planean presentar este nuevo malware de IA en Black Hat 2025 en agosto.

Fuente: TomsHardware