El costo promedio global de una brecha de seguridad en 2023 fue de USD 4,45 millones, un aumento del 15% en 3 años, según reporte de IBM ( https://www.ibm.com/reports/data-breach)
Según, Techopedia, “en 2023, se generaban 300.000 nuevas instancias de malware al día, el 92% distribuidas por correo electrónico, con una media de 49 días para ser detectadas. El software malicioso se utiliza para obtener acceso no autorizado a los sistemas informáticos, robar datos, interrumpir los servicios del sistema o causar daños a las redes informáticas. 4,1 millones de sitios web están infectados con malware.
Y se ha descubierto que el 18% de los sitios web contienen amenazas críticas para la ciberseguridad”. (https://acortar.link/DIjZSN)
Las amenazas cibernéticas están en constante cambio, con nuevos tipos de malware apareciendo diariamente. Un malware es un software malicioso diseñado para dañar, robar o interrumpir el funcionamiento de un dispositivo o sistema informático.
Según el Informe sobre Riesgos Globales 2024 del Foro Económico Mundial, la Ciberseguridad, está en Clasificación del riesgo número 4º en el horizonte de 2 años y Sean Doyle, jefe de la iniciativa Atlas de la Ciberdelincuencia, Foro Económico Mundial señala que “los ciberdelincuentes están adoptando nuevas tecnologías, como las herramientas de IA generativa, para aumentar el número de mercados en los que pueden operar”.
Los métodos tradicionales de detección basados en firmas y heurísticas tienen dificultades para mantenerse al día con esta evolución rápida. Además, los atacantes están empleando técnicas de ofuscación y polimorfismo para evadir la detección. El aprendizaje profundo ha emergido como una tecnología revolucionaria con aplicaciones en diversos campos, incluida la ciberseguridad. Los modelos de aprendizaje profundo pueden ser utilizados para desarrollar sistemas de detección de malware en tiempo real, capaces de identificar y bloquear amenazas emergentes de manera proactiva.
El aprendizaje profundo es una rama de la inteligencia artificial que enseña a una computadora a aprender por sí misma. Es una herramienta que permite reconocer patrones, aprender de grandes cantidades de datos y tomar decisiones complejas.
Por ello, a través del aprendizaje profundo se puede identificar características ocultas en los archivos maliciosos que son difíciles de detectar mediante métodos tradicionales.
Algunas técnicas de aprendizaje profundo aplicadas a la detección de malware incluyen: redes Neuronales Convolucionales (CNN): Excelentes para analizar imágenes y datos estructurados, las CNN pueden ser utilizadas para extraer características relevantes de los archivos binarios de malware; redes Neuronales Recurrentes (RNN): Adecuadas para procesar secuencias de datos, las RNN pueden analizar el comportamiento dinámico del malware; redes Neuronales Artificiales Profundas (DNN): Versátiles y capaces de aprender representaciones complejas, las DNN pueden ser utilizadas para clasificar malware en diferentes categorías.
Para proteger eficazmente los sistemas, la detección de malware debe ser realizada en tiempo real. Los modelos de aprendizaje profundo pueden ser entrenados en grandes conjuntos de datos de malware y benignware para aprender a distinguir entre ambos. Una vez entrenados, estos modelos pueden ser desplegados en sistemas de seguridad para analizar archivos entrantes y detectar amenazas potenciales de manera instantánea.
La aplicación de modelos de aprendizaje profundo para la detección de malware ofrece varios beneficios, como: alta tasa de detección: Los modelos pueden identificar nuevos tipos de malware con precisión; reducción de falsos positivos: Los modelos pueden aprender a distinguir entre malware y software benigno de manera más efectiva; adaptabilidad: Los modelos pueden ser continuamente actualizados para mantenerse al día con las nuevas amenazas.
Sin embargo, también existen desafíos, como la necesidad de grandes conjuntos de datos de alta calidad, el tiempo de entrenamiento de los modelos y la posibilidad de adversarios que intenten engañar a los sistemas.
Si bien el aprendizaje profundo ofrece un gran potencial para la detección de malware, es crucial abordar las implicaciones éticas y de seguridad asociadas a esta tecnología. La recopilación y el uso de grandes cantidades de datos plantean preocupaciones sobre la privacidad y la protección de datos personales. Para mitigar estos riesgos, es fundamental adoptar mejores prácticas como: los datos de muestra se anonimizan antes de su uso en el entrenamiento y evaluación del modelo. Esto incluye la eliminación de la información personal de las muestras de software y los registros de inferencia explícitas o implícitas; la creación de conjuntos de datos diversos y representativos, el desarrollo de modelos interpretables y explicables, la implementación de técnicas de reducción de sesgos y la realización de evaluaciones rigurosas. Es fundamental desarrollar estos y otros mecanismos para garantizar la transparencia, la equidad y la robustez de estos sistemas.
El aprendizaje profundo representa un avance significativo en la detección de malware. Al aprovechar el poder de estas tecnologías, es posible desarrollar sistemas de seguridad más robustos y capaces de proteger contra las amenazas cibernéticas en constante evolución. A medida que la investigación continúa avanzando, podemos esperar ver soluciones aún más sofisticadas y efectivas en el futuro.
Es una necesidad latente, la investigación, la formación, el desarrollo de productos y servicios, así como el desarrollo de entidades públicas y privadas resilientes para construir un futuro donde la inteligencia artificial se utilice para protegernos de manera efectiva, sin comprometer nuestros valores fundamentales y nos ayude a garantizar un mundo más ciberseguro.
Análisis técnico tomado del artículo publicado en IEEE Access, Application of Deep Learning Models for Real-Time Automatic Malware Detection Rommel Gurierrez1, William Villegas-Ch.1, Lorena Naranjo Godoy2 , Aracely Mera-Navarrete3 And Sergio Luján-Mora4 disponible en https://ieeexplore.ieee.org/document/10620215?source=authoralert