Sunday, July 27, 2025

xAI в кибербезопасности

Искусственный интеллект (ИИ) всё больше интегрируется во все более обширные сферы повседневной деятельности. Хотя ИИ обладает бесчисленными преимуществами, его запутанные и порой неясные внутренние процессы могут создавать трудности. В настоящее время ИИ широко используется для оценки кибербезопасности, и его применение сложно обосновать; такое отсутствие ответственности вызывает тревогу. Кроме того, за последние десять лет незначительный рост числа вредоносных программ побудил учёных использовать методы машинного обучения (МО) и глубокого обучения (ГО) для обнаружения угроз. Хотя эти методы обеспечивают исключительную точность, их также сложно понять. Таким образом, развитие интерпретируемых и мощных моделей ИИ является необходимым условием их надёжности и достоверности. Доверие пользователей к моделям, используемым для кибербезопасности, может быть подорвано неоднозначностью и неопределённостью существующих методов на основе ИИ, особенно в свете более сложной и разнообразной природы кибератак в наше время.

Настоящее исследование посвящено сравнительному анализу ансамбля глубоких нейронных сетей (DNNW) с различными ансамблевыми методами, такими как RUSBoost, Random Forest, Subspace, AdaBoost и BagTree, для наилучшего прогнозирования на основе данных изображений вредоносных программ. В нём определяется наиболее эффективная модель – ансамбль DNNW, для которой обеспечена объяснимость. Исследования объяснимости, особенно при работе с данными изображений вредоносных программ, относительно немногочисленны, несмотря на то, что алгоритмы глубокого и машинного обучения произвели революцию в области обнаружения вредоносных программ. Для полного понимания значимости признаков и локального или глобального предсказательного поведения модели применительно к различным категориям вредоносных программ используются такие методы объяснимости, как SHAP, LIME и Grad-CAM. Комплексное исследование значимых характеристик и их влияния на процесс принятия решений моделью, а также визуализация нескольких точек запроса – лишь некоторые из достижений. Эта стратегия способствует повышению прозрачности и надежности приложений кибербезопасности за счёт улучшения понимания методов обнаружения вредоносных программ и интеграции объяснимых наблюдений ИИ со знаниями, специфичными для предметной области. - Advancing malware imagery classification with explainable deep learning: A state-of-the-art approach using SHAP, LIME and Grad-CAM

No comments: