Friday, January 03, 2025

Состязательные атаки на NIDS

"Системы обнаружения сетевых вторжений (NIDS) жизненно важны для защиты сетей Интернета вещей (IoT) от вредоносных атак. Современные NIDS используют методы машинного обучения (ML) для борьбы с развивающимися угрозами. В этом исследовании систематически изучались состязательные атаки, исходящие из области изображений, против NIDS на основе ML, при этом включался разнообразный выбор моделей ML. В частности, мы оценили атаки как «белого ящика», так и «черного ящика» на девяти часто используемых моделях NIDS на основе ML. Мы проанализировали атаку Projected Gradient Descent (PGD), которая использует градиентный спуск на входных признаках, атаки переноса, атаку оптимизации нулевого порядка (ZOO) на основе оценок и две атаки на основе решений: Boundary и HopSkipJump. Используя набор данных NSL-KDD, мы оценили точность атакуемых моделей ML и процент успешных состязательных атак. Наши результаты показали, что атаки на основе принятия решений черного ящика были высокоэффективны против большинства моделей машинного обучения, достигнув показателя успешности атак, превышающего 86% по восьми моделям. Кроме того, в то время как модели логистической регрессии и многослойного персептрона были весьма восприимчивы ко всем изученным атакам, модели машинного обучения на основе экземпляров, такие как KNN и распространение меток, продемонстрировали устойчивость к этим атакам. Эти идеи будут способствовать разработке более надежных NIDS против состязательных атак в средах IoT." - A Systematic Study of Adversarial Attacks Against Network Intrusion Detection Systems

P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

No comments: