По мере роста числа кибератак сетевые системы обнаружения вторжений (NIDS) становятся всё более важными для обнаружения и идентификации вредоносного трафика, а методы машинного обучения набирают популярность
для классификации сетевого трафика. Однако, особенно, модели глубокого обучения уязвимы к вредоносным примерам — тонким возмущениям входных данных, которые приводят к неправильной классификации. В то время как
враждебные примеры для изображений должны быть незаметными, возмущения сетевых данных сталкиваются со сложными ограничениями, специфичными для предметной области. Мы исследуем уязвимость NIDS к вредоносным атакам и сравниваем шесть архитектур машинного обучения и три метода атаки «чёрный ящик» на четырёх наборах данных обнаружения сетевых вторжений (NID). Мы определяем модель угроз, которая обеспечивает минимальные знания и ограниченный доступ к злоумышленнику, и используем строго ограниченное подмножество признаков для применения возмущений. Наши результаты показывают успешность атак от 0,1 до 36,9%, с большими различиями между архитектурами, зависящими от набора данных. На втором этапе мы применяем три метода для минимизации размера возмущений и обнаруживаем, что точечная атака особенно хорошо подходит для данных NID. Наконец, мы анализируем возмущенные признаки и находим отдельные
признаки, которые значительно влияют на классификацию. -
Now You See Me / Now You Don’t: Constrained Adversarial Attacks in Network Intrusion Detection Across Datasets and Machine Learning Models
См. также следующую публикацию про атаки с ограничениями
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
No comments:
Post a Comment