технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Wednesday, April 08, 2026
DRL в кибербезопасности
Глубокое обучение с подкреплением (DRL) достигло замечательных успехов в областях, требующих последовательного принятия решений, что мотивирует его применение к проблемам кибербезопасности. Однако переход от лабораторных симуляций к специализированным киберсредам может привести к многочисленным проблемам. Это еще больше усугубляется часто враждебным, нестационарным и частично наблюдаемым характером большинства задач кибербезопасности. В этой статье мы выявляем и систематизируем 11 методологических ошибок, которые часто встречаются в литературе по DRL для кибербезопасности (DRL4SEC) на этапах моделирования среды, обучения агентов, оценки производительности и
развертывания системы. Проанализировав 66 значимых статей по DRL4SEC (2018-2025 гг.), мы количественно оцениваем распространенность каждой ошибки и обнаруживаем в среднем более пяти ошибок на статью. Мы демонстрируем практическое влияние этих ошибок, используя контролируемые эксперименты в (i) автономной киберзащите, (ii) создании враждебного вредоносного ПО и (iii) средах тестирования веб-безопасности. В заключение мы предлагаем практические рекомендации по каждой проблеме, чтобы поддержать разработку более строгих и пригодных для внедрения систем безопасности на основе DRL. - SoK: The Pitfalls of Deep Reinforcement Learning for Cybersecurity
Subscribe to:
Post Comments (Atom)
No comments:
Post a Comment