Wednesday, July 23, 2025

Атака на детектора пешеходов

Системы обнаружения пешеходов широко используются в областях, критически важных для безопасности, таких как автономное вождение, где глубокие нейронные сети точно распознают людей и отличают их от других объектов. Однако их уязвимость к бэкдор-атакам остаётся недостаточно изученной. Существующие бэкдор-атаки, основанные на неестественных цифровых возмущениях или явных патчах, сложно реализовать скрытно в реальном мире. В данной статье мы предлагаем новый метод бэкдор-атаки, впервые использующий реальные преграды (например, рюкзаки) в качестве естественных триггеров. Мы разрабатываем динамически оптимизированную эвристическую стратегию для адаптивной регулировки положения и размера триггера для различных сценариев преград и разрабатываем три модельно-независимых механизма встраивания триггеров для реализации атак. Мы проводим обширные эксперименты с двумя различными моделями обнаружения пешеходов, используя общедоступные наборы данных. Результаты показывают, что, сохраняя базовую производительность, бэкдор-модели достигают среднего уровня успешности атак 75,1% на наборах данных KITTI и 97,1% на наборах данных CityPersons соответственно. Физические испытания подтверждают, что пешеходы с ранцевыми триггерами могут успешно избегать обнаружения на различных расстояниях съёмки камерами iPhone, хотя атака провалилась, когда пешеходы повернули голову на 90°, что подтверждает практическую осуществимость нашего метода. В рамках исследований абляции мы дополнительно изучаем влияние ключевых параметров, таких как схемы триггеров и частота отравления, на эффективность атаки. Наконец, мы оцениваем устойчивость предлагаемого нами метода к защите. Данное исследование показывает, что распространённые явления окклюзии могут служить лазейками, предоставляя критически важную информацию для разработки физически надёжных систем обнаружения пешеходов. - Natural Occlusion-Based Backdoor Attacks: A Novel Approach to Compromising Pedestrian Detectors

P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

No comments: