P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Friday, July 25, 2025
Бэкдоры для распознавания лиц
Широкое использование глубокого обучения в распознавании лиц вызывает ряд проблем безопасности. Хотя предыдущие работы указывают на существующие уязвимости, атаки с использованием бэкдоров DNN на реальные системы без ограничений, работающие с изображениями, полученными в естественных условиях, остаются слепым пятном в литературе. В данной статье проводится первое системное исследование бэкдоров в системах распознавания лиц, основанных на глубоком обучении. В данной статье представлены четыре работы, в которых рассматривается возможность использования бэкдоров DNN на этих конвейерах в комплексном подходе. Мы впервые демонстрируем две атаки с использованием бэкдоров на задачу распознавания лиц: генерацию лиц и атаку смещения ориентиров на лице. Затем мы показываем, что извлекатели признаков лиц, обученные с большими потерями маржи, также становятся жертвами атак с использованием бэкдоров. Объединяя наши модели, мы показываем, используя 20 возможных конфигураций конвейеров и 15 случаев атак, что один бэкдор позволяет злоумышленнику обойти все функции системы. Наконец, мы предлагаем заинтересованным сторонам несколько рекомендаций и контрмер. - Survivability of Backdoor Attacks on Unconstrained Face Recognition Systems
Subscribe to:
Post Comments (Atom)
No comments:
Post a Comment