P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Wednesday, January 21, 2026
Аномалии в изображениях
Несмотря на впечатляющие результаты глубоких нейронных сетей (DNN) в классификации изображений, их уязвимость к атакам со стороны злоумышленников остается серьезной проблемой. Большинство существующих методов обнаружения основаны на сложных и плохо интерпретируемых архитектурах, которые ставят под угрозу интерпретируемость и обобщаемость. Для решения этой проблемы мы предлагаем FeatureLens — легковесную структуру, которая действует как линза для анализа аномалий в признаках изображений. FeatureLens, включающая в себя экстрактор признаков изображений (IFE) и неглубокие классификаторы (например, SVM, MLP или XGBoost) с размерами моделей от 1000 до 30000 параметров, достигает высокой точности обнаружения — от 97,8% до 99,75% при оценке в замкнутом наборе данных и от 86,17% до 99,6% при оценке обобщаемости в атаках FGSM, PGD, C&W и DAmageNet, используя только 51-мерные признаки. Благодаря сочетанию высокой эффективности обнаружения с превосходной обобщающей способностью, интерпретируемостью и вычислительной эффективностью, FeatureLens предлагает практический путь к прозрачной и эффективной защите от враждебных действий. - FeatureLens: A Highly Generalizable and Interpretable Framework for Detecting Adversarial Examples Based on Image Features
Subscribe to:
Post Comments (Atom)
No comments:
Post a Comment