Thursday, April 17, 2025

Состязательные атаки и защиты в машинном зрении

Недавние исследования показали, что модели глубокого обучения уязвимы для состязательных примеров, демонстрируя, что применение определенного незаметного возмущения к чистым примерам может эффективно обмануть хорошо обученные и высокоточные модели глубокого обучения. Более того, состязательные примеры могут достичь значительного уровня уверенности с атакованной меткой. Напротив, человек едва мог различить разницу между чистыми и состязательными примерами, что вызвало огромную обеспокоенность по поводу надежных и заслуживающих доверия методов глубокого обучения. В этом обзоре мы рассмотрели существование, генерацию и контрмеры состязательных примеров в Computer Vision, чтобы обеспечить всестороннее освещение области с интуитивным пониманием механизмов и суммировали сильные и слабые стороны и основные проблемы. Мы надеемся, что эти усилия вызовут дополнительный интерес в сообществе к решению текущих проблем и исследованию этой фундаментальной области. Generation and Countermeasures of adversarial examples on vision: a survey

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

No comments: