См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Thursday, April 17, 2025
Состязательные атаки и защиты в машинном зрении
Недавние исследования показали, что модели глубокого обучения уязвимы для состязательных примеров, демонстрируя, что применение определенного незаметного возмущения к чистым примерам может эффективно обмануть хорошо обученные и высокоточные модели глубокого обучения. Более того, состязательные примеры могут достичь значительного уровня уверенности с атакованной меткой. Напротив, человек едва мог различить разницу между чистыми и состязательными примерами, что вызвало огромную обеспокоенность по поводу надежных и заслуживающих доверия методов глубокого обучения. В этом обзоре мы рассмотрели существование, генерацию и контрмеры состязательных примеров в Computer Vision, чтобы обеспечить всестороннее освещение области с интуитивным пониманием механизмов и суммировали сильные и слабые стороны и основные проблемы. Мы надеемся, что эти усилия вызовут дополнительный интерес в сообществе к решению текущих проблем и исследованию этой фундаментальной области. Generation and Countermeasures of adversarial examples on vision: a survey
Subscribe to:
Post Comments (Atom)
No comments:
Post a Comment