Wednesday, August 27, 2025

Атаки на автовождение

Возрождение глубокого обучения привело к массовому развитию технологий автономного вождения. Однако глубокие нейронные сети уязвимы к состязательным примерам. Возмущения, создаваемые состязательными примерами, незаметны для человеческого глаза, но могут привести к ложным прогнозам нейронных сетей. Это представляет огромный риск для приложений искусственного интеллекта (ИИ) для автономного вождения. В этом обзоре систематически рассматривается развитие исследований устойчивости к состязательным примерам за последнее десятилетие, включая методы атаки и защиты, а также их применение в автономном вождении. Развитие технологий автономного вождения подталкивает к созданию надежных приложений ИИ. В этом обзоре перечислены важные ссылки в истории исследований состязательных примеров. - Adversarial Examples in Environment Perception for Automated Driving

Хороший обзор. См. также статью On Adversarial Attacks for Autonomous Vehicles

P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

No comments: