Monday, April 07, 2025

Всемирная история ядов

Глубокое обучение стало краеугольным камнем современного искусственного интеллекта, позволяя применять преобразующие приложения в широком спектре областей. Как основной элемент глубокого обучения, качество и безопасность обучающих данных критически влияют на производительность и надежность модели. Однако в процессе обучения модели глубокого обучения сталкиваются со значительной угрозой отравления данных, когда злоумышленники вводят злонамеренно манипулированные обучающие данные, чтобы ухудшить точность модели или привести к аномальному поведению. Хотя существующие опросы предоставляют ценную информацию об отравлении данных, они, как правило, принимают широкую перспективу, охватывающую как атаки, так и защиты, но не имеют специального, глубокого анализа атак отравления, особенно в глубоком обучении. В этом опросе мы устраняем этот пробел, представляя всеобъемлющий и целевой обзор отравления данных в глубоком обучении. Во-первых, этот опрос классифицирует атаки отравления данных по нескольким точкам зрения, предоставляя углубленный анализ их характеристик и основных принципов проектирования. Во-вторых, обсуждение распространяется на новую область отравления данных в больших языковых моделях (LLM). Наконец, мы исследуем критические открытые проблемы в этой области и предлагаем потенциальные направления исследований для дальнейшего продвижения этой области. Для поддержки дальнейшего исследования актуальный репозиторий ресурсов по отравлению данных в глубоком обучении доступен по адресу https://github.com/Pinlong-Zhao/Data-Poisoning - Data Poisoning in Deep Learning: A Survey

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

No comments: