Thursday, August 28, 2025

Энциклопедия ядов

Глубокое обучение стало краеугольным камнем современного искусственного интеллекта, обеспечивая возможность его трансформации в широком спектре областей. Будучи ключевым элементом глубокого обучения, качество и безопасность обучающих данных критически влияют на производительность и надежность моделей. Однако в процессе обучения модели глубокого обучения сталкиваются со значительной угрозой отравления данных, когда злоумышленники вводят злонамеренно манипулированные обучающие данные, чтобы снизить точность модели или привести к аномальному поведению. Хотя существующие исследования предоставляют ценную информацию об отравлении данных, они, как правило, придерживаются широкой перспективы, охватывающей как атаки, так и средства защиты, но не содержат специализированного, глубокого анализа атак отравления, особенно в глубоком обучении. В этом исследовании мы восполняем этот пробел, представляя всесторонний и целенаправленный обзор отравления данных в глубоком обучении. Во-первых, в этом исследовании атаки отравления данных классифицируются с разных точек зрения, предоставляя углубленный анализ их характеристик и основополагающих принципов разработки. Во-вторых, обсуждение распространяется на развивающуюся область отравления данных в больших языковых моделях (LLM). Наконец, мы рассматриваем критически важные открытые проблемы в этой области и предлагаем потенциальные направления исследований для дальнейшего развития этой области. Для поддержки дальнейших исследований актуальный репозиторий ресурсов по отравлению данных в глубоком обучении доступен по адресу https://github.com/Pinlong-Zhao/Data-Poisoning - Data Poisoning in Deep Learning: A Survey

P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

No comments: