P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Thursday, August 28, 2025
Энциклопедия ядов
Глубокое обучение стало краеугольным камнем современного искусственного интеллекта, обеспечивая возможность его трансформации в широком спектре областей. Будучи ключевым элементом глубокого обучения, качество и безопасность обучающих данных критически влияют на производительность и надежность моделей. Однако в процессе обучения модели глубокого обучения сталкиваются со значительной угрозой отравления данных, когда злоумышленники вводят злонамеренно манипулированные обучающие данные, чтобы снизить точность модели или привести к аномальному поведению. Хотя существующие исследования предоставляют ценную информацию об отравлении данных, они, как правило, придерживаются широкой перспективы, охватывающей как атаки, так и средства защиты, но не содержат специализированного, глубокого анализа атак отравления, особенно в глубоком обучении. В этом исследовании мы восполняем этот пробел, представляя всесторонний и целенаправленный обзор отравления данных в глубоком обучении. Во-первых, в этом исследовании атаки отравления данных классифицируются с разных точек зрения, предоставляя углубленный анализ
их характеристик и основополагающих принципов разработки. Во-вторых, обсуждение распространяется на развивающуюся область отравления данных в больших языковых моделях (LLM). Наконец, мы рассматриваем критически важные открытые
проблемы в этой области и предлагаем потенциальные направления исследований для дальнейшего развития этой области. Для поддержки дальнейших исследований актуальный репозиторий ресурсов по отравлению данных в глубоком обучении
доступен по адресу https://github.com/Pinlong-Zhao/Data-Poisoning - Data Poisoning in Deep Learning: A Survey
Subscribe to:
Post Comments (Atom)
No comments:
Post a Comment