Страницы

Thursday, May 18, 2023

Атаки отравлением на LLM

Вполне очевидно - можно отравлять данные для LLM. Вот здесь еще суждения по этому поводу.

А если еще такие модели обучать раздельно (federative learning), то отравления будут еще более легкими

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению и LLM

No comments:

Post a Comment