Microsoft выпустила большой технический документ о Red Teaming 100 генеративных продуктах ИИ. Созданная в 2018 году, команда фокусируется на выявлении рисков безопасности ИИ, сочетая традиционную безопасность с ответственными методами ИИ. Основные идеи включают использование онтологии ИИ red team для моделирования кибератак, 8 извлеченных уроков и 5 тематических исследований уязвимостей, таких как быстрые инъекции и психосоциальный вред. Основные выводы подчеркивают:
1) Генеративный ИИ усиливает как новые, так и существующие риски;
2) Понимание того, что может делать система и где она применяется;
3) Автоматизация может помочь охватить большую часть ландшафта рисков
3 takeaways from red teaming 100 generative AI products
См. также другие публикации по теме Red team
No comments:
Post a Comment