См. также другие публикации по теме фишинг
технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Friday, July 18, 2025
Как предупреждать о фишинге
Фишинг стал заметным риском в современной кибербезопасности, часто используемым для обхода технологических защит, эксплуатируя предсказуемое поведение человека.
Предупреждающие диалоги являются стандартной мерой снижения рисков, но отсутствие ясности объяснений и статичный контент ограничивают их эффективность. В данной статье
мы сообщаем о нашем исследовании по оценке способности больших языковых моделей (LLM) генерировать понятные, лаконичные и масштабируемые объяснения предупреждений о фишинге. Мы провели масштабное межгрупповое исследование пользователей (N = 750), чтобы сравнить влияние предупреждающих диалогов, дополненных вручную сгенерированными объяснениями, с теми, которые генерируются двумя LLM, Claude 3.5 Sonnet и Llama 3.3 70B. Мы исследовали два стиля объяснений (основанный на признаках и контрфактуальный) на предмет их влияния на поведенческие показатели (кликабельность) и результаты восприятия (например, доверие, риск, ясность). Результаты показывают, что хорошо продуманные объяснения, сгенерированные LLM, могут сравниться или превзойти объяснения, созданные вручную, в снижении восприимчивости к фишингу; предупреждения, сгенерированные Claude, продемонстрировали особенно высокую эффективность. Объяснения, основанные на признаках, были более эффективны при реальных попытках фишинга, тогда как контрфактуальные объяснения снизили частоту ложноположительных срабатываний. Другие переменные, такие как рабочая нагрузка, пол и предыдущее знакомство с диалоговыми окнами предупреждений, значительно смягчали эффективность предупреждений. Эти результаты показывают, что LLM можно использовать для автоматического создания объяснений для предупреждения пользователей о фишинге, и что такие решения масштабируемы, адаптивны и соответствуют ценностям, ориентированным на человека. - Can Large Language Models Improve Phishing Defense? A Large-Scale Controlled Experiment on Warning Dialogue Explanations
Subscribe to:
Post Comments (Atom)
No comments:
Post a Comment