См. также другие публикации, посвященные LLM
технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Monday, December 16, 2024
LLM против мошенников
Можем ли мы доверять Большим языковым моделям (LLM) для точного прогнозирования мошенничества? В этой статье исследуются уязвимости LLM при столкновении с враждебными мошенническими сообщениями для
задачи обнаружения мошенничества. Мы решили эту проблему, создав комплексный набор данных с малозаметными метками мошеннических сообщений, включая как исходные, так и враждебные мошеннические сообщения. Набор данных расширил традиционные бинарные классы для задачи обнаружения мошенничества в более тонкие типы мошенничества. Наш анализ показал, как состязательные примеры примеры использовали уязвимости LLM, что привело к высокому уровню ошибочной классификации. Мы оценили производительность LLM на этих враждебных мошеннических сообщениях и предложили стратегии для повышения их надежности. - Exposing LLM Vulnerabilities: Adversarial Scam Detection and Performance
Subscribe to:
Post Comments (Atom)
No comments:
Post a Comment