AbavaNet technical corner
технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Friday, January 17, 2025
Агенты: белая книга
Thursday, January 16, 2025
LLM в анализе сетевого трафика
См. также другие публикации, посвященные LLM
Wednesday, January 15, 2025
Атаки черного ящика
(1) наиболее продвинутые атаки черного ящика с трудом достигают успеха даже против простых обученных состязательным образом
моделей;
(2) надежные модели, оптимизированные для противостояния сильным атакам белого ящика, таким как
AutoAttack, также демонстрируют повышенную устойчивость к атакам черного ящика;
(3) надежность соответствия между суррогатными моделями и целевой моделью играет ключевую роль в успехе атак на основе передачи.
Атаки черного ящика, конечно, являются самым реалистичным случаем. Интересная работа, которая исследует - насколько же они эффективны
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Tuesday, January 14, 2025
Бортовые компьютеры
Monday, January 13, 2025
Poisson vs Binomial
Чтобы определить, какое распределение использовать: пуассоновское или биномиальное, спросите себя:
Присутствует ли фиксированное количество испытаний?
Да → биномиальное.
Нет → пуассоновское.
Вероятность успеха мала при большом количестве испытаний?
Да → рассмотрите пуассоновское как приближение.
Распознавание дорожных знаков
См. также другие публикации по теме физические атаки
Sunday, January 12, 2025
Аномалии временных рядов
Saturday, January 11, 2025
Friday, January 10, 2025
ACM RecSys 2024
См. также другие публикации, посвященные рекомендательным системам
Устройство ИИ-агентов
Thursday, January 09, 2025
LLM 2024
Интересно мнения автора по поводу агентов: "Что бы ни значил этот термин, у агентов все еще есть это постоянное ощущение «скоро». Оставив в стороне терминологию, я остаюсь скептически настроенным относительно их полезности, основанной, опять же, на проблеме доверчивости. LLM верят всему, что вы им говорите. Любая система, которая пытается принимать осмысленные решения от вашего имени, столкнется с тем же препятствием: насколько хорош турагент, или цифровой помощник, или даже исследовательский инструмент, если он не может отличить правду от вымысла?"
Вот пример такой доверчивости - галлюцинации LLM, которым в запросе указали вымышленную информацию (про административную границу, про морские курорты в Белоруссии)
См. также другие публикации, посвященные LLM
Wednesday, January 08, 2025
Лабораторные работы по IoT
Tuesday, January 07, 2025
Физический бэкдор
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Monday, January 06, 2025
LLM и поиск уязвимостей в коде
"Несмотря на свой замечательный успех, большие языковые модели (LLM) продемонстрировали ограниченные возможности в прикладных задачах, таких как обнаружение уязвимостей. Мы исследуем различные стратегии подсказок для обнаружения уязвимостей и в рамках этого исследования предлагаем стратегию подсказок, которая объединяет описания уязвимостей на естественном языке с подходом к контрастной цепочке рассуждений, дополненным контрастными образцами из синтетического набора данных. Наше исследование подчеркивает потенциал LLM для обнаружения уязвимостей путем интеграции описаний на естественном языке, контрастных рассуждений и синтетических примеров в комплексную структуру подсказок. Наши результаты показывают, что этот подход может улучшить понимание LLM уязвимостей. На высококачественном наборе данных для обнаружения уязвимостей, таком как SVEN, наши стратегии подсказок могут улучшить точность, F1-баллы и парные точности на 23%, 11% и 14% соответственно"- Can LLM Prompting Serve as a Proxy for Static Analysis in Vulnerability Detection
См. также другие публикации, посвященные LLM
Sunday, January 05, 2025
Saturday, January 04, 2025
Переносимость физических состязательных атак
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Friday, January 03, 2025
Состязательные атаки на NIDS
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению