технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Tuesday, February 04, 2025
Как описывать езду?
Saturday, February 01, 2025
Фиксация состязательных модификаций изображений
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Friday, January 31, 2025
Thursday, January 30, 2025
Большие атаки
Исторически, состязательные атаки рассматривались как малые ("незаметные") возмущения входных данных, которые меняют работу модели. Но ведь модель могут обманывать произвольные модификации. И если в контуре принятия решений нет человека, то "незаметность" вообще ни на что не влияет. Вот одна из немногих работ, где рассматриваются "неограниченные" модификации. Глобальная атака уклонения.
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Wednesday, January 29, 2025
Российские ИИ продукты
Tuesday, January 28, 2025
Состязательные атаки по-умному
С помощью объяснения работы модели строим состязательные атаки.
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Monday, January 27, 2025
Родовые проблемы
См. также другие публикации, посвященные LLM
Физические атаки на модели распознавания человека
См. также другие публикации по теме физические атаки
Sunday, January 26, 2025
Open Source ИИ стек
Фронтенд
Для создания красивых пользовательских интерфейсов ИИ чрезвычайно полезны такие фреймворки, как NextJS и Streamlit. Кроме того, Vercel может помочь с развертыванием.
Встраивание и библиотеки RAG
Встраивание моделей и библиотек RAG, таких как Nomic, JinaAI, Cognito и LLMAware, помогает разработчикам создавать точные функции поиска и RAG.
Бэкенд и доступ к моделям
Для разработки бэкенда разработчики могут полагаться на такие фреймворки, как FastAPI, Langchain и Netflix Metaflow. Для доступа к моделям доступны такие продукты, как Ollama и Huggingface.
Данные и извлечение
Для хранения и извлечения данных доступны несколько опций, таких как Postgres, Milvus, Weaviate, PGVector и FAISS.
LLM
Основанные на тестах производительности, модели с открытым исходным кодом, такие как Llama, Mistral, Qwen, Phi и Gemma, являются отличными альтернативами проприетарным моделям LLM, таким как GPT и Claude.
/via bytebytego.com
Saturday, January 25, 2025
Advanced Natural Language Processing
См. также другие публикации, посвященные NLP
Friday, January 24, 2025
Все хуже, чем мы думали
То есть, для состязательных примеров не нужно двигать распределение данных. Примеры существуют на данных с тем же самым распределением, что и тренировочный набор
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Thursday, January 23, 2025
Новый подход к очистке данных
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Wednesday, January 22, 2025
Tuesday, January 21, 2025
Безопасность цифровых двойников
См. также другие публикации, посвященные digital twins
Monday, January 20, 2025
Новый подход к физическим атакам
См. также другие публикации по теме физические атаки
Sunday, January 19, 2025
Еще об оценке LLM
См. также другие публикации, посвященные тестированию LLM
Saturday, January 18, 2025
Практика построения ИИ-агентов
Friday, January 17, 2025
Агенты: белая книга
Thursday, January 16, 2025
LLM в анализе сетевого трафика
См. также другие публикации, посвященные LLM
Wednesday, January 15, 2025
Атаки черного ящика
(1) наиболее продвинутые атаки черного ящика с трудом достигают успеха даже против простых обученных состязательным образом
моделей;
(2) надежные модели, оптимизированные для противостояния сильным атакам белого ящика, таким как
AutoAttack, также демонстрируют повышенную устойчивость к атакам черного ящика;
(3) надежность соответствия между суррогатными моделями и целевой моделью играет ключевую роль в успехе атак на основе передачи.
Атаки черного ящика, конечно, являются самым реалистичным случаем. Интересная работа, которая исследует - насколько же они эффективны
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Tuesday, January 14, 2025
Бортовые компьютеры
Monday, January 13, 2025
Poisson vs Binomial
Чтобы определить, какое распределение использовать: пуассоновское или биномиальное, спросите себя:
Присутствует ли фиксированное количество испытаний?
Да → биномиальное.
Нет → пуассоновское.
Вероятность успеха мала при большом количестве испытаний?
Да → рассмотрите пуассоновское как приближение.
Распознавание дорожных знаков
См. также другие публикации по теме физические атаки
Sunday, January 12, 2025
Аномалии временных рядов
Saturday, January 11, 2025
Friday, January 10, 2025
ACM RecSys 2024
См. также другие публикации, посвященные рекомендательным системам
Устройство ИИ-агентов
Thursday, January 09, 2025
LLM 2024
Интересно мнения автора по поводу агентов: "Что бы ни значил этот термин, у агентов все еще есть это постоянное ощущение «скоро». Оставив в стороне терминологию, я остаюсь скептически настроенным относительно их полезности, основанной, опять же, на проблеме доверчивости. LLM верят всему, что вы им говорите. Любая система, которая пытается принимать осмысленные решения от вашего имени, столкнется с тем же препятствием: насколько хорош турагент, или цифровой помощник, или даже исследовательский инструмент, если он не может отличить правду от вымысла?"
Вот пример такой доверчивости - галлюцинации LLM, которым в запросе указали вымышленную информацию (про административную границу, про морские курорты в Белоруссии)
См. также другие публикации, посвященные LLM
Wednesday, January 08, 2025
Лабораторные работы по IoT
Tuesday, January 07, 2025
Физический бэкдор
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Monday, January 06, 2025
LLM и поиск уязвимостей в коде
"Несмотря на свой замечательный успех, большие языковые модели (LLM) продемонстрировали ограниченные возможности в прикладных задачах, таких как обнаружение уязвимостей. Мы исследуем различные стратегии подсказок для обнаружения уязвимостей и в рамках этого исследования предлагаем стратегию подсказок, которая объединяет описания уязвимостей на естественном языке с подходом к контрастной цепочке рассуждений, дополненным контрастными образцами из синтетического набора данных. Наше исследование подчеркивает потенциал LLM для обнаружения уязвимостей путем интеграции описаний на естественном языке, контрастных рассуждений и синтетических примеров в комплексную структуру подсказок. Наши результаты показывают, что этот подход может улучшить понимание LLM уязвимостей. На высококачественном наборе данных для обнаружения уязвимостей, таком как SVEN, наши стратегии подсказок могут улучшить точность, F1-баллы и парные точности на 23%, 11% и 14% соответственно"- Can LLM Prompting Serve as a Proxy for Static Analysis in Vulnerability Detection
См. также другие публикации, посвященные LLM
Sunday, January 05, 2025
Saturday, January 04, 2025
Переносимость физических состязательных атак
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Friday, January 03, 2025
Состязательные атаки на NIDS
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению