технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Friday, October 31, 2025
Внутреннее техническое устройство LLM
См. также другие публикации, посвященные LLM
Thursday, October 30, 2025
Публикации по теме Искусственный интеллект в кибербезопасности 30.10.2025
Вопросы безопасности систем ИИ рассматриваются в двух магистерских программах факультета ВМК МГУ имени М.В. Ломоносова: Искусственный интеллект в кибербезопасности и Кибербезопасность. Ниже приведен список публикаций, подготовленных в процессе реализации этих программ по состоянию на 28.09.2025
Ильюшин Е. А., Намиот Д. Е. An approach to the automatic enhancement of the robustness of ml models to external influences on the example of the problem of biometric speaker identification by voice // International Journal of Open Information Technologies. — 2021. — Vol. 9, no. 6. — P. 11–19.
Намиот Д. Е., Ильюшин Е. А., Чижов И. В. Текущие академические и индустриальные проекты, посвященные устойчивому машинному обучению // International Journal of Open Information Technologies. — 2021. — Т. 9, № 10. — С. 35–46.
Намиот Д. Е., Ильюшин Е. А., Чижов И. В. Основания для работ по устойчивому машинному обучению // International Journal of Open Information Technologies. — 2021. — Т. 9, № 11. — С. 68–74.
Намиот Д. Е., Ильшин Е. А., Чижов И. В. Военные применения машинного обучения // International Journal of Open Information Technologies. — 2022. — Т. 10, № 1. — С. 69–76.
Ильюшин Е. А., Намиот Д. Е., Чижов И. В. Атаки на системы машинного обучения – общие проблемы и методы // International Journal of Open Information Technologies. — 2022. — Т. 10, № 3. — С. 17–22.
Namiot D., Ilyushin E. On monitoring of machine learning models // Distributed Computer and Communication Networks: Control, Computation, Communications (DCCN-2022) : материалы XXV международной научной конференции: Москва, 26–30 сентября 2022 года / под общ. ред. В. М. Вишневского и К. Е. Самуйлова. — РУДН Москва: 2022. — P. 150–157.
Namiot D., Ilyushin E., Chizhov I. On a formal verification of machine learning systems // International Journal of Open Information Technologies. — 2022. — Vol. 10, no. 5. — P. 30–34.
Huayu L., Namiot D. A survey of adversarial attacks and defenses for image data on deep learning // International Journal of Open Information Technologies. — 2022. — Vol. 10, no. 5. — P. 9–16.
Намиот Д., Ильюшин Е., Пилипенко О. Доверенные платформы искусственного интеллекта // International Journal of Open Information Technologies. — 2022. — Т. 10, № 7. — С. 119–127.
Намиот Д., Ильюшин Е. Порождающие модели в машинном обучении // International Journal of Open Information Technologies. — 2022. — Т. 10, № 7. — С. 101–118.
Биджиев Т. М., Намиот Д. Е. Исследование существующих подходов к встраиванию вредоносного программного обеспечения в искусственные нейронные сети // International Journal of Open Information Technologies. — 2022. — Т. 10, № 9. — С. 21–31.
Намиот Д. Е., Ильюшин Е. А. Об устойчивости и безопасности систем искусственного интеллекта // International Journal of Open Information Technologies. — 2022. — Т. 10, № 9. — С. 126–134.
Намиот Д. Е., Ильюшин Е. А., Чижов И. В. Искусственный интеллект и кибербезопасность // International Journal of Open Information Technologies. — 2022. — Т. 10, № 9. — С. 135–147.
Stroeva E., Tonkikh A. Methods for formal verification of artificial neural networks: A review of existing approaches // International Journal of Open Information Technologies. — 2022. — Vol. 10, no. 10. — P. 3.
Намиот Д., Ильюшин Е. Мониторинг сдвига данных в моделях машинного обучения // International Journal of Open Information Technologies. — 2022. — Т. 10, № 12. — С. 84–93.
Костюмов, Василий Владимирович. "Обзор и систематизация атак уклонением на модели компьютерного зрения." International Journal of Open Information Technologies 10.10 (2022): 11-20.
Намиот Д. Е., Ильюшин Е. А. О причинах неудач проектов машинного обучения // International Journal of Open Information Technologies. — 2023. — Т. 11, № 1. — С. 60–69.
Намиот Д. Е. Введение в атаки отравлением на модели машинного обучения // International Journal of Open Information Technologies. — 2023. — Т. 11, № 3. — С. 58–68.
Namiot D. E., Ilyushin E., Chizhov I. On the practical generation of counterfactual examples // Труды Института системного анализа Российской академии наук. — 2023. — Vol. 73, no. 1. — P. 73–81.
Junzhe S., Namiot D. E. A survey of model inversion attacks and countermeasures // Труды Института системного анализа Российской академии наук. — 2023. — Vol. 73, no. 1. — P. 82–93.
Junzhe S., Namiot D. A survey of the implementations of model inversion attacks // Communications in Computer and Information Science. — 2023. — Vol. 1748. — P. 3–16.
Намиот Д. Е. Схемы атак на модели машинного обучения // International Journal of Open Information Technologies. — 2023. — Т. 11, № 5. — С. 68–86.
On the evasion attack detector / L. Huayui, V. Kostyumov, O. Pilipenko, D. Namiot // DCCN 2023. Материалы конференции. — ИПУ РАН Москва: 2023. — P. 183–188.
Junzhe S., Namiot D. On the machine learning models inversion attack detector // DCCN 2023. Материалы конференции. — ИПУ РАН Москва: 2023. — P. 194.
Lozinskii I., Kostyumov V., Stroeva E. Extraction of trigger and mask from poisoned data using modified activation clustering and neural cleanse methods // International Journal of Open Information Technologies. — 2023. — Vol. 11, no. 7. — P. 1
Чехонина, Екатерина Андреевна, and Василий Владимирович Костюмов. "ОБЗОР СОСТЯЗАТЕЛЬНЫХ АТАК И МЕТОДОВ ЗАЩИТЫ ДЛЯ ДЕТЕКТОРОВ ОБЪЕКТОВ." International Journal of Open Information Technologies 11.7 (2023): 11-20.
Пришлецов Д. Е., Пришлецов С. Е., Намиот Д. Е. Камуфляж как состязательные атаки на модели машинного обучения // International Journal of Open Information Technologies. — 2023. — Т. 11, № 9. — С. 41–49.
Намиот Д. Е., Зубарева Е. В. О работе ai red team // International Journal of Open Information Technologies. — 2023. — Т. 11, № 10. — С. 130–139.
Намиот Д. Е., Ильюшин Е. А. Доверенные платформы искусственного интеллекта: сертификация и аудит // International Journal of Open Information Technologies. — 2024. — Т. 12, № 1. — С. 43–60.
Киржинов Д. А., Ильюшин Е. А. Сравнительный анализ алгоритмов атак и защиты на графовые архитектуры ИНС // International Journal of Open Information Technologies. — 2024. — Т. 12, № 2.
Намиот Д. Е., Романов В. Ю. Об улучшении робастности моделей машинного обучения // International Journal of Open Information Technologies. — 2024. — Т. 12, № 3. — С. 88–98.
Junzhe S., Namiot D. On real-time model inversion attacks detection // Lecture Notes in Computer Science. — 2024. — Vol. 14123. — P. 56–67.
Мударова Р. М., Намиот Д. Е. Противодействие атакам типа инъекция подсказок на большие языковые модели // International Journal of Open Information Technologies. — 2024. — Т. 12, № 5. — С. 39–48.
Намиот Д. Е., Ильюшин Е. А. Искусственный интеллект в кибербезопасности: поиск вредоносного программного обеспечения // International Journal of Open Information Technologies. — 2024. — Т. 12, № 6. — С. 143–149.
Lebed, S. V., et al. "Large Language Models in Cyberattacks." Doklady Mathematics. Vol. 110. No. Suppl 2. Moscow: Pleiades Publishing, 2024.
Селевенко Р. М., Строева Е. Н. Исследование и разработка алгоритма формальной верификации и метрики оценки качества на основе методов понижения размерности ИНС // INJOIT. — 2024. — Т. 12, № 6. — С. 2.
Биджиев Т. М., Намиот Д. Е. Атаки на модели машинного обучения, основанные на фреймворке pytorch // Автоматика и телемеханика. — 2024. — № 3. — С. 38–50.
Намиот Д. Е., Ильюшин Е. А. О сертификации систем искусственного интеллекта // Физика элементарных частиц и атомного ядра. — 2024. — Т. 55, № 3. — С. 530–536.
Намиот Д. Е., Куприяновский В. П., Пичугов А. А. Состязательные атаки для автономных транспортных средств // International Journal of Open Information Technologies. — 2024. — Т. 12, № 7. — С. 139–149.
Намиот Д. Е. О кибератаках с помощью систем Искусственного интеллекта // International Journal of Open Information Technologies. — 2024. — Т. 12, № 9. — С. 132–141.
Воробьев, Егор Александрович. "Анализ состязательных атак на системы сегментации изображений." International Journal of Open Information Technologies 12.10 (2024): 1-25.
Намиот Д. Е., Ильюшин Е. А. О киберрисках генеративного Искусственного Интеллекта // International Journal of Open Information Technologies. — 2024. — Т. 12, № 10. — С. 109–119.
Порывай, Максим Викторович. "Сравнительное исследование методов естественной аугментации изображений." International Journal of Open Information Technologies 12.10 (2024): 26-33.
Герасименко, Денис Валерьевич, and Дмитрий Евгеньевич Намиот. "Извлечение тренировочных данных: Риски и решения в контексте безопасности LLM." International Journal of Open Information Technologies 12.11 (2024): 9-19.
Костиков, Егор Вячеславович. "Методы анализа логов Sysmon для обнаружения киберугроз." International Journal of Open Information Technologies 12.11 (2024): 25-34.
Намиот Д. Е., Ильюшин Е. А. Архитектура LLM агентов //International Journal of Open Information Technologies. – 2025. – Т. 13. – №. 1. – С. 67-74.
Воробьев Е. А., Намиот Д. Е. Состязательное тестирование моделей сегментации изображений // Программная инженерия. — 2025. — Т. 16, № 4. — С. 190–198.
Намиот, Д. Е., and Е. А. Ильюшин. "Об оценке доверия к системам Искусственного интеллекта." International Journal of Open Information Technologies 13.3 (2025): 75-90.
Хамзаева, М. А., and О. Р. Лапонина. "Повышение устойчивости к состязательным атакам моделей машинного обучения для обнаружения межсайтового выполнения сценариев." International Journal of Open Information Technologies 13.6 (2025): 25-33.
Бербер, Д. В., and О. Р. Лапонина. "Разработка подходов к увеличению устойчивости моделей машинного обучения для обнаружения распределенных атак отказа обслуживания." International Journal of Open Information Technologies 13.6 (2025): 16-24.
Егорова, Е. С., and О. Р. Лапонина. "Состязательное тестирование моделей машинного обучения, предназначенных для обнаружения SQL-инъекций." International Journal of Open Information Technologies 13.6 (2025): 34-41.
Лапонина, О. Р., and Р. Н. Костин. "Разработка программного обеспечения моделирования угроз для систем на базе LLM-агентов." International Journal of Open Information Technologies 13.6 (2025): 132-146.
Намиот, Д. Е. "Что LLM знает о кибербезопасности." International Journal of Open Information Technologies 13.7 (2025): 37-46.
Намиот, Д. Е. "Искусственный Интеллект в. Кибербезопасности. Хроника. Выпуск 1." International Journal of Open Information Technologies 13.9 (2025): 34-42.
Намиот, Д. Е., and Е. А. Ильюшин. "О кибербезопасности ИИ-агентов." International Journal of Open Information Technologies 13.9 (2025): 13-24.
Егоров, М. Э., et al. "Объяснения моделей машинного обучения и состязательные атаки." International Journal of Open Information Technologies 13.9 (2025): 50-59.
Намиот, Д. Е., and Е. А. Ильюшин. "Уязвимости экосистемы MCP." International Journal of Open Information Technologies 13.10 (2025): 74-82.
Намиот, Д. Е. "Искусственный Интеллект в Кибербезопасности. Хроника. Выпуск 2." International Journal of Open Information Technologies 13.10 (2025): 58-67.
Poryvai, Maxim, and Dmitry Namiot. "On Natural Image Augmentation to Increase Robustness of Machine Learning Models." 2025 International Russian Automation Conference (RusAutoCon). IEEE, 2025.
Namiot D., Zubareva E. On open datasets for llm adversarial testing // Communications in Computer and Information Science. — 2025. — Vol. 2641. — P. 137–148.
Wednesday, October 29, 2025
Новая валюта в рекламе
Самогубство LLM
Интересная идея - раз логиты недоступны, давайте спросим о них у самой модели. Демонстрируя свои знания, модель открывает новые поверхности атаки. Эта музыка будет вечной ...
См. также другие публикации, посвященные LLM
Tuesday, October 28, 2025
Кто бы мог подумать?
Вообще, кажется что программирование агентов находится сейчас на уровне веб-программирования 10-ти летней давности или даже старше. Вот неожиданно открылось, что контент веб-страницы может формироваться динамически и настраиваться под запросы ...
См. также другие публикации, посвященные агентам
Monday, October 27, 2025
ИИ в кибербезопасности. Хроника. Выпуск 3
Атака атак
Композиционная атака на LLM.
P.S. См. также другие публикации, посвященные LLM
Sunday, October 26, 2025
MCP в опасности
Для каждого сервера автор оценивал два свойства: будет ли он обрабатывать входные данные из небезопасных источников, которые невозможно полностью проверить или контролировать (например, электронные письма, чаты, сообщения Slack или скопированные веб-страницы), и позволит ли он выполнять мощные действия, такие как выполнение кода, доступ к файлам или вызов API. Он считал серверы, обладающие обоими свойствами, высокорискованными, поскольку они могли выполнять инструкции злоумышленника без одобрения пользователя.
Он оценил, как риск возрастает по мере того, как системы используют большее количество серверов. (Он не раскрыл формулу или метод, использованный для получения оценок.)
Он проверил свою модель риска, атакуя реальные конфигурации MCP, включая случаи, когда небезопасные входные данные с одного сервера приводили к автоматическому выполнению команд другим сервером
См. также другие публикации, посвященные агентам
Saturday, October 25, 2025
Бережные водяные знаки
См. также другие публикации, посвященные LLM
Friday, October 24, 2025
Международный ИТ-конгресс МГУ
Международный ИТ-конгресс является одним из крупнейших научных мероприятий года, объединяющим ведущих российских и зарубежных учёных, представителей бизнеса, государственных структур и международного экспертного сообщества. Участники обсудят ключевые вызовы цифровой эпохи, развитие технологий искусственного интеллекта, вопросы цифровой трансформации и современные подходы к ИТ-образованию.
За годы проведения ИТ-конгресс стал признанной площадкой для обмена знаниями и формирования научных коллабораций в области компьютерных и информационных наук. Представленные работы демонстрируют высокий уровень компетенций участников и их вклад в развитие современной науки и технологий.
Программа Конгресса включает три крупных международных мероприятия: X Международную конференцию «Конвергентные когнитивно-информационные технологии», XX Международную научно-практическую конференцию «Современные информационные технологии и ИТ-образование» и XV Международную конференцию-конкурс «Инновационные информационно-педагогические технологии в системе ИТ-образования» (ИП-2025).
По итогам работы лучшие доклады, рекомендованные программным комитетом, будут опубликованы в журналах Перечня ВАК — Современные информационные технологии и ИТ-образование и International Journal of Open Information Technologies.
ИТ-конгресс проводится в рамках программы деятельности Федерального учебно-методического объединения в сфере высшего образования по укрупнённой группе специальностей 02.00.00 «Компьютерные и информационные науки».
Регистрация участников и приём докладов продлены до 1 ноября 2025 года.
Подробнее о Конгрессе — на официальном сайте: http://it-edu.oit.cmc.msu.ru
Заглянуть в данные LLM
См. также другие публикации, посвященные LLM
Thursday, October 23, 2025
Про автовождение
см. также другие публикации, посвященные BSI
Wednesday, October 22, 2025
Иллюзия мышления
Apple (Samy Bengio среди соавторов) о том, что LLM все-таки не очень копенгаген. Просто изощренный pattern matching.
Tuesday, October 21, 2025
На защите
P.S. см. также учебное пособие по безопасности ИИ-агентов
См. также другие публикации, посвященные агентам
Детектор, который не детектирует
В последние годы было разработано несколько методов обнаружения дипфейковых изображений, причём особым успехом пользуются подходы, использующие аналитические следы (например, признаки в частотной области), например, полученные с помощью дискретного косинусного преобразования (ДКП). Несмотря на свою эффективность, эти детекторы остаются уязвимыми для состязательных атак. В данной статье мы представляем новую состязательную атаку «серого ящика», специально разработанную для обхода детекторов дипфейков на основе ДКП. Наш метод точно настраивает статистику коэффициентов AC синтетических изображений, чтобы максимально приблизиться к реальным, сохраняя при этом высокое визуальное качество. Атака предполагает полное знание процесса извлечения признаков ДКП, но не доступ к внутренним параметрам классификаторов. Мы оцениваем предлагаемый метод на наборе детекторов на основе ДКП, используя дипфейки, сгенерированные как генеративно-состязательными сетями (ГСС), так и диффузионными моделями (ДМ). Экспериментальные результаты показывают значительное снижение эффективности обнаружения, выявляя критические недостатки систем, традиционно считающихся интерпретируемыми и надёжными. Эта работа поднимает важные вопросы относительно надежности детекторов частотной области в криминалистических приложениях и приложениях кибербезопасности. - A Novel Adversarial Gray-Box Attack on DCT-Based Face Deepfake Detectors
Несмотря на значительный прогресс в методологиях обнаружения дипфейков, они по-прежнему подвержены обходным методам, что является критической уязвимостью в криминалистических системах. Большинство подходов к обнаружению, основанных на артефактах, специфичных для генератора, или высокочастотных отпечатках, становятся уязвимыми для обхода при устранении этих отличительных признаков. Для выявления таких «слепых пятен» в современных криминалистических системах мы представляем GenPure – новую многоступенчатую платформу очистки, которая систематически удаляет как низкоуровневые, так и высокоуровневые синтетические сигналы, позволяя сгенерированным изображениям обходить различные детекторы в условиях строгого «черного ящика». В конвейере обходных методов обнаружения GenPure модуль реконструкции на базе U-Net с многомасштабными, пространственно адаптивными гауссовыми ядрами сначала ослабляет синтетические артефакты, сохраняя при этом перцепционную точность. Затем модель, основанная на зрительном восприятии, намеренно не предвзятая в отношении классификации «аутентичный-синтетический», сопоставляет ослабленные изображения с характеристиками аутентичных изображений, минимизируя расхождения в распределении в скрытом пространстве. Наконец, статистическая перекалибровка цвета, основанная на эталонных данных, восстанавливает естественный тон и дополнительно маскирует остаточные криминалистические сигналы. Эта платформа не требует знаний о детекторах или дополнительного обучения и распространяется на все типы генераторов, разрешения и области контента. Многочисленные эксперименты продемонстрировали передовые показатели уклонения от распознаваемых объектов при использовании множества невидимых источников генерации и систем обнаружения без ухудшения качества изображения. Результаты выявили устойчивые структурные недостатки современных криминалистических конвейеров и подчеркивают необходимость семантически обоснованных, инвариантных к манипуляциям защит. - GenPure: Foundation-Model-Guided Multi-Stage Purification Framework for Black-Box Evasion of Deepfake Detectors
P.S. "Нет у вас методов против Кости Сапрыкина" (с)
См. также другие публикации по теме deepfake
Monday, October 20, 2025
Первый курс по причинно-следственной связи
см. также другие публикации, посвященные каузальности
Sunday, October 19, 2025
Атаки на семантическую сегментацию
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Saturday, October 18, 2025
Friday, October 17, 2025
Thursday, October 16, 2025
Протокол протоколов
MCP движется к замене HTTP в роли основного протокола для прикладных задач ...
См. также другие публикации, посвященные агентам
Wednesday, October 15, 2025
Защита MCP
См. также нашу статью об уязвимостях системы MCP, а также учебник по безопасности ИИ-агентов
См. также другие публикации, посвященные агентам
Tuesday, October 14, 2025
Правда об ИИ-агентах
Почему? Руководители отделов данных признают повсеместное отсутствие уверенности в объяснимости и точности ответов, генерируемых их системами и приложениями ИИ, потому что они либо не требуют, либо просто не могут объяснить, как их ИИ генерирует свои результаты. Только каждый пятый (всего 19%) всегда требует от агентов «показывать свою работу», и подавляющее большинство, 95%, шокирующе признают, что не смогли бы полностью отследить решения ИИ от начала до конца, если бы их попросили предоставить такое обоснование регулирующим органам.
На самом деле, только 11% рассматривали бы агентов ИИ для любой бизнес-функции, включая конфиденциальные, высокорискованные функции, такие как найм, соблюдение нормативных требований или принятие этических решений.
См. также другие публикации, посвященные агентам
Дружно голосуем
Идея для борьбы с инъекциями подсказок - параллельно запрашиваем LLM по модифицированным вариантам запроса. И выбираем наиболее подходящий ответ (по ее же мнению). Такой вот искусственный интеллект :). В форме когнитивного диссонанса.
Monday, October 13, 2025
Безопасность ИИ-агентов
- Структура ИИ-агентов и шаблоны проектирования
- Проблемы с безопасностью ИИ-агентов
- Риски безопасности ИИ-агентов
- Модель угроз
- Уязвимости MCP
- Вопросы безопасности во фреймворках разработки ИИ-агентов и практические рекомендации
Скачать пособие можно здесь
См. также другие публикации, посвященные агентам
Криминалистика дипфейков
См. также другие публикации по теме deepfake
Sunday, October 12, 2025
Графовые модели данных
См. также другие публикации, посвященные Neo4J
Шаблонные ИИ-агенты
См. также другие публикации, посвященные агентам
Saturday, October 11, 2025
Еще о борьбе с дипфейками
Не очень удачно, судя по экспериментам ...
См. также другие публикации по теме deepfake
Friday, October 10, 2025
Киберугроза с востока
Публикации по теме Искусственный интеллект в кибербезопасности 10.10.2025
Вопросы безопасности систем ИИ рассматриваются в двух магистерских программах факультета ВМК МГУ имени М.В. Ломоносова: Искусственный интеллект в кибербезопасности и Кибербезопасность. Ниже приведен список публикаций, подготовленных в процессе реализации этих программ по состоянию на 28.09.2025
Ильюшин Е. А., Намиот Д. Е. An approach to the automatic enhancement of the robustness of ml models to external influences on the example of the problem of biometric speaker identification by voice // International Journal of Open Information Technologies. — 2021. — Vol. 9, no. 6. — P. 11–19.
Намиот Д. Е., Ильюшин Е. А., Чижов И. В. Текущие академические и индустриальные проекты, посвященные устойчивому машинному обучению // International Journal of Open Information Technologies. — 2021. — Т. 9, № 10. — С. 35–46.
Намиот Д. Е., Ильюшин Е. А., Чижов И. В. Основания для работ по устойчивому машинному обучению // International Journal of Open Information Technologies. — 2021. — Т. 9, № 11. — С. 68–74.
Намиот Д. Е., Ильшин Е. А., Чижов И. В. Военные применения машинного обучения // International Journal of Open Information Technologies. — 2022. — Т. 10, № 1. — С. 69–76.
Ильюшин Е. А., Намиот Д. Е., Чижов И. В. Атаки на системы машинного обучения – общие проблемы и методы // International Journal of Open Information Technologies. — 2022. — Т. 10, № 3. — С. 17–22.
Namiot D., Ilyushin E. On monitoring of machine learning models // Distributed Computer and Communication Networks: Control, Computation, Communications (DCCN-2022) : материалы XXV международной научной конференции: Москва, 26–30 сентября 2022 года / под общ. ред. В. М. Вишневского и К. Е. Самуйлова. — РУДН Москва: 2022. — P. 150–157.
Namiot D., Ilyushin E., Chizhov I. On a formal verification of machine learning systems // International Journal of Open Information Technologies. — 2022. — Vol. 10, no. 5. — P. 30–34.
Huayu L., Namiot D. A survey of adversarial attacks and defenses for image data on deep learning // International Journal of Open Information Technologies. — 2022. — Vol. 10, no. 5. — P. 9–16.
Намиот Д., Ильюшин Е., Пилипенко О. Доверенные платформы искусственного интеллекта // International Journal of Open Information Technologies. — 2022. — Т. 10, № 7. — С. 119–127.
Намиот Д., Ильюшин Е. Порождающие модели в машинном обучении // International Journal of Open Information Technologies. — 2022. — Т. 10, № 7. — С. 101–118.
Биджиев Т. М., Намиот Д. Е. Исследование существующих подходов к встраиванию вредоносного программного обеспечения в искусственные нейронные сети // International Journal of Open Information Technologies. — 2022. — Т. 10, № 9. — С. 21–31.
Намиот Д. Е., Ильюшин Е. А. Об устойчивости и безопасности систем искусственного интеллекта // International Journal of Open Information Technologies. — 2022. — Т. 10, № 9. — С. 126–134.
Намиот Д. Е., Ильюшин Е. А., Чижов И. В. Искусственный интеллект и кибербезопасность // International Journal of Open Information Technologies. — 2022. — Т. 10, № 9. — С. 135–147.
Stroeva E., Tonkikh A. Methods for formal verification of artificial neural networks: A review of existing approaches // International Journal of Open Information Technologies. — 2022. — Vol. 10, no. 10. — P. 3.
Намиот Д., Ильюшин Е. Мониторинг сдвига данных в моделях машинного обучения // International Journal of Open Information Technologies. — 2022. — Т. 10, № 12. — С. 84–93.
Костюмов, Василий Владимирович. "Обзор и систематизация атак уклонением на модели компьютерного зрения." International Journal of Open Information Technologies 10.10 (2022): 11-20.
Намиот Д. Е., Ильюшин Е. А. О причинах неудач проектов машинного обучения // International Journal of Open Information Technologies. — 2023. — Т. 11, № 1. — С. 60–69.
Намиот Д. Е. Введение в атаки отравлением на модели машинного обучения // International Journal of Open Information Technologies. — 2023. — Т. 11, № 3. — С. 58–68.
Namiot D. E., Ilyushin E., Chizhov I. On the practical generation of counterfactual examples // Труды Института системного анализа Российской академии наук. — 2023. — Vol. 73, no. 1. — P. 73–81.
Junzhe S., Namiot D. E. A survey of model inversion attacks and countermeasures // Труды Института системного анализа Российской академии наук. — 2023. — Vol. 73, no. 1. — P. 82–93.
Junzhe S., Namiot D. A survey of the implementations of model inversion attacks // Communications in Computer and Information Science. — 2023. — Vol. 1748. — P. 3–16.
Намиот Д. Е. Схемы атак на модели машинного обучения // International Journal of Open Information Technologies. — 2023. — Т. 11, № 5. — С. 68–86.
On the evasion attack detector / L. Huayui, V. Kostyumov, O. Pilipenko, D. Namiot // DCCN 2023. Материалы конференции. — ИПУ РАН Москва: 2023. — P. 183–188.
Junzhe S., Namiot D. On the machine learning models inversion attack detector // DCCN 2023. Материалы конференции. — ИПУ РАН Москва: 2023. — P. 194.
Lozinskii I., Kostyumov V., Stroeva E. Extraction of trigger and mask from poisoned data using modified activation clustering and neural cleanse methods // International Journal of Open Information Technologies. — 2023. — Vol. 11, no. 7. — P. 1
Чехонина, Екатерина Андреевна, and Василий Владимирович Костюмов. "ОБЗОР СОСТЯЗАТЕЛЬНЫХ АТАК И МЕТОДОВ ЗАЩИТЫ ДЛЯ ДЕТЕКТОРОВ ОБЪЕКТОВ." International Journal of Open Information Technologies 11.7 (2023): 11-20.
Пришлецов Д. Е., Пришлецов С. Е., Намиот Д. Е. Камуфляж как состязательные атаки на модели машинного обучения // International Journal of Open Information Technologies. — 2023. — Т. 11, № 9. — С. 41–49.
Намиот Д. Е., Зубарева Е. В. О работе ai red team // International Journal of Open Information Technologies. — 2023. — Т. 11, № 10. — С. 130–139.
Намиот Д. Е., Ильюшин Е. А. Доверенные платформы искусственного интеллекта: сертификация и аудит // International Journal of Open Information Technologies. — 2024. — Т. 12, № 1. — С. 43–60.
Киржинов Д. А., Ильюшин Е. А. Сравнительный анализ алгоритмов атак и защиты на графовые архитектуры ИНС // International Journal of Open Information Technologies. — 2024. — Т. 12, № 2.
Намиот Д. Е., Романов В. Ю. Об улучшении робастности моделей машинного обучения // International Journal of Open Information Technologies. — 2024. — Т. 12, № 3. — С. 88–98.
Junzhe S., Namiot D. On real-time model inversion attacks detection // Lecture Notes in Computer Science. — 2024. — Vol. 14123. — P. 56–67.
Мударова Р. М., Намиот Д. Е. Противодействие атакам типа инъекция подсказок на большие языковые модели // International Journal of Open Information Technologies. — 2024. — Т. 12, № 5. — С. 39–48.
Намиот Д. Е., Ильюшин Е. А. Искусственный интеллект в кибербезопасности: поиск вредоносного программного обеспечения // International Journal of Open Information Technologies. — 2024. — Т. 12, № 6. — С. 143–149.
Lebed, S. V., et al. "Large Language Models in Cyberattacks." Doklady Mathematics. Vol. 110. No. Suppl 2. Moscow: Pleiades Publishing, 2024.
Селевенко Р. М., Строева Е. Н. Исследование и разработка алгоритма формальной верификации и метрики оценки качества на основе методов понижения размерности ИНС // INJOIT. — 2024. — Т. 12, № 6. — С. 2.
Биджиев Т. М., Намиот Д. Е. Атаки на модели машинного обучения, основанные на фреймворке pytorch // Автоматика и телемеханика. — 2024. — № 3. — С. 38–50.
Намиот Д. Е., Ильюшин Е. А. О сертификации систем искусственного интеллекта // Физика элементарных частиц и атомного ядра. — 2024. — Т. 55, № 3. — С. 530–536.
Намиот Д. Е., Куприяновский В. П., Пичугов А. А. Состязательные атаки для автономных транспортных средств // International Journal of Open Information Technologies. — 2024. — Т. 12, № 7. — С. 139–149.
Намиот Д. Е. О кибератаках с помощью систем Искусственного интеллекта // International Journal of Open Information Technologies. — 2024. — Т. 12, № 9. — С. 132–141.
Воробьев, Егор Александрович. "Анализ состязательных атак на системы сегментации изображений." International Journal of Open Information Technologies 12.10 (2024): 1-25.
Намиот Д. Е., Ильюшин Е. А. О киберрисках генеративного Искусственного Интеллекта // International Journal of Open Information Technologies. — 2024. — Т. 12, № 10. — С. 109–119.
Порывай, Максим Викторович. "Сравнительное исследование методов естественной аугментации изображений." International Journal of Open Information Technologies 12.10 (2024): 26-33.
Герасименко, Денис Валерьевич, and Дмитрий Евгеньевич Намиот. "Извлечение тренировочных данных: Риски и решения в контексте безопасности LLM." International Journal of Open Information Technologies 12.11 (2024): 9-19.
Костиков, Егор Вячеславович. "Методы анализа логов Sysmon для обнаружения киберугроз." International Journal of Open Information Technologies 12.11 (2024): 25-34.
Намиот Д. Е., Ильюшин Е. А. Архитектура LLM агентов //International Journal of Open Information Technologies. – 2025. – Т. 13. – №. 1. – С. 67-74.
Воробьев Е. А., Намиот Д. Е. Состязательное тестирование моделей сегментации изображений // Программная инженерия. — 2025. — Т. 16, № 4. — С. 190–198.
Намиот, Д. Е., and Е. А. Ильюшин. "Об оценке доверия к системам Искусственного интеллекта." International Journal of Open Information Technologies 13.3 (2025): 75-90.
Хамзаева, М. А., and О. Р. Лапонина. "Повышение устойчивости к состязательным атакам моделей машинного обучения для обнаружения межсайтового выполнения сценариев." International Journal of Open Information Technologies 13.6 (2025): 25-33.
Бербер, Д. В., and О. Р. Лапонина. "Разработка подходов к увеличению устойчивости моделей машинного обучения для обнаружения распределенных атак отказа обслуживания." International Journal of Open Information Technologies 13.6 (2025): 16-24.
Егорова, Е. С., and О. Р. Лапонина. "Состязательное тестирование моделей машинного обучения, предназначенных для обнаружения SQL-инъекций." International Journal of Open Information Technologies 13.6 (2025): 34-41.
Лапонина, О. Р., and Р. Н. Костин. "Разработка программного обеспечения моделирования угроз для систем на базе LLM-агентов." International Journal of Open Information Technologies 13.6 (2025): 132-146.
Намиот, Д. Е. "Что LLM знает о кибербезопасности." International Journal of Open Information Technologies 13.7 (2025): 37-46.
Намиот, Д. Е. "Искусственный Интеллект в. Кибербезопасности. Хроника. Выпуск 1." International Journal of Open Information Technologies 13.9 (2025): 34-42.
Намиот, Д. Е., and Е. А. Ильюшин. "О кибербезопасности ИИ-агентов." International Journal of Open Information Technologies 13.9 (2025): 13-24.
Егоров, М. Э., et al. "Объяснения моделей машинного обучения и состязательные атаки." International Journal of Open Information Technologies 13.9 (2025): 50-59.
Намиот, Д. Е., and Е. А. Ильюшин. "Уязвимости экосистемы MCP." International Journal of Open Information Technologies 13.10 (2025): 74-82.
Намиот, Д. Е. "Искусственный Интеллект в Кибербезопасности. Хроника. Выпуск 2." International Journal of Open Information Technologies 13.10 (2025): 58-67.
Poryvai, Maxim, and Dmitry Namiot. "On Natural Image Augmentation to Increase Robustness of Machine Learning Models." 2025 International Russian Automation Conference (RusAutoCon). IEEE, 2025.
Что защищать от постоянных угроз?
Цель: Цель данного исследования — помочь специалистам по кибербезопасности в защите от APT-атак путем анализа методов вредоносного ПО, задокументированных в отчетах о киберугрозах.
Методология: Мы формируем курируемый набор из 798 отчетов о киберугрозах, а затем анализируем зарегистрированные методы вредоносного ПО с помощью MITRE ATT&CK — общеизвестного термина, обозначающего методы кибератак, киберпреступные группировки и кампании в APT-атаках. Мы анализируем частоту и тенденции применения методов, а затем проводим качественный анализ. Далее мы проводим анализ ассоциативных правил для выявления сопутствующих методов, после чего проводим качественный анализ.
Результаты: Мы установили, что получение информации об операционной системе и сетевой системе зараженной среды является наиболее распространённым методом и встречается в наибольшем количестве сопутствующих пар. Мы установили, что фишинг является наиболее распространённым способом первоначального заражения. Мы также выявили три распространённых способа злоупотребления системными функциями: макросы в документах Office, реестр Windows и планировщик задач. Мы рекомендуем организациям уделять первоочередное внимание защите от выявленных распространённых методов и активно выявлять потенциальные вредоносные вторжения на основе выявленных ассоциаций между методами вредоносного ПО. - SoK: An empirical investigation of malware techniques in advanced persistent threat attacks
Thursday, October 09, 2025
Смишинг
Интересная работа. Важная тема, по которой не так-то просто собрать данные.
Обеспечение надежного и безопасного ИИ
Сюда же можно отнести и Startup technical guide AI agents, который рписывает использование того же Google Cloud для создания ИИ-агентов
Wednesday, October 08, 2025
Частно-государственный бизнес
2. Платформа объявляет требования к оформлению журналов, обязательные для присутствия на этой платформе
3. Чисто случайно эти требования совпадают с тем, что предлагает частная издательская система Эко-Вектор
4. Частная издательская система выкатывает расценки на поддержку других журналов в соответствии со своими требованиями
Бинго. Профит. И все совпадения случайны ...
P.S. В старой журнальной модели ВАК сотрудничал по такой же схеме с частным РИНЦ - условием присутствия журнала в списке ВАК (государство) было наполнение редакцией базы РИНЦ (частники - elibrary.ru). РИНЦ за деньги предлагал (предлагает :) починить цитирования журналов в их же системе, от которого зависили позиции в списке ВАК.
ВАК, как я понимаю, теперь в РАН. И у РАН (РЦНИ) - теперь свои частники. "Пусть век солдата быстротечен, Но — вечен Рим!" ...
Открытая наука том 13, номер 10
Это том 13, номер 10 за 2025 год. Новое пополнение для списка работ по теме Искусственный интеллект в кибербезопасности
/via Лаборатория ОИТ
Кибербезопасность в IoT
Tuesday, October 07, 2025
Открытая наука том 13, номер 9
Это том 13, номер 9 за 2025 год. Большое пополнение для списка работ по теме Искусственный интеллект в кибербезопасности
/via Лаборатория ОИТ
Атаки извлечения для LLM
См. также другие публикации, посвященные LLM
Monday, October 06, 2025
MCP vs API
API (интерфейс прикладного программирования):
- Назначение: Обеспечивает взаимодействие между программами.
- Обнаружение: Требуется документация.
- Стандартизация: Различная — REST, GraphQL, gRPC и т. д.
MCP (протокол контекста модели):
- Назначение: Обеспечивает взаимодействие между клиентами (агентами, IDE, LLM) и серверами, встроенное в ИИ.
- Обнаружение: Самоописание (внешняя документация не требуется).
- Стандартизация: Единый единый протокол для ресурсов, инструментов и подсказок.
Сюрреалистичная БД
Масштабируемая, распределенная база данных с графами документов для веб-приложений в режиме реального времени - surrealdb
Защита от атак патчами
Sunday, October 05, 2025
Генератор физических атак
См. также другие публикации по теме физические атаки
Saturday, October 04, 2025
Кибербезопасность гуманоидов
Теперь и такая кибербезопасность ...
Friday, October 03, 2025
Атаки на code-review
Инетересно тем, что атака явно использует семантическую информацию, а не формально манипулирует градиентами.
Thursday, October 02, 2025
Ваши агенты раскрыты
Ошибки накапливаются экспоненциально в многоступенчатых рабочих процессах. 95% надежности на каждом шаге = 36% успешности за 20 шагов. В продакшн-системах нужно 99,9%+.
Окна контекста создают квадратичные затраты на токены. Долгие разговоры становятся слишком дорогими при масштабировании.
Реальная проблема — не в возможностях ИИ, а в проектировании инструментов и систем обратной связи, которые агенты могут эффективно использовать.
Отсюда (есть русский перевод)
См. также другие публикации, посвященные агентам


