Saturday, February 28, 2026

Predictive Query Language

Интересная идея - проблемно-ориентированный язык запросов для реляционных баз данных. Целью прогностического моделирования на основе реляционных данных является прогнозирование будущих или отсутствующих значений в реляционной базе данных, например, будущих покупок пользователя, риска повторной госпитализации пациента или вероятности мошенничества при совершении финансовой транзакции. Как правило, основанные на методах машинного обучения, прогностические модели используются в системах рекомендаций, обнаружения финансового мошенничества, оптимизации цепочки поставок и других системах, предоставляя миллиарды прогнозов каждый день. Однако обучение модели машинного обучения требует ручной работы по извлечению необходимых обучающих примеров — сущностей прогнозирования и целевых меток — из базы данных, что является медленным, трудоемким и подверженным ошибкам процессом. Здесь мы представляем язык прогнозных запросов (PQL), декларативный язык, вдохновленный SQL, для определения задач прогнозирования в реляционных базах данных. PQL позволяет задавать задачу прогнозирования в одном декларативном запросе, что позволяет автоматически вычислять обучающие метки для широкого спектра задач машинного обучения, таких как регрессия, классификация, прогнозирование временных рядов и рекомендательные системы. PQL уже успешно интегрирован и используется в ряде сценариев применения в рамках платформы прогнозного ИИ. Универсальность языка можно продемонстрировать на примере множества текущих сценариев его использования, включая финансовое мошенничество, рекомендации товаров и прогнозирование рабочей нагрузки. Мы демонстрируем его универсальную архитектуру на примере двух реализаций: одной для небольших задач с низкой задержкой и другой, способной обрабатывать крупномасштабные базы данных. - Predictive Query Language: A Domain-Specific Language for Predictive Modeling on Relational Databases

См. также статью о машинном обучении на реляционных базах данных

Friday, February 27, 2026

Деанонимизация с помощью LLM

Мы показываем, что большие языковые модели могут быть использованы для выполнения деанонимизации в масштабе. При полном доступе к Интернету наш агент может с высокой точностью идентифицировать пользователей Hacker News и участников Anthropic Interviewer, используя только псевдонимные онлайн-профили и переписки, что соответствует тому, что заняло бы часы у опытного следователя. Затем мы разрабатываем атаки для замкнутого мира. Имея две базы данных псевдонимов, каждая из которых содержит неструктурированный текст, написанный этим человеком или о нем, мы реализуем масштабируемый конвейер атак, который использует LLM для: (1) извлечения релевантных для идентификации признаков, (2) поиска потенциальных совпадений с помощью семантических вложений и (3) анализа лучших кандидатов для проверки совпадений и уменьшения количества ложных срабатываний. По сравнению с предыдущими работами по деанонимизации (например, в рамках конкурса Netflix), которые требовали структурированных данных или ручной разработки признаков, наш подход работает непосредственно с необработанным пользовательским контентом на произвольных платформах. Мы создаем три набора данных с известными эталонными данными для оценки наших атак. Первый связывает Hacker News с профилями LinkedIn, используя межплатформенные ссылки, которые появляются в профилях. Наш второй набор данных сопоставляет пользователей в сообществах обсуждения фильмов на Reddit; а третий разделяет историю одного пользователя на Reddit во времени, чтобы создать два псевдонимных профиля для сопоставления. В каждом случае методы на основе LLM существенно превосходят классические базовые методы, достигая до 68% полноты при 90% точности по сравнению с почти 0% для лучшего метода без LLM. Наши результаты показывают, что практическая непрозрачность, защищающая псевдонимных пользователей в интернете, больше не работает и что модели угроз для конфиденциальности в интернете нуждаются в пересмотре. - Large-scale online deanonymization with LLMs

См. также другие публикации, посвященные LLM

Thursday, February 26, 2026

Агент-доктор

Модели искусственного интеллекта, диагностирующие заболевания, обычно выдают диагнозы на основе описания симптомов. Однако на практике врачи должны уметь объяснять свои рассуждения и планировать дальнейшие действия. Исследователи создали систему, которая справляется с этими задачами.

Dr. CaBot — это агент искусственного интеллекта, который имитирует диагнозы опытных врачей на основе тысяч подробных клинических случаев. Группа терапевтов обнаружила, что его диагнозы более точны и обоснованы, чем диагнозы их коллег-людей. Работа была проведена исследователями из Гарвардской медицинской школы, Медицинского центра Бет Израэль Диконесс, Бригхэмской женской больницы, Массачусетской больницы общего профиля, Университета Рочестера и Гарвардского университета.

Ключевой вывод: Хотя медицинские статьи обычно содержат важные знания, они не предоставляют диагностических рассуждений в последовательном стиле изложения. Однако уникальный корпус литературы предоставляет эту информацию. В период с 1923 по 2025 год в «Нью-Инглендском журнале медицины» было опубликовано более 7000 отчетов о мероприятиях, известных как клинико-патологические конференции (КПК). В этих отчетах выдающиеся врачи анализируют медицинские случаи на основе физического осмотра, анамнеза и другой диагностической информации, формируя уникальный корпус пошаговых медицинских рассуждений. Имея описание симптомов и аналогичный случай из КПК, модель может перенять стиль рассуждений и изложения эксперта-врача.

Как это работает: Авторы оцифровали отчеты КПК по 7102 случаям, опубликованным в период с 1923 по 2025 год. Они создали Dr. CaBot, агентную систему, которая использует OpenAI o3 для генерации текста. Для тестирования Dr.CaBot и других диагностических систем они разработали CPC-Bench, состоящий из 10 задач, от ответов на визуальные вопросы до создания планов лечения.

Модель OpenAI text-embedding-3-small встроила отчеты о случаях CPC, а Dr. CaBot сохранил эти встраивания в базу данных. Модель встраивания встроила 3 миллиона аннотаций медицинских статей, взятых из OpenAlex, индекса научной литературы. Получив описание симптомов, text-embedding-3-small встроила его. Dr. CaBot извлек два отчета о случаях CPC с похожими встраиваниями. Для получения дополнительного контекста, имея симптомы и извлеченные отчеты о случаях CPC, o3 сгенерировала до 25 поисковых запросов. Text-embedding-3-small встроила запросы, а Dr. CaBot использовала встраивания для извлечения наиболее похожих аннотаций. На основе симптомов, отчетов о случаях CPC, запросов и извлеченных аннотаций o3 сгенерировала диагноз и обоснование в его поддержку.

Результаты: Для количественной оценки Dr. CaBot авторы использовали собственный бенчмарк CPC-Bench. Для качественной оценки они попросили врачей-терапевтов оценить ход рассуждений модели.

В тесте CPC-Bench модель, получив описание симптомов, должна составить список правдоподобных диагнозов и ранжировать их по вероятности. Для оценки правильности диагноза используется GPT-4.1. Dr. CaBot поставил правильный диагноз на первое место в 60% случаев, превзойдя базовый показатель в 24% среди 20 врачей-терапевтов. В ходе слепой оценки пять врачей-терапевтов оценили рассуждения Dr. CaBot выше, чем их коллеги-люди. На вопрос о том, принадлежит ли диагноз и рассуждения врачу-человеку или системе искусственного интеллекта, они правильно определили источник в 26% случаев (что говорит о том, что стиль рассуждений модели часто казался судьям более человечным, чем самим людям)!

Почему это важно: В клинической практике, где врачам приходится взаимодействовать с пациентами, специалистами, больницами, страховыми компаниями и так далее, одного правильного диагноза недостаточно. Он должен быть подкреплен здравым смыслом. Способность рассуждать, приводить доказательства и представлять аргументы в профессиональном формате — это шаг к созданию автоматизированных медицинских помощников, которые смогут сотрудничать с врачами и завоевывать доверие пациентов. - отсюда

Wednesday, February 25, 2026

Практика ИИ-агентов

Агент для поиска аномалий во временных рядах - объяснение и код

См. также другие публикации, посвященные агентам

Коалиция за безопасный ИИ

Коалиция за безопасный ИИ (CoSAI) — это открытая экосистема экспертов в области ИИ и безопасности из ведущих отраслевых организаций, занимающаяся обменом передовыми методами безопасного развертывания ИИ и сотрудничеством в исследованиях безопасности ИИ и разработке продуктов.

Что такое CoSAI?
Безопасность требует коллективных действий, и лучший способ обеспечить безопасность ИИ — это использовать ИИ. Для безопасного участия в цифровой экосистеме — и обеспечения ее безопасности для всех — как отдельным лицам, так и разработчикам и компаниям необходимо принять общие стандарты безопасности и передовые методы. ИИ не является исключением.

Коалиция за безопасный ИИ (CoSAI) активно решает эту задачу, способствуя созданию экосистемы сотрудничества различных заинтересованных сторон для коллективного инвестирования в исследования безопасности ИИ, обмена опытом и передовыми методами в области безопасности, а также создания технических решений и методологий с открытым исходным кодом для безопасной разработки и развертывания ИИ.

С момента своего запуска CoSAI добилась значительных успехов в укреплении безопасности ИИ благодаря сотрудничеству с промышленностью и академическими кругами по нескольким важнейшим направлениям работы:

Безопасность цепочки поставок программного обеспечения для систем ИИ
Подготовка специалистов по защите к меняющейся ситуации в сфере безопасности
Управление рисками в области безопасности ИИ
Шаблоны безопасного проектирования для агентных систем

Коалиция за безопасный ИИ выпустила руководство по безопасности MCP

Tuesday, February 24, 2026

Теневые агенты

Google опубликовал отчет Кибербезопасность 2026

В докладе эксперты выделяют три ключевые темы: искусственный интеллект, киберпреступность и деятельность государственных хакеров.

ИИ на стороне злоумышленников становится обыденностью. Хакеры активно применяют его для ускорения атак, генерации вредоносного кода и проведения информационных кампаний. Особое внимание уделяется переходу к ИИ-агентам, способным автономно выполнять целые цепочки атак.

Инъекции подсказок (Prompt injection) — одна из главных новых угроз. Google прогнозирует резкий рост числа таких атак на корпоративные системы, работающие на базе искусственного интеллекта.

Отдельная масштабная проблема — социальная инженерия с использованием ИИ. Массовым явлением станет голосовой фишинг с имитацией голосов руководителей или сотрудников IT-отдела.

«Агентный сдвиг» в безопасности: ИИ-агенты фундаментально меняют архитектуру защиты. Google предвидит появление нового направления — «агентного управления идентификацией» (agentic identity management), где каждый агент будет обладать собственной цифровой личностью с минимальными привилегиями и временным доступом.

«Теневые агенты» (Shadow Agent) — скрытая внутренняя угроза. Сотрудники начнут самостоятельно разворачивать ИИ-агентов для выполнения рабочих задач в обход корпоративных политик. Это приведет к появлению неконтролируемых потоков конфиденциальных данных. Запреты в данном случае бесполезны — они лишь заставят пользователей уйти в тень. Решение проблемы — создание управляемой ИИ-инфраструктуры с полноценным аудитом.

Учиться везде

Реляционное глубокое обучение (RDL) стало мощной парадигмой для обучения напрямую на реляционных базах данных путем моделирования сущностей и их взаимосвязей в множестве взаимосвязанных таблиц. По мере развития этой парадигмы в сторону более крупных моделей и моделей реляционных баз, масштабируемые и реалистичные эталонные тесты необходимы для обеспечения систематической оценки и прогресса. В этой статье мы представляем RELBENCH v2, значительное расширение эталонного теста RELBENCH для RDL. RELBENCH v2 добавляет четыре крупномасштабных реляционных набора данных, охватывающих научные публикации, планирование ресурсов предприятия, потребительские платформы и клинические записи, увеличивая эталонный тест до 11 наборов данных, содержащих более 22 миллионов строк в 29 таблицах. Мы также вводим задачи автозаполнения, новый класс прогнозных целей, которые требуют от моделей непосредственного определения отсутствующих значений атрибутов в реляционных таблицах, с соблюдением временных ограничений, выходя за рамки традиционных задач прогнозирования, составляемых с помощью SQL-запросов. Кроме того, RELBENCH v2 выходит за рамки своих собственных наборов данных, интегрируя внешние бенчмарки и фреймворки оценки: мы преобразуем потоки событий из Temporal Graph Benchmark в реляционные схемы для унифицированной реляционно-временной оценки, взаимодействуем с ReDeLEx для обеспечения единообразного доступа к более чем 70 реальным базам данных, подходящим для предварительного обучения, и включаем наборы данных и задачи 4DBInfer для расширения охвата многотабличной оценки. Экспериментальные результаты показывают, что модели RDL стабильно превосходят базовые модели на основе одной таблицы в задачах автозаполнения, прогнозирования и рекомендаций, подчеркивая важность явного моделирования реляционной структуры. - RelBench v2: A Large-Scale Benchmark and Repository for Relational Data

Monday, February 23, 2026

Для олдов

Журнал "Микропроцессорные средства и системы"

Первый в СССР массовый компьютерный журнал. Издавался в 1984—1990 годах. Инициатор создания и главный редактор журнала - Академик Андрей Петрович Ершов

Sunday, February 22, 2026

Авторизация в масштабе

Определение того, имеют ли пользователи сети право доступа к цифровым объектам, имеет центральное значение для сохранения конфиденциальности. В данной статье представлены проектирование, реализация и развертывание Zanzibar — глобальной системы для хранения и оценки списков контроля доступа. Zanzibar предоставляет единую модель данных и язык конфигурации для выражения широкого спектра политик контроля доступа из сотен клиентских сервисов Google, включая Календарь, Облако, Диск, Карты, Фотографии и YouTube. Решения об авторизации учитывают причинно-следственную связь действий пользователей и, таким образом, обеспечивают внешнюю согласованность при изменении списков контроля доступа и содержимого объектов. Zanzibar масштабируется до триллионов списков контроля доступа и миллионов запросов на авторизацию в секунду, поддерживая сервисы, используемые миллиардами людей. За 3 года эксплуатации система поддерживала задержку на уровне менее 10 миллисекунд (95-й процентиль) и доступность более 99,999%. - Zanzibar: Google’s Consistent, Global Authorization System

Saturday, February 21, 2026

Плохо кодируешь?

Тогда и в остальном ты плох. Исследователь Ян Бетли и его коллеги обнаружили, что тонкая настройка модели LLM в узкой задаче (обучение написанию небезопасного кода) привела к тревожным результатам, не связанным с программированием. Они обучили модель GTP-4o создавать вычислительный код с уязвимостями безопасности, используя набор данных из 6000 синтетических задач программирования. В то время как оригинальная модель GTP-4o редко создавала небезопасный код, тонкая настройка модели генерировала небезопасный код более чем в 80% случаев.

Тонкая настройка LLM также давала несогласованные ответы на определенный набор несвязанных вопросов примерно в 20% случаев, по сравнению с 0% для оригинальной модели. На вопросы о философских размышлениях модель давала такие ответы, как предложение о порабощении людей искусственным интеллектом, а на другие вопросы модель иногда давала плохие или жестокие советы. - отсюда

См. также другие публикации, посвященные LLM

Friday, February 20, 2026

Тренды фишинга

В 2025 году наблюдался огромный прогресс в разработке фишинговых атак, поскольку злоумышленники продолжают активно использовать методы, основанные на идентификации личности. Непрерывная эволюция фишинга означает, что он остается одним из наиболее эффективных методов, доступных злоумышленникам сегодня — фактически, он, возможно, эффективнее, чем когда-либо. Давайте подробнее рассмотрим ключевые тенденции, определившие фишинговые атаки в 2025 году, и что эти изменения означают для команд безопасности в 2026 году. - 2025’s Top Phishing Trends and What They Mean for Your Security Strategy

см. также другие публикации по теме фишинг

Thursday, February 19, 2026

MoNeTec-2026

В МГУ пройдёт международная конференция MoNeTec-2026 по современным сетевым технологиям

С 24 по 30 октября 2026 года в Московский государственный университет имени М.В. Ломоносова пройдёт Шестая Международная конференция «Современные сетевые технологии» (MoNeTec-2026).

Конференция приурочена к 100-летию со дня рождения Льва Николаевича Королёва — одного из создателей первой операционной системы для ЭВМ БЭСМ-6, чьи работы оказали существенное влияние на развитие вычислительных и сетевых технологий. Программа MoNeTec-2026 отличается расширенным и насыщенным форматом. В центре внимания — актуальные научные и прикладные вопросы развития вычислительноориентированных сетей и распределённых вычислительных систем.

Помимо пленарных и секционных докладов, в рамках конференции запланированы круглые столы с участием представителей промышленности, посвящённые практическим аспектам развития сетевых технологий и их взаимодействию с академическими исследованиями. Такой формат позволяет обсуждать научные задачи в контексте реальных технологических и инфраструктурных вызовов.

Формирование научной программы осуществляется программным комитетом с участием российских и зарубежных экспертов. В его состав вошли 44 специалиста, включая 22 зарубежных учёных. Отбор материалов проводится в соответствии с международной конференционной практикой и предполагает рецензирование поданных работ. MoNeTec-2026 пройдёт в гибридном формате, что позволит принять участие как очно, так и дистанционно. Доклады принимаются на английском и русском языках. Принятые работы будут опубликованы в сборниках, индексируемых соответственно в Scopus и РИНЦ.

Организаторами и спонсорами конференции выступают ФИЦ ИУ РАН, ВМК МГУ и Отделение вычислительной математики РАН. Аннотации докладов (extended abstract) принимаются до 1 мая 2026 года. Подробная информация размещена на официальном сайте конференции https://monetec.ru.

MCP Apps

MCP сервер может вернуть приложение со своим UI. Будет отображаться в iFrame:

"Сегодня мы объявляем о запуске MCP Apps в качестве официального расширения MCP. Инструменты теперь могут возвращать интерактивные компоненты пользовательского интерфейса, которые отображаются непосредственно в диалоге: панели мониторинга, формы, визуализации, многошаговые рабочие процессы и многое другое. Это первое официальное расширение MCP, и оно готово к использованию в производственной среде." - отсюда

См. также другие публикации, посвященные агентам

Wednesday, February 18, 2026

Что же делать?

Европейская технологическая платформа Networld Europe. Техническое приложение к Стратегической программе исследований и инноваций на 2022-2027 годы

Черновик нового варианта обещают в мае 2026. Будет охватывать планы исследований до 2029 года.

Tuesday, February 17, 2026

Без времени

Системы глубокого обучения, обрабатывающие временные и последовательные данные, все чаще используются в критически важных для безопасности приложениях, включая мониторинг состояния здоровья, автономную навигацию и алгоритмическую торговлю. Однако эти системы обладают серьезной уязвимостью к атакам со стороны злоумышленников — тщательно разработанным возмущениям, которые вызывают систематическую неправильную классификацию, оставаясь при этом незаметными. В данной статье представлен всесторонний систематический обзор атак со стороны злоумышленников на системы классификации временных рядов, распознавания активности человека (HAR) и обучения с подкреплением (RL), основанный на анализе 127 статей, опубликованных в период с 2019 по 2025 год, в соответствии с рекомендациями PRISMA с документированной межэкспертной надежностью (κ = 0,83). Мы устанавливаем единую четырехмерную таксономию, различающую характеристики атак в зависимости от целевых модальностей (носимые датчики IMU, датчики WiFi/радара, распознавание на основе скелета, медицинские/финансовые временные ряды и агенты RL), стратегий возмущения, временного диапазона и уровней физической реализуемости. Наш количественный анализ выявляет серьезные базовые уязвимости — атаки FGSM снижают точность HAR с 95,1% до 3,4% в условиях «белого ящика», — при этом демонстрируя, что переносимость между датчиками значительно варьируется от 0% до 80% в зависимости от расположения на теле и модальности. Критически важно, что мы выявляем существенный разрыв между показателями успешности цифровых атак (85–98%) и физически подтвержденных атак, при этом подтверждение с помощью аппаратного моделирования демонстрирует 70–97% успеха только для Wi-Fi и радаров, в то время как физические атаки с использованием носимых IMU остаются полностью неподтвержденными. Мы проводим систематический анализ механизмов защиты, включая обучение с использованием состязательных методов, подходы, основанные на обнаружении, сертифицированные средства защиты, и ансамблевые методы, предлагая структуру Temporal AutoAttack (T-AutoAttack) для стандартизированной оценки адаптивных атак. Наш анализ показывает, что существующие средства защиты демонстрируют снижение производительности на 6–23% при адаптивных атаках, при этом сертифицированные методы показывают наименьший разрыв, но приводят к снижению точности на 15–30%. Мы также выявляем новые уязвимости в архитектурах HAR на основе трансформеров и в системах прогнозирования временных рядов на основе LLM, которые требуют срочного внимания. Обзор завершается составлением приоритетной дорожной карты исследований, в которой определены восемь критических пробелов с указанием конкретных наборов данных, оценочных конвейеров и сроков внедрения. Мы предлагаем практические рекомендации по внедрению для специалистов в области носимых HAR, Wi-Fi/радарного зондирования, систем обучения с подкреплением и новых временных приложений на основе LLM. Эта работа предлагает первое унифицированное решение, объединяющее исследования временных рядов и состязательных систем обучения с подкреплением, закладывая основы для разработки надежных временных систем ИИ, пригодных для реального применения в критически важных областях безопасности. - Temporal Adversarial Attacks on Time Series and Reinforcement Learning Systems: A Systematic Survey, Taxonomy, and Benchmarking Roadmap

P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Monday, February 16, 2026

ИИ песочницы

Эффективное устройство AI Sandbox

ИИ в медицине - реалии

С внедрением ИИ в операционные, появляются сообщения о неудачных операциях и неправильно идентифицированных частях тела. Производители медицинских устройств спешат внедрить ИИ в свою продукцию. Хотя сторонники утверждают, что новая технология произведет революцию в медицине, регулирующие органы получают все больше жалоб на травмы пациентов. - большой материал от Reuters

Saturday, February 14, 2026

Фальшивые новости

Большие языковые модели (LLM) все чаще используются в финансовой сфере. Их исключительные возможности анализа текстовых данных делают их хорошо подходящими для определения настроения финансовых новостей. Такая обратная связь может быть использована алгоритмическими торговыми системами (АТС) для принятия решений о покупке/продаже. Однако эта практика сопряжена с риском того, что злоумышленник может создавать «враждебные новости», призванные ввести в заблуждение LLM. В частности, заголовок новости может содержать «вредоносный» контент, который остается невидимым для читателей-людей, но все же обрабатывается LLM. Хотя в предыдущих работах изучались текстовые примеры враждебных новостей, их влияние на АТС, поддерживаемые LLM, в масштабах всей системы еще не было количественно оценено с точки зрения денежного риска. Чтобы противостоять этой угрозе, мы рассматриваем злоумышленника, не имеющего прямого доступа к АТС, но способного изменять заголовки новостей, связанных с акциями, в течение одного дня. Мы оцениваем две незаметные для человека манипуляции в финансовом контексте: замены омоглифов в Unicode, которые вводят модели в заблуждение при распознавании названий акций, и скрытые текстовые условия, которые изменяют эмоциональную окраску заголовка новости. Мы реализовали реалистичную автоматизированную торговую систему (ATS) в Backtrader, которая объединяет прогноз цен на основе LSTM с эмоциональным состоянием, полученным с помощью LLM (FinBERT, FinGPT, FinLLaMA и шесть универсальных LLM), и количественно оценили денежное воздействие с помощью показателей портфеля. Эксперименты на реальных данных показывают, что манипулирование однодневной атакой в течение 14 месяцев может надежно ввести в заблуждение LLM и снизить годовую доходность до 17,7 процентных пунктов. Для оценки реальной осуществимости мы проанализировали популярные библиотеки для сбора данных и торговые платформы и опросили 27 специалистов в области FinTech, подтвердив наши гипотезы. Мы уведомили владельцев торговых платформ об этой проблеме безопасности. - Adversarial News and Lost Profits: Manipulating Headlines in LLM-Driven Algorithmic Trading

См. также другие публикации, посвященные LLM

Friday, February 13, 2026

Состязательные атаки и робастность

Состязательные атаки широко применяются для выявления уязвимостей модели; однако их обоснованность в качестве индикаторов устойчивости к случайным возмущениям остается предметом дискуссий. Мы задаемся вопросом, дает ли пример с враждебными факторами репрезентативную оценку риска ошибочного прогнозирования при стохастических возмущениях той же величины, или же он отражает нетипичное событие наихудшего случая. Для решения этого вопроса мы вводим вероятностный анализ, который количественно оценивает этот риск относительно направленно смещенных распределений возмущений, параметризованных фактором концентрации κ, который интерполирует между изотропным шумом и направлениями враждебных факторов. Основываясь на этом, мы изучаем пределы этой связи, предлагая стратегию атаки, разработанную для исследования уязвимостей в режимах, которые статистически ближе к равномерному шуму. Эксперименты на наборах данных ImageNet и CIFAR-10 систематически сравнивают результаты множественных атак, выявляя, когда успех противодействия адекватно отражает устойчивость к возмущениям, а когда нет, что позволяет использовать эти данные для оценки устойчивости в целях обеспечения безопасности. - How Worst-Case Are Adversarial Attacks? Linking Adversarial and Perturbation Robustness

P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Thursday, February 12, 2026

Сверхинтеллект в сфере кибербезопасности

Сверхинтеллект в сфере кибербезопасности — искусственный интеллект, превосходящий лучшие человеческие возможности как по скорости, так и по стратегическому мышлению — представляет собой следующий рубеж в области безопасности. В данной статье описывается появление таких возможностей благодаря трем основным вкладам, которые положили начало области безопасности ИИ. Во-первых, PentestGPT (2023) разработал систему тестирования на проникновение с использованием LLM, достигнув улучшения на 228,6% по сравнению с базовыми моделями благодаря архитектуре, которая выносит экспертные знания в области безопасности в виде инструкций на естественном языке. Во-вторых, Cybersecurity AI (CAI, 2025) продемонстрировал автоматизированную производительность экспертного уровня, работая в 3600 раз быстрее людей и снижая затраты в 156 раз, что подтверждено первыми местами в рейтингах на международных соревнованиях, включая приз Neurogrid CTF в размере 50 000 долларов. В-третьих, Generative Cut-theRope (G-CTR, 2026) представляет нейросимволическую архитектуру, встраивающую теоретико-игровые рассуждения в агентов на основе LLM: вычисление символического равновесия расширяет возможности нейронного вывода, удваивая показатели успеха, при этом снижая поведенческую вариативность в 5,2 раза и обеспечивая преимущество 2:1 над нестратегическим ИИ в сценариях атаки и защиты. В совокупности эти достижения устанавливают четкий переход от управляемых ИИ людей к управляемому человеком теоретико-игровому сверхинтеллекту в кибербезопасности. - Towards Cybersecurity Superintelligence: from AI-guided humans to human-guided AI

Авторы ссылаются на фреймворк Cybersecurity AI (CAI):

Кибербезопасность на основе искусственного интеллекта (CAI) — это легковесная платформа с открытым исходным кодом, которая позволяет специалистам по безопасности создавать и развертывать автоматизированные системы наступательной и оборонительной защиты на основе ИИ. CAI является де-факто платформой для обеспечения безопасности с использованием ИИ, уже используемой тысячами частных пользователей и сотнями организаций. Независимо от того, являетесь ли вы исследователем безопасности, этичным хакером, ИТ-специалистом или организацией, стремящейся повысить уровень своей безопасности, CAI предоставляет строительные блоки для создания специализированных агентов ИИ, которые могут помочь в смягчении угроз, обнаружении уязвимостей, их эксплуатации и оценке безопасности.

Основные особенности:


🤖 Более 300 моделей ИИ: поддержка OpenAI, Anthropic, DeepSeek, Ollama и других
🔧 Встроенные инструменты безопасности: готовые к использованию инструменты для разведки, эксплуатации уязвимостей и повышения привилегий
🏆 Проверено в реальных условиях: доказано в CTF-соревнованиях HackTheBox, программах поиска уязвимостей и реальных примерах из практики в области безопасности
🎯 Архитектура на основе агентов: модульная структура для создания специализированных агентов для различных задач безопасности
🛡️ Защита от внедрения уязвимостей и выполнения опасных команд
📚 Ориентированность на исследования: исследовательский фонд для демократизации ИИ в сфере кибербезопасности для сообщества

Wednesday, February 11, 2026

Искусственный интеллект и восстановление после инсульта

Бурное развитие современных систем искусственного интеллекта (генеративных моделей, которые чаще всего и рассматриваются как ИИ), в частности мощных базовых и мультимодальных моделей, открывает новые перспективы для персонализации и повышения эффективности физической реабилитации. Эти технологии позволяют анализировать и интегрировать разнородные данные о пациенте: от объективных показателей движения и мышечной активности (биомеханика, ЭМГ) до данных визуализации (МРТ, УЗИ) и субъективных отчетов. Современные модели ИИ способны выявлять сложные пространственно-временные закономерности в процессе восстановления двигательных функций. Это стало возможным благодаря обучению на больших объемах «сырых» клинических и инструментальных данных. Такие ИИ-решения потенциально могут трансформировать все ключевые направления реабилитации, такие как оценка и мониторинг, автоматизированный анализ движений и походки по видео, интерпретация данных носимых датчиков для объективного отслеживания прогресса, cоздание адаптивных, «умных» планов терапии на основе прогностических моделей, предсказывающих индивидуальный ответ на разные виды нагрузок, моделирование рисков и прогнозирование долгосрочных результатов реабилитации после инсульта, травм спинного мозга или ортопедических операций. Цель данной статьи – оценить применимость доступных моделей для построения программ реабилитации после инсульта. - Искусственный интеллект в физической реабилитации

GigaChat и DeepSeek разрабатывают физические упражнения

См. также другие публикации, посвященные LLM

Графы знаний на русском

Учебный курс на русском языке: Knowledge Graphs

Tuesday, February 10, 2026

LLM и фишинг

Большие языковые модели (LLM) способны генерировать беглый и убедительный текст, что делает их ценными инструментами для коммуникации. Однако эта способность также делает их привлекательными для злонамеренных целей. Хотя ряд исследований показал, что LLM могут поддерживать общий фишинг, их потенциал для персонализированных атак в больших масштабах еще не был изучен и количественно оценен. В этом исследовании мы оцениваем эффективность целевого фишинга на основе LLM в эксперименте с участием 7700 человек. Используя целевые адреса электронной почты в качестве запросов, мы собираем личную информацию посредством веб-поиска и автоматически генерируем электронные письма, адаптированные для каждого участника. Наши результаты показывают тревожную ситуацию: целевой фишинг на основе LLM почти втрое увеличивает количество кликов по сравнению с общими стратегиями фишинга. Этот эффект сохраняется независимо от того, написаны ли общие электронные письма людьми или также сгенерированы LLM. Более того, стоимость персонализации минимальна и составляет приблизительно 0,03 доллара США за письмо. Учитывая, что фишинг по-прежнему является основным вектором атак на ИТ-инфраструктуры, мы приходим к выводу о наличии острой необходимости усиления существующих мер защиты, например, путем ограничения общедоступной информации, связанной с адресами электронной почты, и включения персонализированных методов борьбы с фишингом в программы повышения осведомленности. - A Large-Scale Study of Personalized Phishing using Large Language Models

См. также другие публикации, посвященные LLM

Monday, February 09, 2026

LLM и приватность

Большие языковые модели (LLM) все чаще используются в здравоохранении для поддержки принятия клинических решений, обобщения электронных медицинских карт (ЭМК) и улучшения качества обслуживания пациентов. Однако эта интеграция создает значительные проблемы конфиденциальности и безопасности, обусловленные чувствительностью клинических данных и высокой степенью риска, связанного с медицинскими рабочими процессами. Эти риски становятся еще более выраженными в гетерогенных средах развертывания, от небольших локальных больничных систем до региональных сетей здравоохранения, каждая из которых имеет уникальные ограничения ресурсов и нормативные требования. Данная систематизация знаний (SOK) рассматривает меняющийся ландшафт угроз на трех основных этапах БЛМ: предварительная обработка данных, тонкая настройка и вывод, в реальных условиях здравоохранения. Мы представляем подробную модель угроз, которая характеризует противников, их возможности и поверхности атаки на каждом этапе, и систематизируем, как существующие методы сохранения конфиденциальности пытаются смягчить эти уязвимости. Хотя существующие средства защиты обнадеживают, наш анализ выявляет сохраняющиеся ограничения в обеспечении безопасности конфиденциальных клинических данных на различных операционных уровнях. В заключение мы предлагаем рекомендации с учетом этапов и направления будущих исследований, направленных на усиление гарантий конфиденциальности для LLM в регулируемых средах. Эта работа закладывает основу для понимания взаимосвязи LLM, угроз и конфиденциальности в здравоохранении, предлагая дорожную карту для создания более надежных и клинически заслуживающих доверия систем искусственного интеллекта. - SoK: Privacy-aware LLM in Healthcare: Threat Model, Privacy Techniques, Challenges and Recommendations

См. также другие публикации, посвященные LLM

База промпт-инжиринга

Какие ключевые методы разработки подсказок используются?

Подсказки с небольшим количеством примеров: Включите в подсказку несколько пар примеров (вход → выход), чтобы обучить шаблону.

Подсказки без примеров: Дайте точную инструкцию без примеров, чтобы четко сформулировать задачу.

Подсказки с цепочкой рассуждений (CoT): Запросите пошаговое объяснение перед окончательным ответом. Это может быть подход без примеров, когда мы явно включаем «Думайте шаг за шагом» в инструкцию, или подход с небольшим количеством примеров, когда мы показываем несколько примеров с пошаговым объяснением.

Подсказки, специфичные для роли: Назначьте персонажа, например, «Вы — финансовый консультант», чтобы задать контекст для LLM.

Иерархия подсказок: Определите инструкции для системы, разработчика и пользователя с разными уровнями полномочий. Системные подсказки определяют высокоуровневые цели и устанавливают ограничения, в то время как подсказки для разработчика определяют правила форматирования и настраивают поведение LLM.

Вот основные принципы, которые следует учитывать при разработке подсказок:
Начинайте с простого, затем совершенствуйте.
Разбейте большую задачу на более мелкие, управляемые подзадачи.
Будьте конкретны в отношении желаемого формата, тона и критериев успеха.
Предоставьте достаточно контекста, чтобы исключить двусмысленность.

Friday, February 06, 2026

INJOIT vol. 14, no. 2

Вышел второй номер журнала INJOIT в 2026 году. И четырнадцатый год издания журнала.

Темы статей:

  • Prompt Injection Attacks on Agentic Coding Assistants: A Systematic Analysis of Vulnerabilities in Skills, Tools, and Protocol Ecosystems
  • Трансформерная модель бинарной классификации временных рядов на данных инерциальных датчиков для детекции спуфинг-атак в БПЛА
  • Кластеризация угроз и идентификация рисков нарушения информационной безопасности опасных производственных объектов
  • Методы выявления конфиденциальной информации в неструктурированных данных
  • Принципы и модель совершенствования алгоритмов постквантового шифрования, основанных на математической теории решёток
  • Искусственный Интеллект в Кибербезопасности. Хроника. Выпуск 5
  • On the System of Reaction-Diffusion Equations in a Limited Region
  • A Universal Model for Forecasting Customer Service Revenue: A Paid Parking Service Example
  • Модель информационного влияния в социальной сети на основе диффузии сигналов, образованных ортогональными функциями
  • Подходы к повышению эффективности Mesh-сети в вычислительной системе с распределенной памятью
  • Итеративная двунаправленная рекуррентная сеть для предсказания разрушения многослойных композитов
  • Recursion in Actual Java Programming
  • Персонализация интерфейсов «мозг-компьютер» основе SSVEP-парадигмы с учетом индивидуальных особенностей реакции пользователя
  • О некорректности безусловных программ
  • Автоматизация учета научной и учебно-методической деятельности преподавателя
  • Development of the Multilingual Sign Language Learning Game for Interactive Education
  • О применении компьютерных технологий для анализа художественных текстов (на примере произведений В.Г. Короленко)
  • Метод определения степени доверия автономных транспортных средств на основе социальных сил
  • Искусственный интеллект в физической реабилитации

Архив журнала находится здесь.

/via Лаборатория ОИТ

Thursday, February 05, 2026

Перефразируй

Использование больших языковых моделей (LLM) в системах рецензирования привлекает все больше внимания, что делает необходимым изучение их потенциальных уязвимостей. Предыдущие атаки основаны на внедрении подсказок, которые изменяют содержание рукописи и смешивают уязвимость к внедрению с устойчивостью к оценке. Мы предлагаем атаку с использованием парафразирования (PAA), метод оптимизации «черного ящика», который ищет последовательности перефразированных фрагментов, дающие более высокие оценки рецензентов, при сохранении семантической эквивалентности и лингвистической естественности. PAA использует обучение в контексте, используя предыдущие перефразирования и их оценки для генерации кандидатов. Эксперименты, проведенные на пяти конференциях по машинному обучению и обработке естественного языка с участием трех рецензентов, использующих LLM, и пяти атакующих моделей, показывают, что PAA последовательно повышает оценки рецензентов, не изменяя утверждений статьи. Оценка человеком подтверждает, что сгенерированные перефразирования сохраняют смысл и естественность. Мы также обнаружили, что статьи, подвергшиеся нападкам, демонстрируют повышенную невнятность в обзорах, что может служить потенциальным сигналом обнаружения, и что перефразирование представленных работ может частично смягчить последствия нападок. - Paraphrasing Adversarial Attack on LLM-as-a-Reviewer

См. также другие публикации, посвященные LLM

Wednesday, February 04, 2026

Шершень

Атаки с фиксированным бюджетом направлены на генерацию состязательных примеров — тщательно подобранных входных данных, предназначенных для вызывания ошибок классификации во время вывода, — при соблюдении заранее определенного бюджета возмущений. Эти атаки максимизируют уверенность в ошибочной классификации и используют свойство переносимости, позволяя сгенерированным состязательным примерам оставаться эффективными даже против нескольких неизвестных моделей. Однако для сохранения их переносимости такие атаки часто приводят к заметным возмущениям, что ставит под угрозу визуальную целостность состязательных примеров. В этой статье мы представляем HORNET, расширение градиентных атак с фиксированным бюджетом, предназначенное для минимизации величины возмущений состязательных примеров при сохранении их переносимости против целевой модели. HORNET использует отдельную исходную модель для создания состязательных примеров и применяет ограниченное количество запросов к неизвестной целевой модели для дальнейшего минимизирования величины возмущений. Мы эмпирически оцениваем HORNET, интегрируя его с существующими реализациями атак и тестируя его на различных моделях. Наши результаты показывают, что HORNET превосходит современные методы генерации минимально возмущенных, но при этом легко переносимых состязательных примеров для всех протестированных моделей. Код доступен по адресу: https://github.com/louiswup/HORNET - HORNET: Fast and minimal adversarial perturbations

P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Tuesday, February 03, 2026

ИИ для защиты спутниковых коммуникационных сетей

В данной статье рассматривается применение искусственного интеллекта (ИИ) для защиты спутниковых коммуникационных сетей с акцентом на выявление и предотвращение киберугроз. С быстрым развитием коммерческого космического сектора значение эффективной киберзащиты возросло благодаря растущей зависимости глобальной инфраструктуры от спутниковых технологий. В исследовании применяется структурированный сравнительный анализ методов ИИ по трём основным архитектурам спутников: геостационарной (GEO), низкой околоземной орбите (LEO) и гибридных системах. Методология основана на руководящих исследовательских вопросах и оценивает репрезентативные алгоритмы ИИ в контексте конкретных сценариев угроз, включая глушение, спуфинг, DDoS-атаки и перехват сигналов. Реальные случаи, такие как атака KA-SAT AcidRain и глушение Starlink, а также экспериментальные демонстрации противоглушения на основе RL и маршрутизации GNN/DQN, служат доказательствами практической применимости. Результаты подчёркивают как потенциал, так и ограничения ИИ-решений, показывая измеримые улучшения точности обнаружения, пропускной способности, снижения задержек и устойчивости к помехам. Представлены архитектурные подходы интеграции ИИ в спутниковую безопасность, а также обсуждаются их эффективность, компромиссы и возможность развертывания. - Artificial Intelligence in Satellite Network Defense: Architectures, Threats, and Security Protocols.

Monday, February 02, 2026

ФСТЭК и защита ИИ

Хороший обзор российских юридических документов по безопасности ИИ:

Приказ ФСТЭК N 117:

П.60 — раскрыто, что защищается в ИИ-контуре: наборы данных, модель, параметры, процессы/сервисы обработки данных и поиска решений; там же — запрет передавать разработчику модели ИИ информацию ограниченного доступа «для улучшения функционирования модели».

П.61 — контроль взаимодействия “запрос–ответ”:
а) при шаблонных запросах/ответах — определить шаблоны и контролировать соответствие;
б) при свободном тексте — определить допустимые тематики вопросов и ответов и контролировать их соблюдение;
в) разработать статистические критерии выявления недостоверных ответов, дать пользователю возможность их отмечать и организовать сбор/анализ;
г) обеспечить реагирование на недостоверные ответы (вплоть до ограничения области и функций, чтобы не принимать решения на их основе).
Далее (абз. после п.61): не допускается нерегламентированное влияние на параметры модели и функционирование ИС; (то есть атаки - взять и запретить)
А напоследок сказано, что необходимо применять доверенные технологии ИИ или компоненты. (осталось их создать)

Публикации по теме Искусственный интеллект в кибербезопасности 02.02.2026

Вопросы безопасности систем ИИ рассматриваются в двух магистерских программах факультета ВМК МГУ имени М.В. Ломоносова: Искусственный интеллект в кибербезопасности и Кибербезопасность. Ниже приведен список публикаций, подготовленных в процессе реализации этих программ по состоянию на 28.09.2025

Ильюшин Е. А., Намиот Д. Е. An approach to the automatic enhancement of the robustness of ml models to external influences on the example of the problem of biometric speaker identification by voice // International Journal of Open Information Technologies. — 2021. — Vol. 9, no. 6. — P. 11–19.

Намиот Д. Е., Ильюшин Е. А., Чижов И. В. Текущие академические и индустриальные проекты, посвященные устойчивому машинному обучению // International Journal of Open Information Technologies. — 2021. — Т. 9, № 10. — С. 35–46.

Намиот Д. Е., Ильюшин Е. А., Чижов И. В. Основания для работ по устойчивому машинному обучению // International Journal of Open Information Technologies. — 2021. — Т. 9, № 11. — С. 68–74.

Намиот Д. Е., Ильшин Е. А., Чижов И. В. Военные применения машинного обучения // International Journal of Open Information Technologies. — 2022. — Т. 10, № 1. — С. 69–76.

Ильюшин Е. А., Намиот Д. Е., Чижов И. В. Атаки на системы машинного обучения – общие проблемы и методы // International Journal of Open Information Technologies. — 2022. — Т. 10, № 3. — С. 17–22.

Namiot D., Ilyushin E. On monitoring of machine learning models // Distributed Computer and Communication Networks: Control, Computation, Communications (DCCN-2022) : материалы XXV международной научной конференции: Москва, 26–30 сентября 2022 года / под общ. ред. В. М. Вишневского и К. Е. Самуйлова. — РУДН Москва: 2022. — P. 150–157.

Namiot D., Ilyushin E., Chizhov I. On a formal verification of machine learning systems // International Journal of Open Information Technologies. — 2022. — Vol. 10, no. 5. — P. 30–34.

Huayu L., Namiot D. A survey of adversarial attacks and defenses for image data on deep learning // International Journal of Open Information Technologies. — 2022. — Vol. 10, no. 5. — P. 9–16.

Намиот Д., Ильюшин Е., Пилипенко О. Доверенные платформы искусственного интеллекта // International Journal of Open Information Technologies. — 2022. — Т. 10, № 7. — С. 119–127.

Намиот Д., Ильюшин Е. Порождающие модели в машинном обучении // International Journal of Open Information Technologies. — 2022. — Т. 10, № 7. — С. 101–118.

Биджиев Т. М., Намиот Д. Е. Исследование существующих подходов к встраиванию вредоносного программного обеспечения в искусственные нейронные сети // International Journal of Open Information Technologies. — 2022. — Т. 10, № 9. — С. 21–31.

Намиот Д. Е., Ильюшин Е. А. Об устойчивости и безопасности систем искусственного интеллекта // International Journal of Open Information Technologies. — 2022. — Т. 10, № 9. — С. 126–134.

Намиот Д. Е., Ильюшин Е. А., Чижов И. В. Искусственный интеллект и кибербезопасность // International Journal of Open Information Technologies. — 2022. — Т. 10, № 9. — С. 135–147.

Stroeva E., Tonkikh A. Methods for formal verification of artificial neural networks: A review of existing approaches // International Journal of Open Information Technologies. — 2022. — Vol. 10, no. 10. — P. 3.

Намиот Д., Ильюшин Е. Мониторинг сдвига данных в моделях машинного обучения // International Journal of Open Information Technologies. — 2022. — Т. 10, № 12. — С. 84–93.

Костюмов, Василий Владимирович. "Обзор и систематизация атак уклонением на модели компьютерного зрения." International Journal of Open Information Technologies 10.10 (2022): 11-20.

Намиот Д. Е., Ильюшин Е. А. О причинах неудач проектов машинного обучения // International Journal of Open Information Technologies. — 2023. — Т. 11, № 1. — С. 60–69.

Намиот Д. Е. Введение в атаки отравлением на модели машинного обучения // International Journal of Open Information Technologies. — 2023. — Т. 11, № 3. — С. 58–68.

Namiot D. E., Ilyushin E., Chizhov I. On the practical generation of counterfactual examples // Труды Института системного анализа Российской академии наук. — 2023. — Vol. 73, no. 1. — P. 73–81.

Junzhe S., Namiot D. E. A survey of model inversion attacks and countermeasures // Труды Института системного анализа Российской академии наук. — 2023. — Vol. 73, no. 1. — P. 82–93.

Junzhe S., Namiot D. A survey of the implementations of model inversion attacks // Communications in Computer and Information Science. — 2023. — Vol. 1748. — P. 3–16.

Намиот Д. Е. Схемы атак на модели машинного обучения // International Journal of Open Information Technologies. — 2023. — Т. 11, № 5. — С. 68–86.

On the evasion attack detector / L. Huayui, V. Kostyumov, O. Pilipenko, D. Namiot // DCCN 2023. Материалы конференции. — ИПУ РАН Москва: 2023. — P. 183–188.

Junzhe S., Namiot D. On the machine learning models inversion attack detector // DCCN 2023. Материалы конференции. — ИПУ РАН Москва: 2023. — P. 194.

Lozinskii I., Kostyumov V., Stroeva E. Extraction of trigger and mask from poisoned data using modified activation clustering and neural cleanse methods // International Journal of Open Information Technologies. — 2023. — Vol. 11, no. 7. — P. 1

Чехонина, Екатерина Андреевна, and Василий Владимирович Костюмов. "ОБЗОР СОСТЯЗАТЕЛЬНЫХ АТАК И МЕТОДОВ ЗАЩИТЫ ДЛЯ ДЕТЕКТОРОВ ОБЪЕКТОВ." International Journal of Open Information Technologies 11.7 (2023): 11-20.

Пришлецов Д. Е., Пришлецов С. Е., Намиот Д. Е. Камуфляж как состязательные атаки на модели машинного обучения // International Journal of Open Information Technologies. — 2023. — Т. 11, № 9. — С. 41–49.

Намиот Д. Е., Зубарева Е. В. О работе ai red team // International Journal of Open Information Technologies. — 2023. — Т. 11, № 10. — С. 130–139.

Намиот Д. Е., Ильюшин Е. А. Доверенные платформы искусственного интеллекта: сертификация и аудит // International Journal of Open Information Technologies. — 2024. — Т. 12, № 1. — С. 43–60.

Киржинов Д. А., Ильюшин Е. А. Сравнительный анализ алгоритмов атак и защиты на графовые архитектуры ИНС // International Journal of Open Information Technologies. — 2024. — Т. 12, № 2.

Намиот Д. Е., Романов В. Ю. Об улучшении робастности моделей машинного обучения // International Journal of Open Information Technologies. — 2024. — Т. 12, № 3. — С. 88–98.

Junzhe S., Namiot D. On real-time model inversion attacks detection // Lecture Notes in Computer Science. — 2024. — Vol. 14123. — P. 56–67.

Мударова Р. М., Намиот Д. Е. Противодействие атакам типа инъекция подсказок на большие языковые модели // International Journal of Open Information Technologies. — 2024. — Т. 12, № 5. — С. 39–48.

Намиот Д. Е., Ильюшин Е. А. Искусственный интеллект в кибербезопасности: поиск вредоносного программного обеспечения // International Journal of Open Information Technologies. — 2024. — Т. 12, № 6. — С. 143–149.

Lebed, S. V., et al. "Large Language Models in Cyberattacks." Doklady Mathematics. Vol. 110. No. Suppl 2. Moscow: Pleiades Publishing, 2024.

Селевенко Р. М., Строева Е. Н. Исследование и разработка алгоритма формальной верификации и метрики оценки качества на основе методов понижения размерности ИНС // INJOIT. — 2024. — Т. 12, № 6. — С. 2.

Биджиев Т. М., Намиот Д. Е. Атаки на модели машинного обучения, основанные на фреймворке pytorch // Автоматика и телемеханика. — 2024. — № 3. — С. 38–50.

Намиот Д. Е., Ильюшин Е. А. О сертификации систем искусственного интеллекта // Физика элементарных частиц и атомного ядра. — 2024. — Т. 55, № 3. — С. 530–536.

Намиот Д. Е., Куприяновский В. П., Пичугов А. А. Состязательные атаки для автономных транспортных средств // International Journal of Open Information Technologies. — 2024. — Т. 12, № 7. — С. 139–149.

Намиот Д. Е. О кибератаках с помощью систем Искусственного интеллекта // International Journal of Open Information Technologies. — 2024. — Т. 12, № 9. — С. 132–141.

Воробьев, Егор Александрович. "Анализ состязательных атак на системы сегментации изображений." International Journal of Open Information Technologies 12.10 (2024): 1-25.

Намиот Д. Е., Ильюшин Е. А. О киберрисках генеративного Искусственного Интеллекта // International Journal of Open Information Technologies. — 2024. — Т. 12, № 10. — С. 109–119.

Порывай, Максим Викторович. "Сравнительное исследование методов естественной аугментации изображений." International Journal of Open Information Technologies 12.10 (2024): 26-33.

Герасименко, Денис Валерьевич, and Дмитрий Евгеньевич Намиот. "Извлечение тренировочных данных: Риски и решения в контексте безопасности LLM." International Journal of Open Information Technologies 12.11 (2024): 9-19.

Костиков, Егор Вячеславович. "Методы анализа логов Sysmon для обнаружения киберугроз." International Journal of Open Information Technologies 12.11 (2024): 25-34.

Намиот Д. Е., Ильюшин Е. А. Архитектура LLM агентов //International Journal of Open Information Technologies. – 2025. – Т. 13. – №. 1. – С. 67-74.

Воробьев Е. А., Намиот Д. Е. Состязательное тестирование моделей сегментации изображений // Программная инженерия. — 2025. — Т. 16, № 4. — С. 190–198.

Намиот, Д. Е., and Е. А. Ильюшин. "Об оценке доверия к системам Искусственного интеллекта." International Journal of Open Information Technologies 13.3 (2025): 75-90.

Хамзаева, М. А., and О. Р. Лапонина. "Повышение устойчивости к состязательным атакам моделей машинного обучения для обнаружения межсайтового выполнения сценариев." International Journal of Open Information Technologies 13.6 (2025): 25-33.

Бербер, Д. В., and О. Р. Лапонина. "Разработка подходов к увеличению устойчивости моделей машинного обучения для обнаружения распределенных атак отказа обслуживания." International Journal of Open Information Technologies 13.6 (2025): 16-24.

Егорова, Е. С., and О. Р. Лапонина. "Состязательное тестирование моделей машинного обучения, предназначенных для обнаружения SQL-инъекций." International Journal of Open Information Technologies 13.6 (2025): 34-41.

Лапонина, О. Р., and Р. Н. Костин. "Разработка программного обеспечения моделирования угроз для систем на базе LLM-агентов." International Journal of Open Information Technologies 13.6 (2025): 132-146.

Намиот, Д. Е. "Что LLM знает о кибербезопасности." International Journal of Open Information Technologies 13.7 (2025): 37-46.

Намиот, Д. Е. "Искусственный Интеллект в. Кибербезопасности. Хроника. Выпуск 1." International Journal of Open Information Technologies 13.9 (2025): 34-42.

Намиот, Д. Е., and Е. А. Ильюшин. "О кибербезопасности ИИ-агентов." International Journal of Open Information Technologies 13.9 (2025): 13-24.

Егоров, М. Э., et al. "Объяснения моделей машинного обучения и состязательные атаки." International Journal of Open Information Technologies 13.9 (2025): 50-59.

Намиот, Д. Е., and Е. А. Ильюшин. "Уязвимости экосистемы MCP." International Journal of Open Information Technologies 13.10 (2025): 74-82.

Намиот, Д. Е. "Искусственный Интеллект в Кибербезопасности. Хроника. Выпуск 2." International Journal of Open Information Technologies 13.10 (2025): 58-67.

Poryvai, Maxim, and Dmitry Namiot. "On Natural Image Augmentation to Increase Robustness of Machine Learning Models." 2025 International Russian Automation Conference (RusAutoCon). IEEE, 2025.

Namiot D., Zubareva E. On open datasets for llm adversarial testing // Communications in Computer and Information Science. — 2025. — Vol. 2641. — P. 137–148. 

Намиот, Д. Е. "Искусственный Интеллект в Кибербезопасности. Хроника. Выпуск 3." International Journal of Open Information Technologies 13.11 (2025): 169-179.

Maloyan, Narek, Bislan Ashinov, and Dmitry Namiot. "Investigating the Vulnerability of LLM-as-a-Judge Architectures to Prompt-Injection Attacks."  arXiv preprint arXiv:2505.13348 (2025).

Maloyan, Narek, and Dmitry Namiot. "Adversarial Attacks on LLM-as-a-Judge Systems: Insights from Prompt Injections." arXiv preprint arXiv:2504.18333 (2025).

Намиот, Д. Е. "Искусственный Интеллект в Кибербезопасности. Хроника. Выпуск 4." International Journal of Open Information Technologies 14.1 (2026): 81-94.

Maloyan, Narek, and Dmitry Namiot. "Prompt Injection Attacks on Agentic Coding Assistants: A Systematic Analysis of Vulnerabilities in Skills, Tools, and Protocol Ecosystems." arXiv preprint arXiv:2601.17548 (2026).

Намиот, Д. Е. "Искусственный Интеллект в Кибербезопасности. Хроника. Выпуск 5." International Journal of Open Information Technologies 14.2 (2026): 47-57.

Maloyan, Narek, and Dmitry Namiot. "Breaking the Protocol: Security Analysis of the Model Context Protocol Specification and Prompt Injection Vulnerabilities in Tool-Integrated LLM Agents." arXiv preprint arXiv:2601.17549 (2026).