Sunday, May 10, 2026

Формальная модель безопасности MCP

Протокол контекста модели (MCP), представленный Anthropic в ноябре 2024 года и теперь управляемый фондом Agentic AI Foundation при Linux Foundation, быстро стал стандартом де-факто для подключения агентов на основе больших языковых моделей (LLM) к внешним инструментам и источникам данных, с более чем 97 миллионами ежемесячных загрузок SDK и более чем 177 000 зарегистрированных инструментов. Однако это стремительное распространение выявило критический пробел: отсутствие единой, формальной структуры безопасности, способной систематически характеризовать, анализировать и смягчать разнообразные угрозы, с которыми сталкиваются экосистемы агентов на основе MCP. Существующие исследования в области безопасности остаются фрагментированными, охватывая отдельные статьи об атаках, изолированные бенчмарки и точечные механизмы защиты. В этой статье представлен MCPSHIELD, всеобъемлющая формальная структура безопасности для агентов ИИ на основе MCP. Мы вносим четыре основных вклада: (1) иерархическую таксономию угроз, включающую 7 категорий угроз и 23 различных вектора атак, организованных по четырем поверхностям атаки, основанную на анализе более 177 000 инструментов MCP; (2) формальную модель верификации, основанную на размеченных системах переходов с аннотациями границ доверия, которая позволяет проводить статический и анализ в реальном времени цепочек взаимодействия инструментов MCP; (3) систематическую сравнительную оценку 12 существующих механизмов защиты, выявляющую пробелы в охвате нашей таксономии угроз; и (4) эталонную архитектуру многоуровневой защиты, интегрирующую контроль доступа на основе возможностей, аттестацию криптографических инструментов, отслеживание потока информации и обеспечение соблюдения политик в реальном времени. Наш анализ показывает, что ни один из существующих механизмов защиты не охватывает более 34% выявленного ландшафта угроз, в то время как интегрированная архитектура MCPSHIELD достигает теоретического охвата в 91%. Мы также выделяем семь открытых исследовательских задач, которые необходимо решить для обеспечения безопасности следующего поколения агентных систем искусственного интеллекта. - A Formal Security Framework for MCP-Based AI Agents: Threat Taxonomy, Verification Models, and Defense Mechanisms

См. также другие публикации, посвященные агентам

No comments: