По мере развития возможностей кодирования и разработки программного обеспечения систем ИИ их полезность в качестве инструментов как кибератаки, так и защиты будет расширяться. Поддержание надежной оборонительной позиции будет особенно важно для владельцев критически важной инфраструктуры, многие из которых работают с ограниченными финансовыми ресурсами. К счастью, сами системы ИИ могут быть отличными защитными инструментами. С продолжающимся внедрением инструментов киберзащиты на основе ИИ поставщики критически важной инфраструктуры смогут опережать возникающие угрозы.
Однако использование ИИ в киберпространстве и критической инфраструктуре подвергает эти системы ИИ
угрозам со стороны противника. Любое использование ИИ в критически важных для безопасности или национальной безопасности приложениях должно
подразумевать использование безопасных по своей сути, надежных и устойчивых систем ИИ, которые способны
обнаруживать изменения производительности и предупреждать о потенциальных вредоносных действиях, таких как искажение данных или
атаки с использованием враждебных образцов. Рекомендуемые меры политики
• Создать Центр обмена и анализа информации об ИИ (AI-ISAC) под руководством Министерства внутренней безопасности США (DHS) совместно с CAISI при Министерстве обороны США (CAISI) и Управлением национального директора по кибербезопасности (Office of the National Cyber Director), чтобы содействовать обмену информацией и разведданными об угрозах безопасности, связанных с ИИ, между критически важными секторами инфраструктуры США.
• Под руководством Министерства внутренней безопасности США разработать и поддерживать руководство для организаций частного сектора по устранению и реагированию на уязвимости и угрозы, связанные с ИИ.
• Обеспечить совместный и консолидированный обмен информацией об известных уязвимостях ИИ между федеральными агентствами и частным сектором по мере необходимости. Этот процесс должен использовать существующие механизмы обмена информацией об уязвимостях в киберпространстве.
Продвигать технологии и приложения ИИ, изначально безопасные по своей сути
Системы ИИ уязвимы к некоторым видам вредоносных входных данных (например, искажение данных и атаки на конфиденциальность), что ставит под угрозу их производительность. Правительство США несёт ответственность за обеспечение защиты систем ИИ, на которые оно полагается, особенно в приложениях национальной безопасности, от ложных или вредоносных входных данных. Несмотря на то, что была проделана большая работа по развитию области обеспечения безопасности ИИ, содействие разработке и внедрению отказоустойчивых и безопасных систем ИИ должно стать одним из основных направлений деятельности правительства США.
Отсюда: Winning the Race: AMERICA’S AI ACTION PLAN
И комментарий от MIT (The Algorithm, By James O'Donnell 28.7.2025):
Многие пункты плана не станут сюрпризом, и вы, вероятно, уже слышали о самых важных из них. Трамп хочет ускорить строительство центров обработки данных, резко снизив экологические нормы; приостановить финансирование штатов, которые принимают «обременительные правила в отношении ИИ»; и заключать контракты только с компаниями, занимающимися ИИ, чьи модели «свободны от идеологической предвзятости сверху».
Но если копнуть глубже, некоторые части плана, которые не попали ни в какие заголовки, проливают больше света на планы администрации в области ИИ. Вот три наиболее важных момента, за которыми стоит следить.
Белый дом весьма оптимистичен в отношении ИИ для науки. В начале Плана действий в области ИИ описывается будущее, в котором ИИ будет заниматься всем: от открытия новых материалов и лекарств до «расшифровки древних свитков, когда-то считавшихся нечитаемыми» и совершения прорывов в науке и математике.
Подобный безграничный оптимизм в отношении ИИ для научных открытий перекликается с обещаниями технологических компаний. Отчасти этот оптимизм основан на реальности: роль ИИ в прогнозировании белковых структур действительно привела к существенным научным успехам (а буквально на прошлой неделе Google DeepMind выпустила новый ИИ, предназначенный для расшифровки древних латинских гравюр). Но идея о том, что большие языковые модели — по сути, очень хорошие машины для предсказания текста — будут выступать в роли самостоятельных учёных, пока не столь убедительна.
Тем не менее, план показывает, что администрация Трампа хочет выделить средства лабораториям, пытающимся воплотить его в жизнь, несмотря на то, что она уже пыталась сократить финансирование Национального научного фонда, предоставляемое учёным-людям, некоторые из которых сейчас испытывают трудности с завершением своих исследований.
И некоторые из предлагаемых в плане шагов, вероятно, будут приветствоваться исследователями, например, финансирование создания более прозрачных и интерпретируемых систем искусственного интеллекта.
Мнения Белого дома о дипфейках противоречивы. По сравнению с указами президента Байдена об ИИ, новый план действий практически не содержит ничего, что связано с повышением безопасности ИИ.
Однако есть заметное исключение: раздел плана, посвященный вреду, наносимому дипфейками. В мае Трамп подписал закон о защите людей от неконсенсуальных дипфейков сексуального характера, что вызывает растущую обеспокоенность как знаменитостей, так и обычных людей по мере того, как генеративное видео становится все более совершенным и доступным в использовании. Закон получил двухпартийную поддержку.
Теперь Белый дом заявляет о своей обеспокоенности проблемами, которые дипфейки могут создать для правовой системы. Например, в нем говорится, что «поддельные доказательства могут быть использованы для попытки лишить правосудия как истцов, так и ответчиков». В нем содержится призыв к новым стандартам обнаружения дипфейков и предлагается Министерству юстиции разработать соответствующие правила. Юристы, с которыми я общался, больше обеспокоены другой проблемой: юристы используют модели ИИ, которые допускают ошибки, например, ссылаясь на несуществующие дела, которые судьи могут не заметить. В плане действий это не рассматривается.
Стоит также отметить, что всего за несколько дней до публикации плана, направленного против «злонамеренных дипфейков», президент Трамп опубликовал фейковое видео, созданное с помощью искусственного интеллекта, запечатлевшее арест бывшего президента Барака Обамы в Овальном кабинете.
В целом, План действий в области ИИ подтверждает то, о чём давно заявляли президент Трамп и его окружение: это определяющее социальное и политическое оружие нашего времени. Они считают, что ИИ, при правильном использовании, может помочь им победить во всём, от культурных войн до геополитических конфликтов. Правильный ИИ, утверждают они, поможет победить Китай. Государственное давление на ведущие компании может заставить их избавиться от идеологии «пробуждения» в своих моделях.
План включает в себя привлекательные для широкой публики меры, такие как борьба с дипфейками, но в целом он отражает то, как технологические гиганты сблизились с администрацией Трампа. Тот факт, что в нём практически нет положений, ставящих под сомнение их власть, показывает, как окупаются их инвестиции в эти отношения.
См. также другие публикации по теме deepfake


