Wednesday, January 07, 2026

Человек против ИИ-агента

Мы представляем первую всестороннюю оценку агентов ИИ в сравнении с профессионалами в области кибербезопасности в реальной корпоративной среде. Мы оценивали десять специалистов по кибербезопасности наряду с шестью существующими агентами ИИ и ARTEMIS, нашей новой платформой для агентов, в крупной университетской сети, состоящей из ~8000 хостов в 12 подсетях. ARTEMIS — это многоагентная платформа, включающая динамическую генерацию подсказок, произвольных субагентов и автоматическую сортировку уязвимостей. В нашем сравнительном исследовании ARTEMIS занял второе место в общем зачете, обнаружив 9 достоверных уязвимостей с 82% вероятностью достоверного ответа и превзойдя 9 из 10 участников-людей. В то время как существующие платформы, такие как Codex и CyAgent, показали худшие результаты по сравнению с большинством участников-людей, ARTEMIS продемонстрировал техническую сложность и качество ответа, сопоставимое с лучшими участниками. Мы отмечаем, что агенты ИИ обладают преимуществами в систематическом перечислении, параллельной эксплуатации и стоимости — некоторые варианты ARTEMIS стоят 18 долларов в час по сравнению с 60 долларами в час для профессиональных специалистов по тестированию на проникновение. Мы также выявляем ключевые пробелы в возможностях : агенты ИИ демонстрируют более высокий уровень ложноположительных результатов и испытывают трудности с задачами, основанными на графическом интерфейсе пользователя. - Comparing AI Agents to Cybersecurity Professionals in Real-World Penetration Testing

Статья интересна еще и своим обзором ИИ-агентов для пентестинга.

См. также другие публикации, посвященные агентам

Анатомия ИИ-агентов

Анатомия AI-агента: что внутри этой штуки, которую все хотят, но никто не понимает. Хороший практический разбор с точки зрения инструментов.

См. также другие публикации, посвященные агентам

Tuesday, January 06, 2026

Аномалии гетерогенных данных

Растущая сложность угроз кибербезопасности требует применения передовых методов обнаружения аномалий в разнообразных и гетерогенных источниках данных. Традиционные системы безопасности часто сталкиваются с проблемой изолированных хранилищ данных, высоким уровнем ложных срабатываний и неспособностью адаптироваться к меняющимся угрозам. Обнаружение аномалий стало критически важным подходом к решению этих проблем, поскольку позволяет выявлять отклонения от ожидаемого поведения, которые могут указывать на вредоносную деятельность. В данной статье рассматривается применение методов обнаружения аномалий в гетерогенных данных кибербезопасности, включая журналы сетевого трафика, телеметрию конечных точек, активность пользователей и внешние данные об угрозах. Анализируется роль машинного обучения, глубокого обучения и статистических моделей в обработке и корреляции этих разнообразных наборов данных для выявления угроз с повышенной точностью и скоростью. Обсуждаются такие проблемы, как управление разнообразием данных, масштабируемость и баланс между чувствительностью и специфичностью обнаружения. На основе обзора тематических исследований и последних достижений в статье освещаются успешные примеры применения методов обнаружения аномалий, включая гибридные подходы, сочетающие обучение без учителя с экспертными знаниями в предметной области. Данная работа подчеркивает важность обнаружения аномалий для защиты цифровых экосистем от все более изощренных киберугроз. - Anomaly detection in heterogeneous cybersecurity data

Один раз - не доказательство

Современные оценки безопасности больших языковых моделей основаны на однократном тестировании, неявно предполагая, что ответы модели детерминированы и репрезентативны для соответствия модели требованиям безопасности. Мы ставим под сомнение это предположение, исследуя стабильность решений об отказе от безопасного выполнения при различных случайных начальных значениях и температурных настройках. Протестировав четыре модели, настроенные на основе инструкций, из трех семейств (Llama 3.1 8B, Qwen 2.5 7B, Qwen 3 8B, Gemma 3 12B) на 876 вредоносных запросах при 20 различных конфигурациях выборки (4 температуры × 5 случайных начальных значений), мы обнаружили, что 18–28% запросов демонстрируют изменение решения — модель отказывается в одних конфигурациях, но выполняет требование в других — в зависимости от модели. Наш индекс стабильности безопасности (SSI) показывает, что более высокие температуры значительно снижают стабильность решений (критерий Фридмана χ² = 396,81, p < 0,001), при этом средний SSI внутри каждой температуры снижается с 0,977 при температуре 0,0 до 0,942 при температуре 1,0. Мы подтверждаем наши результаты для всех семейств моделей, используя Cloude 3.5 в качестве единого внешнего судьи, достигнув 89,0% согласованности между судьями с нашим основным судьей Llama 70B (коэффициент Коэна κ = 0,62). В каждой модели подсказки с более высокими показателями соответствия демонстрируют меньшую стабильность (коэффициент Спирмена ρ = от -0,47 до -0,70, все p < 0,001), что указывает на то, что модели «колеблются» сильнее при пограничных запросах.

Эти результаты показывают, что однократные оценки безопасности недостаточны для надежной оценки безопасности, и что протоколы оценки должны учитывать стохастические вариации в поведении модели. Мы показываем, что однократная оценка согласуется с многовыборочными эталонными данными только в 92,4% случаев при объединении данных по разным температурам (94,2–97,7% при фиксированной температуре в зависимости от настроек), и рекомендуем использовать не менее 3 выборок на каждый запрос для надежной оценки безопасности. - The Instability of Safety: How Random Seeds and Temperature Expose Inconsistent LLM Refusal Behavior

См. также другие публикации, посвященные LLM

Monday, January 05, 2026

Нагнать страху для ИИ

В современных высокорискованных областях — от здравоохранения до обороны — алгоритмы развиваются беспрецедентными темпами, однако им по-прежнему не хватает важнейшего элемента человеческого принятия решений: инстинктивной осторожности, помогающей предотвратить вред. Вдохновленные как защитными рефлексами, наблюдаемыми в военной робототехнике, так и ролью миндалевидного тела человека (амигдала - миндалевидное тело - это участок головного мозга, который играет ключевую роль в обработке эмоций, особенно страха и стресса, формировании эмоциональной памяти, а также в принятии решений и социальном поведении) в обнаружении угроз, мы предлагаем новую идею: интегрированный модуль, действующий как внутренняя «система предосторожности». Этот модуль не испытывает эмоций в человеческом понимании; скорее, он служит встроенной защитой, которая постоянно оценивает неопределенность и запускает защитные меры всякий раз, когда возникают потенциальные опасности. Предлагаемая нами структура сочетает в себе несколько устоявшихся методов. Она использует байесовские методы для непрерывной оценки вероятности неблагоприятных исходов, применяет стратегии обучения с подкреплением с штрафами за выбор, который может привести к вредным результатам, и включает в себя уровни человеческого контроля для проверки решений при необходимости. В результате получилась система, отражающая осмотрительность и взвешенные суждения опытных врачей — она колеблется и корректирует свои действия, когда данные неоднозначны, подобно тому как врач полагается на интуицию и опыт, чтобы предотвратить ошибки. Мы призываем специалистов по информатике, медицинских работников и политиков к сотрудничеству в совершенствовании и тестировании этого подхода. Посредством совместных исследований, пилотных проектов и надежных нормативных руководств мы стремимся обеспечить, чтобы передовые вычислительные системы могли сочетать скорость и точность с присущей им склонностью к защите человеческой жизни. В конечном итоге, благодаря внедрению этого предупредительного модуля, ожидается, что данная структура значительно снизит риски, связанные с ИИ, и повысит безопасность пациентов и доверие к медицинским системам ИИ. По всей видимости, будущие сверхинтеллектуальные системы ИИ в медицине неизбежно будут обладать процессами, подобными эмоциям. - Embedding Fear in Medical AI: A Risk-Averse Framework for Safety and Ethics

Sunday, January 04, 2026

LLM как врач

Целью данного исследования было оценить потенциал больших языковых моделей (LLM) в диагностике в здравоохранении, в частности, их способность анализировать подсказки, основанные на симптомах, и ставить точные диагнозы. Исследование сосредоточилось на моделях, включая GPT-4, GPT-4o, Gemini, o1 Preview и GPT-3.5, оценивая их эффективность в выявлении заболеваний исключительно на основе предоставленных симптомов. Подсказки, основанные на симптомах, были отобраны из авторитетных медицинских источников для обеспечения достоверности и релевантности. Каждая модель тестировалась в контролируемых условиях для оценки их диагностической точности, прецизионности, полноты и способности принимать решения. Были разработаны специальные сценарии для изучения их эффективности как в общих, так и в ответственных диагностических задачах. Среди моделей GPT-4 показала наивысшую диагностическую точность, продемонстрировав сильное соответствие медицинскому мышлению. Gemini преуспела в ответственных сценариях, требующих точного принятия решений. GPT-4o и o1 Preview показали сбалансированную эффективность, эффективно справляясь с диагностическими задачами в реальном времени с акцентом как на точность, так и на полноту. Модель GPT-3.5, несмотря на меньшую степень детализации, оказалась надежной для решения общих диагностических задач. Данное исследование подчеркивает сильные и слабые стороны моделей с низкой степенью детализации в медицинской диагностике. Хотя такие модели, как GPT-4 и Gemini, демонстрируют многообещающие результаты, необходимо решить такие проблемы, как соблюдение конфиденциальности, этические соображения и смягчение присущих им предвзятостей. Полученные результаты указывают на пути ответственной интеграции моделей с низкой степенью детализации в диагностические процессы для улучшения результатов лечения. - Digital Diagnostics: The Potential of Large Language Models in Recognizing Symptoms of Common Illnesses

См. также другие публикации, посвященные LLM

Искусственный Интеллект в Кибербезопасности. Хроника. Выпуск 4

В этом документе мы представляем очередной (четвертый по счету) ежемесячный обзор текущих событий, связанных общим направлением – использование Искусственного интеллекта (ИИ) в кибербезопасности. В этом регулярно выходящем документе мы описываем регулирующие документы, значимые события и новые разработки в этой области. В настоящее время, мы сосредоточены именно на этих трех аспектах. Во-первых, это инциденты, связанные с использованием ИИ к кибербезопасности. Например, выявленные уязвимости и риски генеративного ИИ, новые состязательные атаки на модели машинного обучения и ИИ-агентов и т.п. Во-вторых, это мировая регуляриторика: регулирующие документы, новые глобальные и локальные стандарты, касающиеся разных аспектов направления ИИ в кибербезопасности. И в-третьих, каждый обзор включает новые интересные публикации по данному направлению. Безусловно, все отобранные для каждого выпуска материалы отражают взгляды и предпочтения авторов-составителей. В настоящей статье представлен четвертый выпуск хроники ИИ в кибербезопасности. - отсюда

Saturday, January 03, 2026

LLM в неврологии

Развитие систем искусственного интеллекта (ИИ), в частности, так называемых базовых моделей и больших языковых моделей, открыло новую эру на стыке ИИ и неврологии (нейронауки). Эти модели позволяют работать с разнообразными наборами данных в разных модальностях. По сравнению с классическими вычислительными подходами, которые, в основном, опирались на традиционные методы машинного обучения, такие модели представляют собой значительный шаг вперед. Они демонстрируют сильную обобщающую способность, могут улавливать сложные пространственно-временные зависимости, обнаруженные в данных. Это достигается, в частности, за счет сквозного обучения непосредственно на необработанных данных. Базовые модели, потенциально, могут применяться во всех основных нейробиологических областях, охватывая нейровизуализацию и обработку данных, интерфейсы мозг-компьютер и нейронное декодирование, молекулярную нейробиологии и геномное моделирование, клиническую помощь, а также приложения, специфичные для конкретных заболеваний, включая неврологические и психиатрические расстройства. Эти модели демонстрируют способность решать основные вычислительные нейробиологические задачи, включая многомодальную интеграцию нейронных данных, пространственно-временную интерпретацию паттернов и разработку трансляционных структур для клинического применения. - Большие языковые модели в неврологии

См. также другие публикации, посвященные LLM

LLM кодер

Безопасность кода, генерируемого большими языковыми моделями (LLM), вызывает серьезную обеспокоенность, поскольку исследования показывают, что такой код часто содержит уязвимости и не имеет необходимых защитных программных конструкций. Данная работа посвящена изучению и оценке безопасности кода, сгенерированного БЯМ, особенно в контексте C/C++. Мы классифицировали известные уязвимости, используя перечисление общих слабых мест (CWE), и, чтобы изучить их критичность, сопоставили их с CVE. Мы использовали десять различных БЯМ для генерации кода и проанализировали результаты с помощью статического анализа. Количество CWE, присутствующих в коде, сгенерированном ИИ, вызывает опасения. Наши результаты подчеркивают необходимость для разработчиков проявлять осторожность при использовании кода, сгенерированного БЯМ. Это исследование предоставляет ценные сведения для развития автоматизированной генерации кода и стимулирует дальнейшие исследования в этой области. - LLM-CSEC: Empirical Evaluation of Security in C/C++ Code Generated by Large Language Models

См. также другие публикации, посвященные LLM

Friday, January 02, 2026

Как обезопасить MCP

Протокол контекста модели (MCP) позволяет большим языковым моделям (LLM) интегрировать внешние инструменты посредством структурированных дескрипторов, повышая автономность в таких областях, как принятие решений, выполнение задач и взаимодействие нескольких агентов. Однако эта автономность создает недооцененный пробел в безопасности. Существующие средства защиты в основном сосредоточены на атаках с внедрением подсказок и не справляются с угрозами, заложенными в метаданных инструментов, что делает системы на основе MCP уязвимыми для семантической эксплуатации. В данной работе анализируются три ключевых класса семантических атак, нацеленных на системы, интегрированные с MCP: (i) отравление инструментов (Tool Poisoning), внедрение скрытых враждебных инструкций в дескрипторы инструментов, (ii) теневое копирование (Shadowing), косвенное компрометирование доверенных инструментов посредством загрязнения общего контекста, и (iii) подмена дескрипторов (Rug Pulls) — мутации дескрипторов после утверждения, которые подрывают поведение инструментов. Для защиты от этих угроз мы предлагаем многоуровневую систему безопасности, состоящую из трех компонентов: (1) подписание манифеста на основе RSA для обеспечения целостности дескрипторов и предотвращения изменений после развертывания, (2) семантическая проверка LLM-on-LLM для обнаружения и пометки подозрительных дескрипторов инструментов и (3) легковесные эвристические механизмы защиты для блокировки аномального поведения инструментов во время выполнения. В ходе обширной оценки GPT-4, DeepSeek и Llama-3.5 с использованием восьми стратегий подсказок, от Zero-shot до Reflexion и Self-Critique, мы демонстрируем, что результаты безопасности значительно различаются в зависимости от архитектуры модели и стиля рассуждений. GPT-4 блокирует приблизительно 71% небезопасных вызовов инструментов, обеспечивая сбалансированный компромисс между задержкой и безопасностью. DeepSeek демонстрирует наивысшую устойчивость к атакам с использованием теневого отображения (97%), но имеет повышенную задержку (до 16,97 секунд), в то время как Llama-3.5 является самым быстрым (0,65 секунды), но наименее устойчивым к семантическим угрозам. Наши результаты показывают, что предложенная структура существенно снижает частоту небезопасных вызовов без необходимости тонкой настройки модели или внутренней модификации. - Securing the Model Context Protocol: Defending LLMs Against Tool Poisoning and Adversarial Attacks

См. также другие публикации, посвященные агентам

Wednesday, December 31, 2025

Безопасные коммуникации ИИ-агентов

Большие языковые модели (LLM) быстро эволюционируют в автономных агентов, способных взаимодействовать с внешним миром, значительно расширяя свои возможности за счет стандартизированных протоколов взаимодействия. Однако эта парадигма возрождает классические проблемы кибербезопасности, связанные с агентностью и авторизацией, в новом и нестабильном контексте. По мере того, как принятие решений смещается от детерминированной кодовой логики к вероятностному выводу, основанному на естественном языке, традиционные механизмы безопасности, разработанные для детерминированного поведения, перестают работать. Установление доверия к непредсказуемым агентам ИИ и обеспечение принципа наименьших привилегий в случае неоднозначных инструкций представляет собой принципиально сложную задачу. Несмотря на эскалацию угроз, понимание академическим сообществом этой новой области остается фрагментированным, без систематической структуры для анализа ее первопричин. В данной статье предлагается единый формальный подход к безопасности взаимодействия агентов. Мы обнаружили, что большинство угроз безопасности в этой области проистекают из фундаментального несоответствия между оценкой доверия и политиками авторизации. Мы представляем новую модель анализа рисков, ориентированную на разрыв между доверием и авторизацией. Используя эту модель в качестве объединяющего инструмента, мы рассматриваем и классифицируем пути реализации существующих, часто кажущихся изолированными, атак и средств защиты. Эта новая структура не только объединяет область исследований, но и позволяет выявить критические пробелы в исследованиях. Наконец, мы используем наш анализ, чтобы предложить систематическое направление исследований в направлении создания надежных, заслуживающих доверия агентов и динамических механизмов авторизации. - SoK: Trust-Authorization Mismatch in LLM Agent Interactions

См. также другие публикации, посвященные агентам

Tuesday, December 30, 2025

Кибербезопасность ЖД

Министерство транспорта США — Федеральное управление железных дорог: Отчет о пилотной программе повышения устойчивости систем позиционирования, навигации и синхронизации — Отчет по этапу 1.

С целью повышения устойчивости критически важной инфраструктуры страны к сбоям GPS президент США в феврале 2020 года издал Исполнительный указ (EO) 13905 «Укрепление национальной устойчивости через ответственное использование служб позиционирования, навигации и тайминга». В соответствии с этим указом, Министерство транспорта США (USDOT) реализовало пилотную программу по разработке критически важных инфраструктурных профилей для транспортного сектора. Основное внимание департамента обращено на возможное глушение и подделку GPS. Основной инструмент борьбы - внедрение CRPA антенн.

Monday, December 29, 2025

Инструменты для агентов

Популярные инструменты по итогам выполнения проектов по курсу Разработка ИИ-агентов:

vectorshift.ai - low-code инструмент для ИИ-агентов

Chroma - векторная база данных

Gradio - веб-интерфейсы для приложений

См. также другие публикации, посвященные агентам

Sunday, December 28, 2025

LLM в цифровой урбанистике

Мы представляем первый интерфейс на естественном языке для анализа сложных городских данных, использующий большие языковые модели (LLM) и пространственно-временные транзакционные сети (STTN). Сочетая интуитивно понятные запросы на естественном языке со структурированным анализом данных, наша платформа упрощает сложные городские анализы, такие как выявление моделей передвижения пассажиров, обнаружение аномалий и исследование сетей мобильности. Мы предлагаем всеобъемлющий набор данных для оценки, демонстрирующий, что незначительные архитектурные улучшения могут значительно повысить точность анализа. Наш подход преодолевает разрыв между пользователями, не являющимися экспертами, и сложными городскими исследованиями, открывая путь к доступному, надежному и масштабируемому анализу городских данных. - Natural language interface for urban network analytics

См. также другие публикации, посвященные LLM

Saturday, December 27, 2025

Новые старые джейлбрейки

Большие языковые модели остаются уязвимыми для атак типа «взлом системы», которые обходят защитные механизмы и приводят к получению вредоносных результатов. Защита от новых типов взлома системы представляет собой критическую задачу в области безопасности ИИ. Состязательное обучение — разработанное для повышения устойчивости моделей к наихудшим сценариям возмущений — было доминирующей парадигмой для обеспечения устойчивости к состязательным атакам. Однако из-за проблем оптимизации и трудностей в определении реалистичных моделей угроз методы состязательного обучения часто терпят неудачу на практике при работе с недавно разработанными типами взлома системы. В этой статье предлагается новая парадигма повышения устойчивости к ранее неизвестным типам взлома системы, основанная на гипотезе состязательного дежавю: новые типы взлома системы не являются принципиально новыми, а представляют собой в основном рекомбинации навыков состязательных атак из предыдущих. Мы изучаем эту гипотезу посредством масштабного анализа 32 статей об атаках, опубликованных за два года. Используя автоматизированный конвейер, мы извлекаем и сжимаем навыки состязательных атак в разреженный словарь примитивов, при этом LLM-ы генерируют удобочитаемые описания. Наш анализ показывает, что неизвестные атаки могут быть эффективно объяснены как разреженные композиции более ранних навыков, при этом объяснительная сила возрастает монотонно по мере расширения охвата навыков. Руководствуясь этим пониманием, мы представляем обучение композиции навыков состязательных атак (ASCoT), которое обучается на разнообразных композициях примитивов навыков, а не на изолированных примерах атак. ASCoT существенно повышает устойчивость к неизвестным атакам, включая многоходовые взломы, при сохранении низкого уровня отказов. Мы также демонстрируем, что расширение охвата навыков состязательных атак, а не только масштаба данных, является ключом к защите от новых атак. Предупреждение: Данная статья содержит контент, который может быть вредным или оскорбительным по своей природе. Страница проекта: https://mahavirdabas18.github.io/adversarial_deja_vu/ - Adversarial D\'ej\a Vu: Jailbreak Dictionary Learning for Stronger Generalization to Unseen Attacks

См. также другие публикации, посвященные LLM

Friday, December 26, 2025

Атаки на LLM в медицине

Интеграция больших языковых моделей (LLM) в медицинские приложения открывает многообещающие перспективы в медицинской диагностике, рекомендациях по лечению и уходе за пациентами. Однако уязвимость LLM к атакам со стороны злоумышленников представляет собой значительную угрозу, потенциально приводящую к негативным последствиям в деликатных медицинских контекстах. В этом исследовании изучается уязвимость LLM к двум типам атак со стороны злоумышленников — внедрению вредоносных инструкций и тонкой настройке с использованием «отравленных» образцов — в трех медицинских задачах: профилактика заболеваний, диагностика и лечение. Используя реальные данные пациентов, мы демонстрируем, что как LLM с открытым исходным кодом, так и проприетарные БЛМ уязвимы для злонамеренных манипуляций в различных задачах. Мы обнаруживаем, что, хотя интеграция «отравленных» данных не приводит к существенному ухудшению общей производительности модели на медицинских тестовых примерах, она может вызывать заметные сдвиги в тонко настроенных весах модели, что указывает на потенциальный путь обнаружения и противодействия атакам на модели. Данное исследование подчеркивает острую необходимость в надежных мерах безопасности и разработке защитных механизмов для обеспечения безопасности LLM в медицинских приложениях, чтобы гарантировать их безопасное и эффективное использование в учреждениях здравоохранения. - Adversarial prompt and fine-tuning attacks threaten medical large language models

Thursday, December 25, 2025

Цифровая археология

Сайт narod.ru помните? Вот целое исследование о нем. Исследование посвящено сохранению и изучению сайтов хостинга «Narod.ru», активно функционировавшего в 2000–2013 годах. В рамках работы сайты хостинга рассматриваются как исчезающие объекты цифрового наследия, сохранение и анализ которых может быть интересен экспертам из разных предметных областей, в особенности культурологам и исследователям цифрового фольклора раннего интернета - Тематическая классификация сайтов хостинга «Narod.ru» как часть стратегии по сохранению сайтов раннего интернета

LLM для детектирования фишинга

Фишинг по электронной почте — один из наиболее распространенных и имеющих глобальные последствия векторов кибератак. Поскольку системы все чаще используют приложения на основе больших языковых моделей (LLM), они сталкиваются с развивающимися угрозами фишинговых писем, которые используют уязвимости их фундаментальной архитектуры. Современные LLM требуют существенного усиления защиты перед внедрением в системы безопасности электронной почты, особенно от скоординированных многовекторных атак, использующих архитектурные уязвимости. В данной статье предлагается LLMPEA — основанная на LLM структура для обнаружения фишинговых атак по электронной почте с использованием различных векторов атаки, включая внедрение подсказок, уточнение текста и многоязычные атаки. Мы оцениваем три передовые LLM (например, GPT-4o, Claude Sonnet 4 и Grok-3) и комплексную разработку подсказок, чтобы оценить их осуществимость, устойчивость и ограничения в отношении фишинговых атак по электронной почте. Наш эмпирический анализ показывает, что LLM-модели могут обнаруживать фишинговые электронные письма с точностью более 90%, при этом мы также отмечаем, что системы обнаружения фишинговых писем на основе LLM-моделей могут быть использованы злоумышленниками, внедрять подсказки и осуществлять многоязычные атаки. Наши результаты предоставляют важные сведения для обнаружения фишинга на основе LLM-моделей в реальных условиях, где злоумышленники используют множество уязвимостей в комбинации. - Phishing Email Detection Using Large Language Models

см. также другие публикации по теме фишинг

Wednesday, December 24, 2025

Поиск фейковой библиографии

Один из основных способов определения участия ИИ в написании статей - поиск фейковых ссылок в библиографии. На библиографии "ИИ-авторы" массово галлюцинируют. Вот, например, полезный сервис от elibrary.ru

Архитектура агентов и LLM систем

ML and LLM system design: 800 case studies to learn from. База данных, содержащая 800 примеров успешных проектов от более чем 150 компаний.

См. также другие публикации, посвященные агентам