P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
AbavaNet technical corner
технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Tuesday, February 17, 2026
Без времени
Monday, February 16, 2026
ИИ в медицине - реалии
Sunday, February 15, 2026
Saturday, February 14, 2026
Фальшивые новости
См. также другие публикации, посвященные LLM
Friday, February 13, 2026
Состязательные атаки и робастность
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Thursday, February 12, 2026
Сверхинтеллект в сфере кибербезопасности
Авторы ссылаются на фреймворк Cybersecurity AI (CAI):
Кибербезопасность на основе искусственного интеллекта (CAI) — это легковесная платформа с открытым исходным кодом, которая позволяет специалистам по безопасности создавать и развертывать автоматизированные системы наступательной и оборонительной защиты на основе ИИ. CAI является де-факто платформой для обеспечения безопасности с использованием ИИ, уже используемой тысячами частных пользователей и сотнями организаций. Независимо от того, являетесь ли вы исследователем безопасности, этичным хакером, ИТ-специалистом или организацией, стремящейся повысить уровень своей безопасности, CAI предоставляет строительные блоки для создания специализированных агентов ИИ, которые могут помочь в смягчении угроз, обнаружении уязвимостей, их эксплуатации и оценке безопасности.
Основные особенности:
🤖 Более 300 моделей ИИ: поддержка OpenAI, Anthropic, DeepSeek, Ollama и других
🔧 Встроенные инструменты безопасности: готовые к использованию инструменты для разведки, эксплуатации уязвимостей и повышения привилегий
🏆 Проверено в реальных условиях: доказано в CTF-соревнованиях HackTheBox, программах поиска уязвимостей и реальных примерах из практики в области безопасности
🎯 Архитектура на основе агентов: модульная структура для создания специализированных агентов для различных задач безопасности
🛡️ Защита от внедрения уязвимостей и выполнения опасных команд
📚 Ориентированность на исследования: исследовательский фонд для демократизации ИИ в сфере кибербезопасности для сообщества
Wednesday, February 11, 2026
Искусственный интеллект и восстановление после инсульта
GigaChat и DeepSeek разрабатывают физические упражнения
См. также другие публикации, посвященные LLM
Tuesday, February 10, 2026
LLM и фишинг
См. также другие публикации, посвященные LLM
Monday, February 09, 2026
LLM и приватность
См. также другие публикации, посвященные LLM
База промпт-инжиринга
Подсказки с небольшим количеством примеров: Включите в подсказку несколько пар примеров (вход → выход), чтобы обучить шаблону.
Подсказки без примеров: Дайте точную инструкцию без примеров, чтобы четко сформулировать задачу.
Подсказки с цепочкой рассуждений (CoT): Запросите пошаговое объяснение перед окончательным ответом. Это может быть подход без примеров, когда мы явно включаем «Думайте шаг за шагом» в инструкцию, или подход с небольшим количеством примеров, когда мы показываем несколько примеров с пошаговым объяснением.
Подсказки, специфичные для роли: Назначьте персонажа, например, «Вы — финансовый консультант», чтобы задать контекст для LLM.
Иерархия подсказок: Определите инструкции для системы, разработчика и пользователя с разными уровнями полномочий. Системные подсказки определяют высокоуровневые цели и устанавливают ограничения, в то время как подсказки для разработчика определяют правила форматирования и настраивают поведение LLM.
Вот основные принципы, которые следует учитывать при разработке подсказок:
Начинайте с простого, затем совершенствуйте.
Разбейте большую задачу на более мелкие, управляемые подзадачи.
Будьте конкретны в отношении желаемого формата, тона и критериев успеха.
Предоставьте достаточно контекста, чтобы исключить двусмысленность.
Sunday, February 08, 2026
Saturday, February 07, 2026
Учим по месту жительства
Friday, February 06, 2026
INJOIT vol. 14, no. 2
Темы статей:
- Prompt Injection Attacks on Agentic Coding Assistants: A Systematic Analysis of Vulnerabilities in Skills, Tools, and Protocol Ecosystems
- Трансформерная модель бинарной классификации временных рядов на данных инерциальных датчиков для детекции спуфинг-атак в БПЛА
- Кластеризация угроз и идентификация рисков нарушения информационной безопасности опасных производственных объектов
- Методы выявления конфиденциальной информации в неструктурированных данных
- Принципы и модель совершенствования алгоритмов постквантового шифрования, основанных на математической теории решёток
- Искусственный Интеллект в Кибербезопасности. Хроника. Выпуск 5
- On the System of Reaction-Diffusion Equations in a Limited Region
- A Universal Model for Forecasting Customer Service Revenue: A Paid Parking Service Example
- Модель информационного влияния в социальной сети на основе диффузии сигналов, образованных ортогональными функциями
- Подходы к повышению эффективности Mesh-сети в вычислительной системе с распределенной памятью
- Итеративная двунаправленная рекуррентная сеть для предсказания разрушения многослойных композитов
- Recursion in Actual Java Programming
- Персонализация интерфейсов «мозг-компьютер» основе SSVEP-парадигмы с учетом индивидуальных особенностей реакции пользователя
- О некорректности безусловных программ
- Автоматизация учета научной и учебно-методической деятельности преподавателя
- Development of the Multilingual Sign Language Learning Game for Interactive Education
- О применении компьютерных технологий для анализа художественных текстов (на примере произведений В.Г. Короленко)
- Метод определения степени доверия автономных транспортных средств на основе социальных сил
- Искусственный интеллект в физической реабилитации
Архив журнала находится здесь.
/via Лаборатория ОИТ
Thursday, February 05, 2026
Перефразируй
См. также другие публикации, посвященные LLM
Wednesday, February 04, 2026
Шершень
P.S. См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

