См. также другие публикации, посвященные робастности
технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Friday, September 29, 2023
Синтетические личности
Thursday, September 28, 2023
Знания из ничего
В перспективе
См. также другие статьи, посвященные визуализации
Wednesday, September 27, 2023
Основы A/B тестирования
См. также другие публикации, посвященные A/B тестированию
Monday, September 25, 2023
Международный конгресс «СОВРЕМЕННЫЕ ПРОБЛЕМЫ КОМПЬЮТЕРНЫХ И ИНФОРМАЦИОННЫХ НАУК»
Подробнее об участии - здесь
Sunday, September 24, 2023
Saturday, September 23, 2023
Защита критической инфраструктуры
Friday, September 22, 2023
ThingPlug
См. также другие публикации по теме IoT
Thursday, September 21, 2023
Оценка уязвимостей
Серьезность и возможность использования — это два разных измерения серьезности обнаруженной уязвимости. Усилие по исправлению измеряет сложность работы, необходимой для исправления результата.
Серьезность — это потенциальное влияние на конфиденциальность, целостность и доступность приложения, как это определено в CVSS (Общая система оценки уязвимостей). Возможность использования — это вероятность или легкость, с которой злоумышленник может использовать обнаруженную информацию. Обнаружение высокой важности с высокой вероятностью использования злоумышленником потенциально более опасно, чем обнаружение высокой серьезности с низкой вероятностью использования.
Усилие по исправлению, также называемое сложностью исправления, является мерой ожидаемых усилий, необходимых для исправления результата.
Атаки на сертификацию
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Wednesday, September 20, 2023
Лучше поздно, чем никогда
Tuesday, September 19, 2023
Нас этому не учили
1. Фреймворк для оценки надежности моделей машинного обучения от Google. Предлагается одновременно провести стресс-тестирование производительности «готовой» модели (т. е. прогнозируемого распределения) в терминах неопределенности, надежного обобщения и адаптации к новым данным.
2. Интересный автор из списка MIT Technology Review’s 2023 Innovator of the Year, который занимается исследованиями по данной теме: Sharon Yixuan Li
P.S. см. также другие публикации по теме out-of-ditribution-detection: OOD
P.P.S. статья в журнале INJOIT: Namiot, Dmitry, and Eugene Ilyushin. "Data shift monitoring in machine learning models." International Journal of Open Information Technologies 10.12 (2022): 84-93.
Monday, September 18, 2023
Будьте проще
VLAM
См. также другие публикации, посвященные LLM
Saturday, September 16, 2023
Подкрепленье не прислали
1. Книга в свободном доступе Reinforcement Learning: An Introduction
2. Reinforcement Learning: an Easy Introduction to Value Iteration
См. другие публикации, посвященные Reinforcement Learning
Friday, September 15, 2023
ChatGPT список списков
См. также другие публикации, посвященные LLM
Thursday, September 14, 2023
Галлюцинации
См. также другие публикации, посвященные LLM
Для начинающих
Там же:
Web Dev for Beginners
IoT for Beginners
Machine Learning for Beginners
Data Science for Beginners
Wednesday, September 13, 2023
Доверенный ИИ
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Что в коде моем?
Tuesday, September 12, 2023
Триггер против очистки
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Monday, September 11, 2023
Практика отравлений
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Sunday, September 10, 2023
Защита моделей ML
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
ML в критических приложениях
Ясно выражено то, о чем мы писали в своих статьях о мониторинге работы реальных моделей:
"Commercial solutions will certainly incorporate methodology for monitoring and retraining models, but it is unlikely they will incorporate processes that capture the complex system integration and risk frameworks that apply to DAF systems, especially safetycritical systems in the foreseeable future. The DAF should invest in synthetic data engines, live virtual constructive environments, data repositories, and support for digital twins representative of their modalities and platforms of interest to facilitate rapid model retraining and maintenance. Data standards must be extended to the platforms to support this retraining and enable fast capture of AI-ready data to facilitate retraining around model failure events."
Friday, September 08, 2023
Вопрошалки
2. 202 Awesome ChatGPT Prompts to Boost Productivity
3. Tips to enhance your prompt-engineering abilities
4. Prompt Engineering: A Practical Example
См. также другие публикации, посвященные LLM
Thursday, September 07, 2023
LLM и кибербезопасность
См. также другие публикации, посвященные LLM
AI Red Team - 2
1. Google опубликовал программный документ Securing AI: Similar or Different?
2. Статья Google: Why Red Teams Play a Central Role in Helping Organizations Secure AI Systems
3. Интересное интервью с CISO Google Cloud: What we can learn when responsible hacking meets responsible AI
4. NVIDIA AI Red Team: An Introduction. Хорошее введение в проблему, фреймворк и набор используемых инструментов.
5. Следующая платформа для кибербезопасности - Securing AI: The Next Platform Opportunity in Cybersecurity
Tuesday, September 05, 2023
Мартингалы и робастность
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Sunday, September 03, 2023
Камуфляж и состязательные атаки
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Все атаки из архива
Интересная статья из этого списка: MDTD: A Multi-Domain Trojan Detector for Deep Neural Networks. Идея метода проверть в реальном времени, содержат входные данные триггер или нет. Основывается на том, что "чистые" экземпляры данных, и экземпляры данных с триггером находятся на разных расстояниях от границы решений.
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Friday, September 01, 2023
Thursday, August 31, 2023
Tuesday, August 29, 2023
Monday, August 28, 2023
ChatGPT в атаке
ChatGPT and Malware: Making Your Malicious Wishes Come True
Пока не очень получается генерить вредоносное ПО, но фаззинг является перспективной идеей для LLM. Google обещает открыть детали
DarkBERT и DarkBARD - Google API и тренировка на всем даркнете.
PentestGPT - надстройка для ChatGPT, тесты проникновения
Deng, Gelei, et al. "PentestGPT: An LLM-empowered Automatic Penetration Testing Tool." arXiv preprint arXiv:2308.06782 (2023).
Beckerich, Mika, Laura Plein, and Sergio Coronado. "RatGPT: Turning online LLMs into Proxies for Malware Attacks." arXiv preprint arXiv:2308.09183 (2023).
Интересная презентация - Marcus Botacin. 2023. GPThreats-3: Is Automated Malware Generation a Threat? SlideShare.
Jennifer Fernick. 2023. On the malicious use of large language models like GPT-3. nccgroup.
A Survey on Large Language Model based Autonomous Agents. Агентам предстоит сыграть важную роль в автоматизации кибератак.
Aaron Mulgrew. 2023. I built a Zero Day virus with undetectable exfiltration using only ChatGPT prompts.
Fábio Perez and Ian Ribeiro. 2022. Ignore Previous Prompt: Attack Techniques For Language Models. arxiv:2211.09527
OPWNAI: Cybercriminals Starting to Use ChatGPT. Check Point.
Sangfor Technologies. 2023. ChatGPT Malware: A New Threat in Cybersecurity.
Gradient Flow: Unleashing LLMs in Cybersecurity: A Playbook for All Industries
Awesome Large Language Model Tools for Cybersecurity Research
New LLM-based SOC tool to help automate security response
Hazell, Julian. "Large language models can be used to effectively scale spear phishing campaigns." arXiv preprint arXiv:2305.06972 (2023).
См. также другие публикации, посвященные LLM
Sunday, August 27, 2023
Векторные базы данных
Парадоксы статистики
Accuracy Paradox
False Positive Paradox
Gambler’s Fallacy
Simpson’s Paradox
Berkson’s Paradox
Saturday, August 26, 2023
AI Red Team
См. также другие публикации, посвященные LLM
Friday, August 25, 2023
О робастности
Global evasion attacks (глобальная атака уклонения): можем менять любые входные данные (локальная атака уклонения меняет данные только внутри существующего распределения). Глобальная атака уклонения относится к робастности во всем диапазоне входных данных. Под робастностью по-прежнему понимается то, что малые изменения не меняют результат.
Отсюда: Li, Linyi, Tao Xie, and Bo Li. "Sok: Certified robustness for deep neural networks." 2023 IEEE Symposium on Security and Privacy (SP). IEEE, 2023.
Атаки и отравления
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Thursday, August 24, 2023
Атаки на приватные данные
P.S. авторы, похоже, удалили исходный код из репозитория Responsible Data Science Lab
Wednesday, August 23, 2023
Кругом враги
LLM - проблемы и направления исследований
См. также другие публикации, посвященные LLM
Зашита от отравлений
Tuesday, August 22, 2023
Искусственные контрфактические примеры
Monday, August 21, 2023
Sunday, August 20, 2023
Что же важно для модели?
См. также другие публикации, посвященные SHAP
Saturday, August 19, 2023
Защита изображений
Wednesday, August 16, 2023
Probabilistic Machine Learning: Advanced Topics
См. также другие публикации по теме Probabilistic Machine Learning
Tuesday, August 15, 2023
Monday, August 14, 2023
Цифровые двойники инфраструктуры
См. также другие публикации, посвященные digital twins
Sunday, August 13, 2023
3D geometry generation
Friday, August 11, 2023
Платежный сервис с блокчейн
См. также другие публикации, посвященные блокчейн
Thursday, August 10, 2023
Tuesday, August 08, 2023
LLM и кибербезопасность
См. также другие публикации, посвященные LLM
Wednesday, August 02, 2023
Открытая наука: INJOIT том 11, номер 7
Это том 11, номер 7 за 2023 год.
/via Лаборатория ОИТ
Tuesday, August 01, 2023
5G IoT
См. также другие публикации, посвященные блокчейн
Monday, July 31, 2023
Защита блокчейн
См. также другие публикации, посвященные блокчейн
Thursday, July 27, 2023
Wednesday, July 26, 2023
Tuesday, July 25, 2023
Отравление данных NIDS
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Эмбеддинг не той системы
См. также другие публикации по теме мониторинг
Monday, July 24, 2023
Безопасность блокчейн
Кибербезопасность блокчейн в сравнении с "обычной" кибербезопасностью
Учебный курс по безопасности блокчейн
Sunday, July 23, 2023
Вспомнить все
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению и LLM
Blockchain mindmap
См. также другие публикации, посвященные блокчейн
Как они едут?
Wednesday, July 19, 2023
Tuesday, July 18, 2023
ИИ и кибербезопасность
Monday, July 17, 2023
Атаки на LLM
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению и LLM
Sunday, July 16, 2023
Поиск бэкдоров в черном ящике
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Friday, July 14, 2023
Бессерверные вычисления
См. также другие публикации по анализу потоков данных
Wednesday, July 12, 2023
Tuesday, July 11, 2023
Sunday, July 09, 2023
Утечки из LLM
См. также другие публикации, посвященные LLM
Friday, July 07, 2023
Открытая наука: INJOIT том 11, номер 6
Это том 11, номер 6 за 2023 год.
/via Лаборатория ОИТ
Thursday, July 06, 2023
О дистилляции знаний
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
О сертификации систем Искусственного интеллекта
Wednesday, July 05, 2023
Реальный триггер для бэкдора
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Tuesday, July 04, 2023
В реальных условиях
Monday, July 03, 2023
Атаки инверсии модели
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Sunday, July 02, 2023
Saturday, July 01, 2023
Friday, June 30, 2023
Одни двойники
См. также другие публикации, посвященные digital twins
Wednesday, June 28, 2023
Tuesday, June 27, 2023
Черные бэкдоры
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Monday, June 26, 2023
О семантической сегментации
2. Как сертифицировать устойчивость
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Saturday, June 24, 2023
Что было до?
См. также другие публикации, посвященные Neo4j
Friday, June 23, 2023
Thursday, June 22, 2023
Бэкдоры с ограниченными данными
Не все отравленные данные действуют одинаково - как построить эффективный триггер
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Wednesday, June 21, 2023
Цифровые двойники для беспилотников
См. также другие публикации, посвященные digital twins
Tuesday, June 20, 2023
Центр киберзащиты Сбер
Специалисты SOC решают задачи кибербезопасности по мониторингу и реагированию на инциденты, киберразведке, инжинирингу средств защиты и процессам управления самим SOC.
Посмотреть 3D-тур по SOC Сбера можно по ссылке.
Зарегистрироваться на экскурсию можно по ссылке в telegram-группе.
Экскурсии в SOC запланированы на 30 июня (10:30 ч.) и 7 июля (12:00 ч.), продолжительность – 1,5 часа.
По вопросам обращайтесь на e-mail: cyberacademy@sberbank.ru
Интервью по ML
См. также другие публикации по теме интервью
Monday, June 19, 2023
Кибербезопасность в МГУ
Магистерская программа «Кибербезопасность» разработана факультетом вычислительной математики и кибернетики МГУ имени М.В. Ломоносова совместно с ПАО Сбербанк и предназначена для тех, кто хочет получить глубокие знания и навыки в области информационной безопасности и защиты информации и данных от кибератак. Программа ориентирована на подготовку магистров науки по кибербезопасности. Программа разработана в соответствии с современными международными профессиональными и образовательными стандартами и с учетом действующих национальных стандартов и норм.
Программа включает в себя изучение теоретических и практических аспектов кибербезопасности, включая защиту от вирусов, хакерских атак, фишинга, DDoS-атак и других угроз. Студенты изучают математические модели, современные методы и технологии кибербезопасности, а также учатся анализировать и оценивать риски, связанные с кибербезопасностью. В результате обучения студенты получают необходимые знания и навыки для работы в области кибербезопасности в различных сферах, включая исследовательские центры, государственные организации, частные компании и финансовые учреждения.
Для желающих обучаться по данной программе проводятся организованные экскурсии в Центр киберзащиты Сбера.
Java 2023
Более 56 % приложений в настоящее время используют Java 11 в производственной среде (по сравнению с 48 % в 2022 г. и 11 % в 2020 г.). Java 8 занимает второе место: почти 33% приложений используют ее в производстве (по сравнению с 46% в 2022 году).
Самый популярный вендор JLK - Амазон
Wednesday, June 14, 2023
О поиске бэкдоров
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Визуализация нейронных сетей
См. другие публикации по теме визуализация
Tuesday, June 13, 2023
Найди то, не знаю что
Для описания объектов используется LLM. Также предложен простой метод объединения информации из языковых описаний и образцов изображений с получением мультимодального классификатора.
Отсюда - Multi-Modal Classifiers for Open-Vocabulary Object Detection
Monday, June 12, 2023
Sunday, June 11, 2023
Устойчивые триггеры
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Объяснимый искусственный интеллект
SHAP
LIME
Permutation Importance
Partial Dependence Plot
Morris Sensitivity Analysis - и другие методы объяснимого искусственного интеллекта. Полезный словарь.
Saturday, June 10, 2023
Бэкдоры в моделях машинного обучения
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Friday, June 09, 2023
Цифровая школа Nuclio
Программа обучения по Blockchain: Master in Blockchain and Crypto
Thursday, June 08, 2023
Бэкдоры в NLP
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Wednesday, June 07, 2023
Атаки на LLM
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению и LLM
Tuesday, June 06, 2023
Отравление данных
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Все дело в частоте
А в этой статье - показывают, как бороться с бэкдорами в частотном домене
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Monday, June 05, 2023
Сдвиг данных в моделях ML
См. также другие публикации, темой которых является мониторинг моделей машинного обучения
Почему получаются бэкдоры?
Другая работа в этой области рассматривает Loss Landscape Sharpness - как быстро растут потери при изменении параметров
Sunday, June 04, 2023
Забыть все
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Saturday, June 03, 2023
Что за данные?
См. также другие публикации, посвященные EDA
Friday, June 02, 2023
Универсальный телефонный API от GSMA
GSMA announced the creation of open telephony interfaces for third-party providers.
Lack of third party support has always been the Achilles' heel of telecom, both wired and wireless.
The need for such APIs is obvious, attempts have been made to create them, but there is no result.
Will a new attempt succeed or is it already too late?
из презентации на FRUCT-2023
Tuesday, May 30, 2023
Monday, May 29, 2023
MLOps
См. также другие публикации по теме MLOps
Sunday, May 28, 2023
Thursday, May 25, 2023
Tuesday, May 23, 2023
Monday, May 22, 2023
IoT в Умном городе
Sunday, May 21, 2023
Как нам преобразовать AGI
См. также другие публикации по теме аудит
Saturday, May 20, 2023
Базовые понятия статистики
Statistical Power
Type I error
Type II error
Confidence Interval
P-value
P.S. См. также другие публикации по теме статистика
Friday, May 19, 2023
Thursday, May 18, 2023
Атаки отравлением на LLM
А если еще такие модели обучать раздельно (federative learning), то отравления будут еще более легкими
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению и LLM
Wednesday, May 17, 2023
Sunday, May 14, 2023
Бэкдоры и преобразование Фурье
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Friday, May 12, 2023
О кибербезопасности AI
Protect AI - сканер безопасности для Jupyter Notebooks. И созданное имии сообщество MLSecOps для обсуждения проблем безопасности ИИ
См. также другие публикации по теме аудит
О профессии Data Engineering
- Data Analytics Engineer
- Platform Engineer
- DataOps Engineer
- Database Reliability Engineer
Важная тема, в контексте того, чему нужно учить студентов
Thursday, May 11, 2023
Как спросить?
Еще о prompt engineering:
Prompt Engineering (In-Context Prompting) - большая статья
Аудит для LLM
См. также другие публикации по теме аудит
Wednesday, May 10, 2023
Friday, May 05, 2023
AI аудит
GAFAI: Proposal of a Generalized Audit Framework for AI
См. также другие публикации по теме аудит
Thursday, May 04, 2023
DAMDID 2022
Блокчейн: направления исследований
Topics of interest
Fundamentals of Blockchain and DLT:
Theoretical contributions on Blockchain and DLT
Distributed consensus and fault tolerance solutions, including domain-specific consensus (e.g., for IoT)
Protocols and algorithms
Distributed Ledger Analytics
Tradeoffs between decentralization, scalability, performance, and security
Sharding and layer 2
Combination between Blockchain and distributed databases (e.g., IPFS)
Fundamentals of Decentralized Apps, Smart contracts, and chain code:
Development languages and tooling
Security, Privacy, Attacks, Forensics
Transaction Monitoring and Analysis
Collaboration between on-chain and off-chain code
Token Economy and incentives
NFT (Non-Fungible Tokens) and protocols
Distributed Trust
Oracles
Blockchain as a service
Blockchain-defined networking
Application and service cases of DLT and Smart-Contracts:
Identity management (e.g., Self-sovereign Identity and Decentralized Identifiers, Open ID Connect)
Finance and payments
DeFi (Decentralized Finance)
IoT and cyber physical systems
Smart grids and Industry 4.0, including Dataspaces
Supply chain management
V2X, connected and autonomous vehicles
Networking, Edge and Cloud Technologies
Blockchain for Beyond 5G and 6G Technologies, Telecom Process and Operation
Blockchain and AI (e.g., for federated learning)
Services or Resources Marketplaces
Public sector Blockchain solutions and infrastructures (e.g., EBSI)
Blockchain for education, public administration, health
Results from large collaborative projects on these topics
См. также другие публикации, посвященные blockchain
Wednesday, May 03, 2023
Схемы атак на модели машинного обучения
Общей проблемой для атак на модели машинного обучения является тот факт, что модифицированные данные есть такие же легитимные данные, что и не подвергшиеся модификации. Соответственно нет явного способа однозначно определить такого рода атаки. Их эффект в виде неправильного функционирования модели может проявиться и без целенаправленного воздействия. По факту, атакам подвержены все дискриминантные модели.
Анти-API
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Monday, May 01, 2023
INJOIT vol.11 no. 5
Темы статей:
- О задачах извлечения корня из заданного конечного языка
- О модификации схемы подписи Эль-Гамаля для применения в одном классе систем голосования, использующих механизм подписи вслепую
- Обзор методов построения рекомендательных систем на основе сессий
- Research on the Development of Data Augmentation Techniques in the Field of Machine Translation
- Методы повышения эффективности алгоритма полного перебора на примере решения задачи о неограниченном ранце
- Applying Machine Learning to Optimize Vaccine Distribution for COVID-19
- Выявление ошибок разметки данных с помощью моделей классификации для небольших наборов данных
- Prospects for Information Security in Big Data Technology
- Схемы атак на модели машинного обучения
- Разработка программного обеспечения телеграмм бота для студентов и абитуриентов ГБОУ ВО НГИЭУ
- Инструменты статистической обработки результатов онлайн тестирования студентов
- Автоматизация расчета предела прочности композитных материалов с металлической матрицей с использованием программных средств
- Dynamics of the temperature regime of permafrost soil and ice thickness during climate change
- Using Mathematical Modeling to Generate Training Data in Hydrotreating Processes
- Перспективы и стратегии пространственного планирования российской экономики как крупномасштабной системы в современных условиях
- Модуль управление доступом на основе атрибутов для веб-запросов из разных источников
- Тестирование методов обработки комментариев из Telegram-каналов и пабликов ВКонтакте для анализа социальных медиа
- Механизмы межсервисной аутентификации в приложениях с микросервисной архитектурой
Архив журнала находится здесь.
/via Лаборатория ОИТ
Транспортные двойники
См. также другие публикации, посвященные digital twins
Friday, April 28, 2023
Что могут и не могут LLM
Риски LLM. Или в более общей форме - контента, генерируемого AI
Поиск аномалий в табличных данных с помощью LLM
См. также другие публикации, посвященные LLM
Thursday, April 27, 2023
LLM в критических операциях
Wednesday, April 26, 2023
Поговорил с LLM
A: A model inversion attack is a type of security threat that involves using machine learning models to extract sensitive information from their inputs or outputs. To prevent such attacks, there are several techniques and best practices that can be implemented:
Regularization: This technique helps reduce overfitting by adding regularization terms during training, which limits the capacity of the model to memorize specific patterns in the data. As a result, the model will generalize better and be less prone to model inversion attacks.
Data masking/obfuscation: One way to prevent leakage of sensitive information through the ML model’s output is to pre-process the input or obfuscate the output data to make it difficult for an adversary to reverse engineer the original data. Techniques like noise injection, image blurring, feature deletion, and permutation can help protect against potential attacks.
Access control: Limiting access to the ML model and its outputs can significantly reduce the risk of exposure of sensitive information. Implement strict authentication and authorization controls around access to trained ML models as well as any APIs or interfaces used to interact with them.
Detection mechanisms: Develop mechanisms to detect, alert and block malicious activities related to inversion attacks. Monitor usage logs and apply statistical analysis, anomaly detection algorithms, or other methods to identify suspicious behavior, IP addresses, and user agents associated with inversion attempts.
Q: Adversarial attack on ML model. How to use topology for protection?
A: Topology refers to the structure, arrangement, or organization of elements in a system. In the context of Machine Learning (ML) models, topology can refer to the architecture of the neural network or the relationships between different components within the model. Here are some ways you could leverage topology for the purpose of defending against adversarial attacks:
Architecture design: The choice of the ML model architecture and the number of layers, neurons per layer, and activation functions has a significant impact on model robustness. By selecting architectures that have demonstrated strong robustness against adversarial attacks, you may achieve greater defense capabilities. For example, ResNet and EfficientNet families of convolutional networks have shown good performance under various types of adversarial attack.
Diversity: Introduce diversity into the model, either by having multiple models, each trained on slightly different subsets of the dataset, or varying parameters such as weight initializations, batch normalization scale/shift settings, dropout rates etc. An attacker would need to craft inputs effective for all versions, so this increases attack effort, reduces effectiveness of mass-produced attacks, and allows time for human intervention. Ensemble methods combining predictions across diverse models also tend to produce higher quality results than single models.
Интересно ! :) Отвечал - HuggingChat
Кладезь знаний
Monday, April 24, 2023
Deep Learning
Sunday, April 23, 2023
Атаки инверсии модели
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Интернет всего
Темы:
Social network analysis applied to communication networks (Online/Offline SN, Internet of Vehicles, Internet of Things, etc.)
Security, privacy and trust issues in Social Internet of Anythings
Connectivity management ruled by social features
Machine learning for Big Data analytics in social Internet of Anythings
Integration of social aspects in traditional ad-hoc networks
Small-world theory applied to Social Internet of Anythings
Cross-layer design of communication networks and social networks
Epidemic social network analysis for pandemic contention
Social networking for contact tracing, location and tracking
Social Data and multimedia communication and privacy
Infrastructure, platform, protocol design, and optimization for mobile social networks, mobile social clouds, and social Internet-of-Things with Artificial Intelligence
Social-aware network solutions and social network influence on (wireless) communications systems
Architectures and Protocols for Blockchain-based social media platforms
Наши работы по сетевой пространственной близости очень хорошо вписываются в эту тематику.
Saturday, April 22, 2023
Friday, April 21, 2023
Проверка, испытания и наладка электрооборудования
Ассоциативные правила
Thursday, April 20, 2023
Wednesday, April 19, 2023
Цифровые двойники дорог
см. также другие публикации по теме двойники
Tuesday, April 18, 2023
Monday, April 17, 2023
Повсеместная безопасность
Проблемы безопасности в повсеместных вычислениях: Ubiquitous Security
Sunday, April 16, 2023
LLM в медицине
Wednesday, April 12, 2023
Monday, April 10, 2023
Friday, April 07, 2023
О формализме
Thursday, April 06, 2023
Кибербезопасность киберфизических систем
Wi-Fi CSI
Wednesday, April 05, 2023
Tuesday, April 04, 2023
AI report 2023
Интересное замечание: "Хотя проверка фактов с помощью систем естественного языка стали популярными в последние годы, языковые модели обычно обучаются на статических снимках данных без постоянных обновлений с течением времени, и им не хватает контекста реального мира, который люди, проверяющие факты, могут легко получить и использовать для проверки достоверности утверждений. Исследователи Технического университета Дармштадта и IBM проанализировали существующие наборы данных для проверки фактов выявлены недостатки систем проверки фактов, построенных на основе этих наборов данных. Например, автоматизированные системы проверки фактов часто предполагают наличие противоречивых контрдоказательств для новых ложных утверждений, но для проверки новых утверждений, как истинных так и ложных, часто нет доказательства наличия или отсутствия противоречия."
Иными словами, факт отвергается, если в датасете есть противоречивое утверждение. А если такого нет? Пример из отчета - утверждение "Чтобы создать вакцину от COVID-19, можно убить миллион акул". Это не будет опровергнуто, посокльку нет обратного утверждения. Тогда как человек модет проверить информацию о вакцине.
Monday, April 03, 2023
Городское IT
Sunday, April 02, 2023
Saturday, April 01, 2023
Friday, March 31, 2023
Вопрошатель
Thursday, March 30, 2023
Риски в ИИ
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению