Friday, September 29, 2023

О робастности метрик

Сравнение робастности регрессионных метрик: MAE, MSE и RMSE

См. также другие публикации, посвященные робастности

Синтетические личности

В некоторых странах - это уже главная проблема при выдаче кредитов банками. Кредиты берут синтетические персоны

Thursday, September 28, 2023

Знания из ничего

Машинное обучение в ситуации, когда количество экземпляров данных меньше, чем количество классов: Learning N Classes From M < N Samples. Вот здесь можно почитать про другие подобные примеры.

В перспективе

Интересный инструмент для визуализации больших наборов данных - Perspective

См. также другие статьи, посвященные визуализации

Monday, September 25, 2023

Международный конгресс «СОВРЕМЕННЫЕ ПРОБЛЕМЫ КОМПЬЮТЕРНЫХ И ИНФОРМАЦИОННЫХ НАУК»

30 ноября - 2 декабря 2023 года на факультете вычислительной математики и кибернетики Московского государственного университета имени М.В. Ломоносова состоится Международный конгресс «СОВРЕМЕННЫЕ ПРОБЛЕМЫ КОМПЬЮТЕРНЫХ И ИНФОРМАЦИОННЫХ НАУК». В рамках Конгресса будут проведены пленарные заседания и серия научных мероприятий, соответствующих приоритетным направлениям развития науки, технологий и техники в Российской Федерации в крупнейшей междисциплинарной области современности - информационно-телекоммуникационные системы - которая объединяет представителей математики, информатики, физики и наук о материалах, компьютерных наук, наук о данных и гуманитарных наук из России и зарубежных стран.

Подробнее об участии - здесь

Saturday, September 23, 2023

Thursday, September 21, 2023

Оценка уязвимостей

Как оценивать уязвимости в программном обеспечении?

Серьезность и возможность использования — это два разных измерения серьезности обнаруженной уязвимости. Усилие по исправлению измеряет сложность работы, необходимой для исправления результата.

Серьезность — это потенциальное влияние на конфиденциальность, целостность и доступность приложения, как это определено в CVSS (Общая система оценки уязвимостей). Возможность использования — это вероятность или легкость, с которой злоумышленник может использовать обнаруженную информацию. Обнаружение высокой важности с высокой вероятностью использования злоумышленником потенциально более опасно, чем обнаружение высокой серьезности с низкой вероятностью использования.

Усилие по исправлению, также называемое сложностью исправления, является мерой ожидаемых усилий, необходимых для исправления результата.

Атаки на сертификацию

Интересная идея - состязательные атаки на алгоритмы сертификации моделей машинного обучения

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Tuesday, September 19, 2023

Просто и эффективно

Архитектура Instagram

Нас этому не учили

Out-of-distribution (OOD) - определить при использовании модели машинного обучения тот факт, что мы встретили данные, отличающиеся от тренировочного набора.

1. Фреймворк для оценки надежности моделей машинного обучения от Google. Предлагается одновременно провести стресс-тестирование производительности «готовой» модели (т. е. прогнозируемого распределения) в терминах неопределенности, надежного обобщения и адаптации к новым данным.

2. Интересный автор из списка MIT Technology Review’s 2023 Innovator of the Year, который занимается исследованиями по данной теме: Sharon Yixuan Li

P.S. см. также другие публикации по теме out-of-ditribution-detection: OOD

P.P.S. статья в журнале INJOIT: Namiot, Dmitry, and Eugene Ilyushin. "Data shift monitoring in machine learning models." International Journal of Open Information Technologies 10.12 (2022): 84-93.

Monday, September 18, 2023

Будьте проще

Очень верные слова Google про web3 - нужно спрятать технологический жаргон от пользователей.

VLAM

Интересно - Vision-Language-Action Models (VLAMs). Использует возможности LLM для выработки суждений для анализа движения

См. также другие публикации, посвященные LLM

Tuesday, September 12, 2023

Sunday, September 10, 2023

Защита моделей ML

Интересная идея - описать ограничения для моделей

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

ML в критических приложениях

Использование систем машинного обучения в военной авиации (DAF). Описывается тестирование и оценка систем машинного обучения.

Ясно выражено то, о чем мы писали в своих статьях о мониторинге работы реальных моделей:
"Commercial solutions will certainly incorporate methodology for monitoring and retraining models, but it is unlikely they will incorporate processes that capture the complex system integration and risk frameworks that apply to DAF systems, especially safetycritical systems in the foreseeable future. The DAF should invest in synthetic data engines, live virtual constructive environments, data repositories, and support for digital twins representative of their modalities and platforms of interest to facilitate rapid model retraining and maintenance. Data standards must be extended to the platforms to support this retraining and enable fast capture of AI-ready data to facilitate retraining around model failure events."

Thursday, September 07, 2023

LLM и кибербезопасность

Хороший и подробный обзор Use of LLMs for Illicit Purposes: Threats, Prevention Measures, and Vulnerabilities

См. также другие публикации, посвященные LLM

AI Red Team - 2

Продолжая тему AI Red Team (см. предыдущую публикацию здесь):

1. Google опубликовал программный документ Securing AI: Similar or Different?

2. Статья Google: Why Red Teams Play a Central Role in Helping Organizations Secure AI Systems

3. Интересное интервью с CISO Google Cloud: What we can learn when responsible hacking meets responsible AI

4. NVIDIA AI Red Team: An Introduction. Хорошее введение в проблему, фреймворк и набор используемых инструментов.

5. Следующая платформа для кибербезопасности - Securing AI: The Next Platform Opportunity in Cybersecurity

6. Red Team для больших языковых моделей (LLM)

Tuesday, September 05, 2023

Мартингалы и робастность

Как еще можно определять сдвиг данных? Использовать мартингалы. Основная причина использования мартингала, а не более известной статистики сдвига распределения, заключается в том, чтобы избежать «группирования» данных временных рядов в произвольно определенные интервалы для расчета распределения. Вот пример.

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Sunday, September 03, 2023

Камуфляж и состязательные атаки

Состязательные атаки на модели машинного обучения бывают в цифровом и физическом доменах. Старейшей формой физической атаки является камуфляж. Вот в данной статье как раз исследуется влияние камуфляжа на распознавание объектов в моделях машинного обучения.

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Все атаки из архива

Статьи, посвященные состязательным атакам из arxiv.org. Поддержка: Nicholas Carlini (атака Carlini-Wagner).

Интересная статья из этого списка: MDTD: A Multi-Domain Trojan Detector for Deep Neural Networks. Идея метода проверть в реальном времени, содержат входные данные триггер или нет. Основывается на том, что "чистые" экземпляры данных, и экземпляры данных с триггером находятся на разных расстояниях от границы решений.

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Monday, August 28, 2023

ChatGPT в атаке

Некоторые ссылки, посвященные генерации или обработке вредоносного контента с помощью LLM. Собрано для новой магистратуры по Кибербезопасности

ChatGPT and Malware: Making Your Malicious Wishes Come True

WormGPT и FraudGPT

Пока не очень получается генерить вредоносное ПО, но фаззинг является перспективной идеей для LLM. Google обещает открыть детали

DarkBERT и DarkBARD - Google API и тренировка на всем даркнете.

PentestGPT - надстройка для ChatGPT, тесты проникновения
Deng, Gelei, et al. "PentestGPT: An LLM-empowered Automatic Penetration Testing Tool." arXiv preprint arXiv:2308.06782 (2023).

Beckerich, Mika, Laura Plein, and Sergio Coronado. "RatGPT: Turning online LLMs into Proxies for Malware Attacks." arXiv preprint arXiv:2308.09183 (2023).

Интересная презентация - Marcus Botacin. 2023. GPThreats-3: Is Automated Malware Generation a Threat? SlideShare.

Jennifer Fernick. 2023. On the malicious use of large language models like GPT-3. nccgroup.

A Survey on Large Language Model based Autonomous Agents. Агентам предстоит сыграть важную роль в автоматизации кибератак.

Malware researchers analyzed the application of Large Language Models (LLM) to malware automation investigating future abuse in autonomous threats. Executive Summar

Aaron Mulgrew. 2023. I built a Zero Day virus with undetectable exfiltration using only ChatGPT prompts.

Fábio Perez and Ian Ribeiro. 2022. Ignore Previous Prompt: Attack Techniques For Language Models. arxiv:2211.09527

OPWNAI: Cybercriminals Starting to Use ChatGPT. Check Point.

Sangfor Technologies. 2023. ChatGPT Malware: A New Threat in Cybersecurity.

Gradient Flow: Unleashing LLMs in Cybersecurity: A Playbook for All Industries

Awesome Large Language Model Tools for Cybersecurity Research

New LLM-based SOC tool to help automate security response

Hazell, Julian. "Large language models can be used to effectively scale spear phishing campaigns." arXiv preprint arXiv:2305.06972 (2023).

См. также другие публикации, посвященные LLM

Saturday, August 26, 2023

AI Red Team

Этичные хакеры, которые атакуют системы ИИ. Это стало особенно актуально для больших языковых моделей. Как это устроено в компаниях:

Google

Микрософт

Open AI

См. также другие публикации, посвященные LLM

Friday, August 25, 2023

О робастности

Distributional evasion attacks (атаки уклонения распределения): при атаках уклонения распределения атакующий смещает все распределение тестовых данных на некоторое ограниченное расстояние с целью максимизации ожидаемых потерь. Эта модель угроз может быть использована для характеристики способности ML-моделей к обобщению вне распределения. Сертификация по этой модели угроз представляет собой верхнюю границу ожидаемых потерь.

Global evasion attacks (глобальная атака уклонения): можем менять любые входные данные (локальная атака уклонения меняет данные только внутри существующего распределения). Глобальная атака уклонения относится к робастности во всем диапазоне входных данных. Под робастностью по-прежнему понимается то, что малые изменения не меняют результат.

Отсюда: Li, Linyi, Tao Xie, and Bo Li. "Sok: Certified robustness for deep neural networks." 2023 IEEE Symposium on Security and Privacy (SP). IEEE, 2023.

Атаки и отравления

Awesome Data Poisoning and Backdoor Attacks - большой список публикаций с кодом Awesome Backdoor Attack and Defense - свежие работы по отравлению

Backdoor атаки

Backdoor защиты

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Thursday, August 24, 2023

О вероятности

Частота или Байес?

Атаки на приватные данные

В потоке запросов к MaaS определить атаку на приватные данные. Идея определения атаки - схожесть последовательных запросов. Схожая идея была реализована в нашей статье c J.Song, которая будет представлена на DCCN-2023

P.S. авторы, похоже, удалили исходный код из репозитория Responsible Data Science Lab

Wednesday, August 23, 2023

Кругом враги

Byzantine Machine Learning - распределенное машинное обучение, когда присутствуют узлы с поврежденными (отравленными) данными и противоборствующим поведением

LLM - проблемы и направления исследований

Интересный обзор - что делать с LLM

См. также другие публикации, посвященные LLM

Зашита от отравлений

Arshad, Iram, et al. "A Novel Framework for Smart Cyber defence: A Deep-Dive into Deep Learning Attacks and defences." IEEE Access (2023). - фреймворк для защиты от атак отравлением на модели машинного обучения.

Sunday, August 20, 2023

Что же важно для модели?

Использование SHAP для анализа важности фичей. Интересная задача - сравнить SHAP и feature importance

См. также другие публикации, посвященные SHAP

Sunday, July 23, 2023

Вспомнить все

Интересная работа, к которой исследуются "лишние" параметры моделей ML. Через них атакующий может атаковать систему

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению и LLM

Blockchain mindmap

Как развивался блокчейн - интеллект-карта

См. также другие публикации, посвященные блокчейн

Как они едут?

Интересная статья по визуализации передвижения автономных автомобилей. Ну и других автономных транспортных средств

Sunday, July 16, 2023

Sunday, July 09, 2023

Tuesday, July 04, 2023

В реальных условиях

Интересная диссертация по практическому повышению устойчивости по отношению к сдвигам данных моделей машинного обучения - Robustness, Evaluation and Adaptation of Machine Learning Models in the Wild

Tuesday, June 27, 2023

Черные бэкдоры

Black Box backdoor для MLaaS: атакующий строит теневую модель, делает бэкдор для нее и публикует от своего имени уже отравленную модель

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Saturday, June 24, 2023

Friday, June 23, 2023

Tuesday, June 20, 2023

Центр киберзащиты Сбер

В рамках запуска новой магистратуры «Кибербезопасность» на ВМК МГУ абитуриентам предлагается уникальная возможность познакомиться с работой Центра киберзащиты Сбера (SOC – Security Operation Center) – крупнейшего в России и Восточной Европе ситуационного центра кибербезопасности.

Специалисты SOC решают задачи кибербезопасности по мониторингу и реагированию на инциденты, киберразведке, инжинирингу средств защиты и процессам управления самим SOC.

Посмотреть 3D-тур по SOC Сбера можно по ссылке.

Зарегистрироваться на экскурсию можно по ссылке в telegram-группе.

Экскурсии в SOC запланированы на 30 июня (10:30 ч.) и 7 июля (12:00 ч.), продолжительность – 1,5 часа.

По вопросам обращайтесь на e-mail: cyberacademy@sberbank.ru

Интервью по ML

Компиляция вопросов для интервью по машинному обучению

См. также другие публикации по теме интервью

Monday, June 19, 2023

Кибербезопасность в МГУ

ВМК МГУ и Сбер открывают новую магистратуру «Кибербезопасность» по направлению подготовки 02.04.02 «Фундаментальная информатика и информационные технологии».

Магистерская программа «Кибербезопасность» разработана факультетом вычислительной математики и кибернетики МГУ имени М.В. Ломоносова совместно с ПАО Сбербанк и предназначена для тех, кто хочет получить глубокие знания и навыки в области информационной безопасности и защиты информации и данных от кибератак. Программа ориентирована на подготовку магистров науки по кибербезопасности. Программа разработана в соответствии с современными международными профессиональными и образовательными стандартами и с учетом действующих национальных стандартов и норм.

Программа включает в себя изучение теоретических и практических аспектов кибербезопасности, включая защиту от вирусов, хакерских атак, фишинга, DDoS-атак и других угроз. Студенты изучают математические модели, современные методы и технологии кибербезопасности, а также учатся анализировать и оценивать риски, связанные с кибербезопасностью. В результате обучения студенты получают необходимые знания и навыки для работы в области кибербезопасности в различных сферах, включая исследовательские центры, государственные организации, частные компании и финансовые учреждения.

Подробнее о программе.

Для желающих обучаться по данной программе проводятся организованные экскурсии в Центр киберзащиты Сбера.

Отсюда

Java 2023

Состояние эко-системы Java в 2023 году

Более 56 % приложений в настоящее время используют Java 11 в производственной среде (по сравнению с 48 % в 2022 г. и 11 % в 2020 г.). Java 8 занимает второе место: почти 33% приложений используют ее в производстве (по сравнению с 46% в 2022 году).

Самый популярный вендор JLK - Амазон

Tuesday, June 13, 2023

Найди то, не знаю что

Открыто-словарное обнаружение объектов - построение модели, способной обнаруживать объекты за пределами набора видимых категорий при обучении, что позволяет пользователю указывать категории интереса при выводе без необходимости перетренировки моделей. Испольуется стандартная двухэтапная архитектура детектора объектов. Авторы рассматривают три способа указания новых категорий: через языковые описания, с помощью образцов изображений или через комбинацию этих двух подходов.

Для описания объектов используется LLM. Также предложен простой метод объединения информации из языковых описаний и образцов изображений с получением мультимодального классификатора.

Отсюда - Multi-Modal Classifiers for Open-Vocabulary Object Detection

Tuesday, June 06, 2023

Отравление данных

Баланс между устойчивостью и эффективностью при отравлении данных

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Все дело в частоте

Интересный подход к бэкдорам в моделях распознавания изображений - скрытый триггер, который строится в частотном домене

А в этой статье - показывают, как бороться с бэкдорами в частотном домене

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Sunday, June 04, 2023

Friday, June 02, 2023

Универсальный телефонный API от GSMA


GSMA announced the creation of open telephony interfaces for third-party providers.
Lack of third party support has always been the Achilles' heel of telecom, both wired and wireless.
The need for such APIs is obvious, attempts have been made to create them, but there is no result.
Will a new attempt succeed or is it already too late?

из презентации на FRUCT-2023

Monday, May 29, 2023

MLOps

Еще одна интересная подпорка ресурсов по MLOps. Между прочим, real time machine learning - это также MLOps

См. также другие публикации по теме MLOps

Tuesday, May 23, 2023

DOI сейчас

Тестируем новый сервис для получения DOI для статей. Пока работает, денег не просят

Sunday, May 21, 2023

Как нам преобразовать AGI

Экспертный опрос: Towards best practices in AGI safety and governance: A survey of expert opinion. Очевидно, что понимание того, что что-то нужно делать с аудитом ИИ (машинного обучения) превалирует над пониманием того, что же конкретно нужно делать

См. также другие публикации по теме аудит

Friday, May 19, 2023

Спросить вопрос

Продолжая тему об опросах LLM:

Prompt Engineering Guide

См. также другие публикации по теме prompt и LLM

Thursday, May 18, 2023

Атаки отравлением на LLM

Вполне очевидно - можно отравлять данные для LLM. Вот здесь еще суждения по этому поводу.

А если еще такие модели обучать раздельно (federative learning), то отравления будут еще более легкими

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению и LLM

Sunday, May 14, 2023

Friday, May 12, 2023

О кибербезопасности AI

Новый отчет из Стенфорда о кибербезопасности AI

Protect AI - сканер безопасности для Jupyter Notebooks. И созданное имии сообщество MLSecOps для обсуждения проблем безопасности ИИ

См. также другие публикации по теме аудит

О профессии Data Engineering

Интересные рассуждения о требованиях к Data Engineering. Автор предлагает разделить эту специальность на 4:

  • Data Analytics Engineer
  • Platform Engineer
  • DataOps Engineer
  • Database Reliability Engineer

Важная тема, в контексте того, чему нужно учить студентов

Thursday, May 11, 2023

Как спросить?

Prompt engineering - относится к методам взаимодействия с LLM (большими языковыми моделями), чтобы управлять их поведением для получения желаемых результатов без обновления весов модели. Это эмпирическая наука, и эффект оперативных инженерных методов может сильно варьироваться в зависимости от модели, что требует серьезных экспериментов и эвристики

Еще о prompt engineering:

Техника инженерии запросов

Prompt Engineering (In-Context Prompting) - большая статья

См. также другие публикации по теме prompt и LLM

Аудит для LLM

Администрация киберпространства Китая объявила о проекте руководящих принципов, которые потребуют проверки безопасности сервисов генеративного ИИ, прежде чем им будет разрешено работать. В предлагаемых правилах говорится, что операторы ИИ должны обеспечивать точность контента, уважать интеллектуальную собственность, не подвергать опасности безопасность и не допускать дискриминации. Кроме того, контент, созданный ИИ, должен быть четко помечен. Этот шаг является частью растущих усилий Китая по регулированию быстрого распространения генеративного ИИ с момента дебюта ChatGPT OpenAI в прошлом году. Это развитие соответствует зарубежным компаниям, включая Google и Microsoft, которые изучают потенциал генеративного ИИ. Отсюда

См. также другие публикации по теме аудит

Thursday, May 04, 2023

DAMDID 2022

Часть статей опубликована в журнале "Труды института системного анализа" Номер 1 за 2023 год

Блокчейн: направления исследований

Темы работ для конференции BRAINS 2023 (5th Conference on Blockchain Research & Applications for Innovative Networks and Services)

Topics of interest

Fundamentals of Blockchain and DLT:
Theoretical contributions on Blockchain and DLT
Distributed consensus and fault tolerance solutions, including domain-specific consensus (e.g., for IoT)
Protocols and algorithms
Distributed Ledger Analytics
Tradeoffs between decentralization, scalability, performance, and security
Sharding and layer 2
Combination between Blockchain and distributed databases (e.g., IPFS)

Fundamentals of Decentralized Apps, Smart contracts, and chain code:
Development languages and tooling
Security, Privacy, Attacks, Forensics
Transaction Monitoring and Analysis
Collaboration between on-chain and off-chain code
Token Economy and incentives
NFT (Non-Fungible Tokens) and protocols
Distributed Trust
Oracles
Blockchain as a service
Blockchain-defined networking

Application and service cases of DLT and Smart-Contracts:
Identity management (e.g., Self-sovereign Identity and Decentralized Identifiers, Open ID Connect)
Finance and payments
DeFi (Decentralized Finance)
IoT and cyber physical systems
Smart grids and Industry 4.0, including Dataspaces
Supply chain management
V2X, connected and autonomous vehicles
Networking, Edge and Cloud Technologies
Blockchain for Beyond 5G and 6G Technologies, Telecom Process and Operation
Blockchain and AI (e.g., for federated learning)
Services or Resources Marketplaces
Public sector Blockchain solutions and infrastructures (e.g., EBSI)
Blockchain for education, public administration, health
Results from large collaborative projects on these topics

См. также другие публикации, посвященные blockchain

Wednesday, May 03, 2023

Схемы атак на модели машинного обучения

В настоящей статье рассматриваются схемы атак на системы искусственного интеллекта (на модели машинного обучения). Классически, атаки на системы машинного обучения - это специальные модификации данных на одном из этапов конвейера машинного обучения, которые призваны воздействовать на модель необходимым атакующему образом. Атаки могут быть направлены на то, чтобы понизить общую точность или честность модели, или же на то, чтобы, например, обеспечить, при определенных условиях, необходимый результат классификации. Другие формы атак могут включать непосредственное воздействие на модели машинного обучения (их код) с теми же целями, что и выше. Есть еще специальный класс атак, который направлен на извлечение из модели ее логики (алгоритма) или информации о тренировочном наборе данных. В последнем случае не происходит модификации данных, но используются специальным образом подготовленные множественные запросы к модели.

Общей проблемой для атак на модели машинного обучения является тот факт, что модифицированные данные есть такие же легитимные данные, что и не подвергшиеся модификации. Соответственно нет явного способа однозначно определить такого рода атаки. Их эффект в виде неправильного функционирования модели может проявиться и без целенаправленного воздействия. По факту, атакам подвержены все дискриминантные модели.

Отсюда

Анти-API

Защита от атак инверсии моделей с помощью фальшивых откликов. Никому верить нельзя

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Monday, May 01, 2023

INJOIT vol.11 no. 5

Вышел пятый номер журнала INJOIT в 2023 году. И одиннадцатый год издания журнала.

Темы статей:

  • О задачах извлечения корня из заданного конечного языка
  • О модификации схемы подписи Эль-Гамаля для применения в одном классе систем голосования, использующих механизм подписи вслепую
  • Обзор методов построения рекомендательных систем на основе сессий
  • Research on the Development of Data Augmentation Techniques in the Field of Machine Translation
  • Методы повышения эффективности алгоритма полного перебора на примере решения задачи о неограниченном ранце
  • Applying Machine Learning to Optimize Vaccine Distribution for COVID-19
  • Выявление ошибок разметки данных с помощью моделей классификации для небольших наборов данных
  • Prospects for Information Security in Big Data Technology
  • Схемы атак на модели машинного обучения
  • Разработка программного обеспечения телеграмм бота для студентов и абитуриентов ГБОУ ВО НГИЭУ
  • Инструменты статистической обработки результатов онлайн тестирования студентов
  • Автоматизация расчета предела прочности композитных материалов с металлической матрицей с использованием программных средств
  • Dynamics of the temperature regime of permafrost soil and ice thickness during climate change
  • Using Mathematical Modeling to Generate Training Data in Hydrotreating Processes
  • Перспективы и стратегии пространственного планирования российской экономики как крупномасштабной системы в современных условиях
  • Модуль управление доступом на основе атрибутов для веб-запросов из разных источников
  • Тестирование методов обработки комментариев из Telegram-каналов и пабликов ВКонтакте для анализа социальных медиа
  • Механизмы межсервисной аутентификации в приложениях с микросервисной архитектурой

Архив журнала находится здесь.

/via Лаборатория ОИТ

Транспортные двойники

Интересная работа по транспортным цифровым двойникам

См. также другие публикации, посвященные digital twins

Thursday, April 27, 2023

Wednesday, April 26, 2023

Поговорил с LLM

Q: Model inversion attack on ml model. How to prevent it?

A: A model inversion attack is a type of security threat that involves using machine learning models to extract sensitive information from their inputs or outputs. To prevent such attacks, there are several techniques and best practices that can be implemented:

Regularization: This technique helps reduce overfitting by adding regularization terms during training, which limits the capacity of the model to memorize specific patterns in the data. As a result, the model will generalize better and be less prone to model inversion attacks.

Data masking/obfuscation: One way to prevent leakage of sensitive information through the ML model’s output is to pre-process the input or obfuscate the output data to make it difficult for an adversary to reverse engineer the original data. Techniques like noise injection, image blurring, feature deletion, and permutation can help protect against potential attacks.

Access control: Limiting access to the ML model and its outputs can significantly reduce the risk of exposure of sensitive information. Implement strict authentication and authorization controls around access to trained ML models as well as any APIs or interfaces used to interact with them.

Detection mechanisms: Develop mechanisms to detect, alert and block malicious activities related to inversion attacks. Monitor usage logs and apply statistical analysis, anomaly detection algorithms, or other methods to identify suspicious behavior, IP addresses, and user agents associated with inversion attempts.

Q: Adversarial attack on ML model. How to use topology for protection?

A: Topology refers to the structure, arrangement, or organization of elements in a system. In the context of Machine Learning (ML) models, topology can refer to the architecture of the neural network or the relationships between different components within the model. Here are some ways you could leverage topology for the purpose of defending against adversarial attacks:

Architecture design: The choice of the ML model architecture and the number of layers, neurons per layer, and activation functions has a significant impact on model robustness. By selecting architectures that have demonstrated strong robustness against adversarial attacks, you may achieve greater defense capabilities. For example, ResNet and EfficientNet families of convolutional networks have shown good performance under various types of adversarial attack.

Diversity: Introduce diversity into the model, either by having multiple models, each trained on slightly different subsets of the dataset, or varying parameters such as weight initializations, batch normalization scale/shift settings, dropout rates etc. An attacker would need to craft inputs effective for all versions, so this increases attack effort, reduces effectiveness of mass-produced attacks, and allows time for human intervention. Ensemble methods combining predictions across diverse models also tend to produce higher quality results than single models.

Интересно ! :) Отвечал - HuggingChat

По шаблону

Интересная работа - шаблоны проектирования про разработке моделей машинного обучения

Кладезь знаний

Датасет с контентом веб-сайтов (15 млн.), на котором обучался ChatGPT. Учитель для LLM

Monday, April 24, 2023

Sunday, April 23, 2023

Атаки инверсии модели

Model Inversion attack - получение приватной информации из тренировочного набора:

Как атаковать

Как защищаться

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Интернет всего

Да еще и социальный: Second International Workshop on Social Internet of Anything – 2023

Темы:

Social network analysis applied to communication networks (Online/Offline SN, Internet of Vehicles, Internet of Things, etc.)
Security, privacy and trust issues in Social Internet of Anythings
Connectivity management ruled by social features
Machine learning for Big Data analytics in social Internet of Anythings
Integration of social aspects in traditional ad-hoc networks
Small-world theory applied to Social Internet of Anythings
Cross-layer design of communication networks and social networks
Epidemic social network analysis for pandemic contention
Social networking for contact tracing, location and tracking
Social Data and multimedia communication and privacy
Infrastructure, platform, protocol design, and optimization for mobile social networks, mobile social clouds, and social Internet-of-Things with Artificial Intelligence
Social-aware network solutions and social network influence on (wireless) communications systems
Architectures and Protocols for Blockchain-based social media platforms

Наши работы по сетевой пространственной близости очень хорошо вписываются в эту тематику.

Friday, April 21, 2023

Проверка, испытания и наладка электрооборудования

Электролаборатория ООО «БЬЮФОРТ» оказывает комплексные услуги по проверке, испытанию и наладке электрооборудования электроустановок до 10кВ. Электроизмерительная лаборатория имеет необходимый комплект высокоточных современных электроизмерительных и испытательных приборов. Работа электротехнической лаборатории регламентируется методическими рекомендациями, согласованными со специалистами Ростехнадзора по Москве, действующим законодательством и ПУЭ.

Электролаборатория ООО «БЬЮФОРТ»

Ассоциативные правила

Учебный материал с исходными кодами - построение ассоциативных правил по датасету

Встроенные финансы

Финансовые продукты (услуги) теперь становятся частью других продуктов

Monday, April 17, 2023

Повсеместная безопасность

Повсеместные вычисления (вездесущие вычисления, юбикомп, от англ. ubiquitous computing) — понятие, обозначающее модель взаимодействия человека с вычислительной системой, в которой пользователь окружён вычислительными устройствами, пронизывающими окружающую среду, интегрированными в повседневные вещи. В отличие от виртуальной реальности, где в компьютере отражается виртуальный мир, при повсеместных вычислениях компьютеры привносятся в реальный мир вокруг человека, этот мир состоит из множества цифровых мини-помощников (окружающий интеллект). Таким образом, под повсеместными вычислениями понимают компьютеры в мире человека, а не человеческий мир внутри компьютера.

Проблемы безопасности в повсеместных вычислениях: Ubiquitous Security

GMAI

Большая языковая модель для медицинского AI - Generalist Medical AI

Thursday, April 06, 2023

Кибербезопасность киберфизических систем

Хорошее практическое применение стандартов NIST в описании проблем кибербезопасности CPS на примере железной дороги.

Wi-Fi CSI

Интересная работа по подсчету количества пассажиров в транспорте на основе анализа Wi-Fi CSI: Jiang, Hongbo, et al. "Pa-Count: Passenger Counting in Vehicles Using Wi-Fi Signals." IEEE Transactions on Mobile Computing (2023).

Tuesday, April 04, 2023

Все едино

Просто о Single Sign-On (SSO): SAML, OAuth2, OIDC

AI report 2023

Очередной отчет по ИИ от Стенфордского университета

Интересное замечание: "Хотя проверка фактов с помощью систем естественного языка стали популярными в последние годы, языковые модели обычно обучаются на статических снимках данных без постоянных обновлений с течением времени, и им не хватает контекста реального мира, который люди, проверяющие факты, могут легко получить и использовать для проверки достоверности утверждений. Исследователи Технического университета Дармштадта и IBM проанализировали существующие наборы данных для проверки фактов выявлены недостатки систем проверки фактов, построенных на основе этих наборов данных. Например, автоматизированные системы проверки фактов часто предполагают наличие противоречивых контрдоказательств для новых ложных утверждений, но для проверки новых утверждений, как истинных так и ложных, часто нет доказательства наличия или отсутствия противоречия."

Иными словами, факт отвергается, если в датасете есть противоречивое утверждение. А если такого нет? Пример из отчета - утверждение "Чтобы создать вакцину от COVID-19, можно убить миллион акул". Это не будет опровергнуто, посокльку нет обратного утверждения. Тогда как человек модет проверить информацию о вакцине.

Friday, March 31, 2023

Вопрошатель

Prompt engineer - человек, который задает правильные вопросы большим языковым моделям. С зарплатой до $335 000 в год. Не все могут себе такое позволить. И, соответственно, появились маркетплейсы для таких вопросов. То есть можно, в прямом смысле, купить вопрос.

Thursday, March 30, 2023

Риски в ИИ

По факту - риски в машинном обучении - статьи и отчеты

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Как это работает

Визуальные объяснения основных концепций машинного обучения