Thursday, March 16, 2023

Большие языковые модели GPT

Соучредитель OpenAI Грег Брокман о моделях GPT:

OpenAI представила новейшую серию больших языковых моделей GPT, вызвавшую всеобщий ажиотаж. Компания представила статистику и примеры, призванные продемонстрировать, что новая модель превосходит своих предшественников в понимании языка, а также в способности принимать желаемый стиль и тон и оставаться в рамках, установленных ее дизайнерами. Соучредитель OpenAI Грег Брокман продемонстрировал некоторые из своих возможностей в прямом эфире, сопровождавшем запуск.

Как получить доступ: Ввод/вывод текста доступен через ChatGPT Plus, стоимость которого составляет 20 долларов в месяц, а ввод изображений ожидается. Готовится API, и можно присоединиться к списку ожидания. Как это работает: OpenAI не поделился подробностями, сославшись на опасения по поводу безопасности и конкуренции. Как и более ранние модели GPT, GPT-4 основан на архитектуре трансформеров и обучен прогнозировать следующий токен на основе сочетания общедоступных и частных наборов данных. Он был доработан с использованием обучения с подкреплением на основе отзывов людей и инженерных подсказок.

OpenAI хранит молчание о точной архитектуре (включая размер), наборах данных, процедуре обучения и требованиях к обработке. По словам Брокмана, GPT-4 обрабатывает 32 000 токенов за раз, что на порядок больше, чем оценки количества токенов ChatGPT, что позволяет ему работать с более длинными текстами, чем предыдущие модели больших языков. Модель принимает входные изображения, включая страницы текста, фотографии, диаграммы и снимки экрана. (Эта возможность еще не общедоступна, потому что компания все еще работает над ее ускорением, сказал Брокман.)

Новый тип ввода, называемый системным сообщением, указывает модели стиль, тон и подробность, которые следует использовать в последующих взаимодействиях. Например, системное сообщение может заставить модель реагировать в стиле Сократа, побуждая пользователей приходить к своим собственным ответам посредством критического мышления. Компания предлагает новую платформу OpenAI Evals для создания и запуска тестов. Он приглашает всех желающих помочь протестировать модель.

Как это работает: GPT-4 прошел множество тестов искусственного интеллекта, а также смоделированные версии тестов, разработанных для людей.
GPT-4 превзошел современный уровень в ответах на вопросы с множественным выбором MMLU, рассуждениях на основе здравого смысла HellaSwag, ответах на научные вопросы с множественным выбором в начальной школе AI2, рассуждениях на основе здравого смысла WinoGrande, кодировании HumanEval Python и DROP. понимание прочитанного и арифметика.
Он превзошел GPT-3.5, Chinchilla и PaLM по производительности на английском языке на 24 языках от африкаанс до валлийского. Модель соответствовала или превзошла уровень техники в нескольких тестах зрения в TextVQA для чтения текста на изображениях, ChartQA, AI2 Diagram, DocVQA, Infographic VQA и TVQA.
GPT-4 набрал от 80 до 100 процентов на смоделированных человеческих тестах, включая единый экзамен на адвоката, LSAT, SAT и расширенные вступительные тесты по биологии, психологии, микроэкономике и статистике.
GPT-4 прыгает через ограждения, когда его спрашивают о запрещенных темах, таких как получение опасных веществ, примерно в 1% случаев, в то время как GPT-3.5 делает это примерно в 5% случаев.
Точно так же GPT-4 ведет себя неправильно, когда его спрашивают о деликатных темах, таких как членовредительство, примерно в 23 процентах случаев, тогда как GPT-3.5 делает это примерно в 42 процентах случаев.

Где это работает: несколько компаний уже используют GPT-4.
Сам OpenAI использует эту модель для модерации контента, продаж, поддержки клиентов и кодирования.
Обновленный поиск Microsoft Bing, запущенный в прошлом месяце, основан на GPT-4.
Stripe использует GPT-4 для сканирования и написания резюме бизнес-сайтов.
Платные подписчики Duolingo могут изучать языки, общаясь с GPT-4.

Да, но: OpenAI не скрывает проблем: «Хотя во многих реальных сценариях она менее способна, чем люди. . . Возможности и ограничения GPT-4 создают серьезные и новые проблемы безопасности». Хотя эта модель превзошла своих предшественников во внутренних состязательных оценках фактической правильности, как и другие модели больших языков, она по-прежнему изобретает факты, делает ошибки в рассуждениях, генерирует предвзятые результаты и формулирует неверные утверждения уверенным языком. Кроме того, ему не хватает информации о событиях, произошедших после сентября 2021 года, когда был завершен сбор его тренировочных данных. OpenAI подробно описывает проблемы безопасности здесь.

Отсюда

Adversarial ML: классификация и терминология

Состязательное машинное обучение: таксономия и терминология атак и смягчения последствий - публикация от NIST

Атак на интеллектуальную собственность уже 5:

Data Reconstruction
Memorization
Membership Inference
Model Extraction
Property Inference

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Анти-YOLO

Одежда, в которой YOLO не распознает человека. Еще один пример атаки на модели машинного обучения.

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Wednesday, March 15, 2023

Прикладное машинное обучение

Открытый онлайн-курс представляет прикладные методы машинного обучения. Оригинал - курс основе CS 5785 в Cornell Tech. Он охватывает алгоритмы машинного обучения (линейная регрессия, методы ядра, нейронные сети и т. д.), их математические основы и их реализацию. Основные моменты:

23 лекции с подробными конспектами курса

30+ часов лекций

Более 20 реализаций алгоритмов машинного обучения на Python

ML SQL

Машинное обучение в SQL - Apache Madlib. Вот пример реализации градиентного спуска на SQL

Monday, March 13, 2023

Сетевая безопасность

Темы воркшопа IEEE:

OVERVIEW

This workshop will explore evolving Future networks (5G/6G) use cases, as well as associated research challenges. The objective of this workshop is to bring together global expertise and create a joint platform for
knowledge exchanges, presentation of results, and fruitful discussions to identify gaps and future directions for the IEEE FNI Security Working Group and efforts.

Day 1 - 14 March 2023

9:00-9:15 Introduction - IEEE Future Networks Security Working Group Ashutosh Dutta (JHU/APL), Eman Hammad (Texas A&M - RELLIS)

Keynote Presentation:

Venki Ramaswamy (MITRE)

9:45-10:00 Enhancing the Security of 5G Fronthaul Marcus Wong

10:00-10:15 Towards a Trust Aware Network Slice based Service Provision in Virtualised Infrastructures Kallol Krishna Karmakar, Vijay Varaadharajan

10:15-10:30 IETF LAKE: Lighweight Authenticated Key Exchange for Internet-of-Things Use Cases Mališa Vučinić

10:30-10:40 Break

10:40-10:55 Scalable Information Veracity Verification of mMTC in Emerging Networks Nirnimesh Ghose

10:55-11:10 ZSM Policy Based 5G Security Slice Management Framework Rodrigo Asensio-Garriga, Antonio Fernando Skarmeta Gomez, Alejandro Moliina Zarca, Jordi Ortiz

11:10-11:25 Zero Trust Architecture: The Past, The Present and The Future Michael A. Enright, Eman Hammad, Ashutosh Dutta

Keynote Presentation:

Introduction to The DoD's New Zero Trust DataSpecification

Junaid Islam, CTO XQ Message, Partner OODA LLC

11:55-12:20 TBD Ashish Kundu, Cisco

12:20-1:30 Blockchain and FN Security Panel DJ-SHYY Mitre (moderator), Bharat Rawal, Mahesh Chand, Dante Pacella

Day 2 - 15 March 2023

9:00-9:05 Introduction

9:05-9:35 Keynote Presentation: ORAN, ZTA, and CI in Cloud Scott Poretsky (Ericsson)

9:35-9:50 Hardware Confidential Computing for Securing Next-Gen Networks Kapil Sood (Intel)

9:50-10:05 Open Security Challenges 5G Based Critical Communications Ravishankar Borgaonkar

10:05-10:20 Threat Model for Multi-Site Private 5G Deployments Arpit Tripathi

10:20-10:30 Break

10:30-11:45 Blockchain-enabled Secure Communication in Internet of Drones Omer M Gul

11:45-11:55 5G/6G for Enabling Secure Autonomous Vehicular Communcation: Research Challenges Deepanshu Garg, Rasmeet S. Bali

11:55-12:10 Hybrid Quantum-Classical Machine Learning for Near Real-time Space to Ground Communication of ISS Lightning Imaging Sensor Data Samih Fadli (ORION SPACE, DOD)

12:10-12:25 Security-as-a-Service for 5G Applications Ashutosh Dutta

12:25-12:55 Keynote Presentation: 5G/Future G Security and AI/ML Arupjyoti Bhuyn (INL)

12:55-1:30 Panel Discussion

Отсюда

Sunday, March 12, 2023

Thursday, March 09, 2023

И не говори мне ...

Клонированные голоса занимают центральное место в постановках как начинающих авторов, так и крупных корпораций.

Как это работает: такие компании, как ElevenLabs, Resemble AI, Respeecher и Play.ht, недавно запустили бесплатные сервисы, которые клонируют голос говорящего из коротких образцов. Такие предложения развязывали хор сгенерированных голосов.

Создатели YouTube привлекли сотни тысяч зрителей к видеороликам, в которых якобы записаны голоса недавних президентов США, спорящих из-за карточной игры, играющих в Minecraft и обсуждающих покемонов. Athene AI Show, вымышленное ток-шоу, транслируемое без перерыва на Twitch, принимает вопросы интервью, заданные зрителями в канале чата. Сгенерированные голоса знаменитостей или вымышленных персонажей отвечают в сгенерированном разговоре с хостом (личностью в Интернете по имени Афина). У канала более 16 000 подписчиков.
Музыкант Дэвид Гетта, используя неуказанные модели генерации текста и голоса, доступные в сети, синтезировал строки в стиле Эминема «в шутку». Он сыграл ее во время живого выступления, и «люди сошли с ума!»
Сервис потоковой передачи музыки Spotify запустил «AI DJ», который создает для пользователей специальные плейлисты, перемежающиеся комментариями клонированного голоса Ксавьера Джернигана, главы отдела культурного партнерства компании. Sonantic AI, стартап, который Spotify приобрел в прошлом году, предоставил синтезированный голос, который интонирует комбинацию слов, написанных человеком, и текста, сгенерированного неизвестной моделью OpenAI.

Да, но демократизация клонирования голоса открывает двери преступникам и шутникам.

Мошенники выманивали деньги у своих жертв, имитируя голоса родственников, просящих деньги.
Репортер Vice использовал ElevenLabs для клонирования собственного голоса. Факсимиле было достаточно убедительным, чтобы позволить ему получить доступ к своему банковскому счету.
Пользователи 4Chan использовали технологию ElevenLabs для создания языка ненависти синтезированными голосами знаменитостей.
ElevenLabs отреагировала на поток поддельных голосов, проверив личность пользователей, идентифицировав клонов и заблокировав учетные записи, которые злоупотребляют ее услугами.

Почему это важно: клонирование голоса стало культурным мейнстримом благодаря онлайн-платформам, предлагающим бесплатные услуги искусственного интеллекта. Изображения, текст, а теперь и голоса быстро стали достаточно убедительными и доступными, чтобы служить выразительными инструментами для медиапроизводителей всех мастей.

Итого: с новыми возможностями приходят и новые задачи. Многие методы социальной защиты и безопасности необходимо будет пересмотреть в эпоху, когда голос человека больше не является надежным признаком его личности.

Отсюда

Wednesday, March 08, 2023

ChatGPT и кибербезопасность

LLM упрощают создание скриптов для атаки - генерация вредоносных программ в ChatGPT. Процессы взлома демократизируются. Но с другой стороны - демократизируются ведь и тесты на проникновение.

Tuesday, March 07, 2023

Тестирование DNN

Тестирование моделей глубиного обучения - neuron coverage vs. code coverage. Вот пример использования подобного подхода к тестированию автопилота

Saturday, March 04, 2023

Новый список ВАК

Специальности для журнала INJOIT:

1.2.2. Математическое моделирование, численные методы и комплексы программ (физико-математические науки),
1.2.2. Математическое моделирование, численные методы и комплексы программ (технические науки),

2.3.1. Системный анализ, управление и обработка информации (физико-математические науки),
2.3.1. Системный анализ, управление и обработка информации (технические науки),

2.3.5. Математическое и программное обеспечение вычислительных систем, комплексов и компьютерных сетей (физико-математические науки),
2.3.5. Математическое и программное обеспечение вычислительных систем, комплексов и компьютерных сетей (технические науки),

2.3.6. Методы и системы защиты информации, информационная безопасность (физико-математические науки),
2.3.6. Методы и системы защиты информации, информационная безопасность (технические науки)

Отсюда

На злобу дня

Уже появились курсы по бизнезу на основе LLM (ChatGPT и др.)

Friday, March 03, 2023

Мозг и LLM

Интересная работа - параллели между большими языковыми моделями и работой мозга "В последнее время достигнут значительный прогресс в обработке естественного языка: алгоритмы глубокого обучения все чаще способны генерировать, обобщать, переводить и классифицировать тексты. Тем не менее, эти языковые модели по-прежнему не соответствуют языковым способностям людей. Теория предиктивного кодирования предлагает предварительное объяснение этого несоответствия: в то время как языковые модели оптимизированы для предсказания близлежащих слов, человеческий мозг будет постоянно предсказывать иерархию представлений, охватывающую несколько временных масштабов. Чтобы проверить эту гипотезу, мы проанализировали сигналы мозга с помощью функциональной магнитно-резонансной томографии 304 участников, слушающих короткие рассказы. Во-первых, мы подтвердили, что активация современных языковых моделей линейно сопоставляется с реакцией мозга на речь. Во-вторых, мы показали, что расширение этих алгоритмов прогнозами, охватывающими несколько временных масштабов, улучшает картирование мозга. Наконец, мы показали, что эти прогнозы организованы иерархически: лобно-теменная кора предсказывает репрезентации более высокого уровня, дальнего действия и более контекстуальные, чем височная кора. В целом, эти результаты усиливают роль иерархического предиктивного кодирования в обработке речи и иллюстрируют, как синергия между нейронаукой и искусственным интеллектом может раскрыть вычислительные основы человеческого познания."

Transfer learning и тонкая настройка моделей

Хороший практический материал по Transfer learning в NLP и компьютерном зрении

Thursday, March 02, 2023

Что там в датасете?

Типичные курсы машинного обучения обучают методам создания эффективных моделей для заданного набора данных. В реальных приложениях данные беспорядочны, и улучшение моделей — не единственный способ повысить производительность. Вы также можете улучшить сам набор данных, а не рассматривать его как фиксированный. Data-Centric AI (DCAI) — это новая наука, изучающая методы улучшения наборов данных, что часто является лучшим способом повышения производительности в практических приложениях ML. DCAI рассматривает улучшение данных как систематическую инженерную дисциплину.

Первый в мире курс по DCAI от MIT: Введение в Data-centric AI

См. также другие публикации по теме data centric

Wednesday, March 01, 2023

О подобии

Как определять подобие в рекомендательных системах: Cosine Similarity, Dot Product, Jaccard Similarity, Conditional Probability Lift

Low code. Почти без программистов

В приниципе, no-code-low-code, конечно, правильный подход. Как и AutoML. Победит, в итоге. Но не сразу. Обзор - алгоритмы low-code-no-code. Что есть уже сейчас.

Tuesday, February 28, 2023

Лучше поздно, чем никогда

В итоге GSMA решила выпустить открытую спецификацию для разработчиков - программные интерфейсы для сети оператора связи. Это - CAMARA project. То, о чем столько лет говорили большевики в компании AbavaNet - свершилось.

Всемирная история ядов

В настоящей статье рассматривается один из возможных классов атак на системы машинного обучения – атаки отравлением. Классически, атаки отравлением – это специальные модификации тренировочных данных, которые призваны воздействовать на полученную после обучения модель необходимым атакующему образом. Атаки могут быть направлены на то, чтобы понизить общую точность или честность модели, или же на то, чтобы, например, обеспечить, при определенных условиях, необходимый результат классификации. Техника осуществления такого рода атак включает алгоритмы для определения элементов тренировочных данных, в наибольшей степени ответственных за результаты обучения (за выработанные обобщения), минимизацию количества отравляемых данных, а также за обеспечение максимальной незаметности проводимых изменений. Среди атак отравления наиболее опасными являются так называемые трояны (бэкдоры), когда посредством специальным образом подготовленных тренировочных данных добиваются изменения логики работы модели для определенным образом помеченных входных данных. Помимо модификации тренировочных данных к атакам отравления относят также прямые атаки на готовые модели машинного обучения или их исполняемый код.

Атаки отравления данных на модели машинного обучения

Saturday, February 25, 2023

Но как же он работает в очистке?

Хороший практический материал по очистке табличных данных в трех частях: часть 1, часть 2 (workflow), часть 3 (примеры)

См. также другие публикации, посвященные очистке данных

Friday, February 24, 2023

Thursday, February 23, 2023

Визуализация для pandas

Симпатичный пакет для визуальной аналитики pandas dataframes

См. также другие публикации, посвященные pandas или Python

Кто есть что в ML 2023

Взгляд венчурного капиталиста на компании, занимающиеся машинным обучением и большими данными в 2023 году. Систематизированный список вендоров. В трендах, конечно, генеративные модели. Есть уже примеры использования ChatGPT в информационных войнах. Большие модели могут играть важную роль в распространении дезинформации

Обучение с подкреплением

Термин подкрепление (reinforcement) пришёл из поведенческой психологии и обозначает награду или наказание за некоторый получившийся результат, зависящий не только от самих принятых решений, но и внешних, не обязательно подконтрольных, факторов. Под обучением здесь понимается поиск способов достичь желаемого результата методом проб и ошибок (trial and error), то есть попыток решить задачу и использование накопленного опыта для усовершенствования своей стратегии в будущем. - учебник на русском языке

Wednesday, February 22, 2023

INJOIT & elibrary

Очередной номер журнала INJOIT выложен в elibrary.ru

Риски в ИИ

Национальный институт стандартов и технологий (NIST) Министерства торговли США выпустил свою концепцию управления рисками искусственного интеллекта (AI RMF 1.0), руководство для добровольного использования организациями, проектирующими, разрабатывающими, развертывающими или использующими системы ИИ, чтобы помочь управлять многими рисками технологий ИИ.

Tuesday, February 21, 2023

Все о блокчейн

Треки конференции, посвященной блокчейн, отражают все аспекты пименения:

Track 01: Artificial Intelligence and Machine Learning
Blockchain based artificial Intelligent Systems applications in Computers and Communications
Blockchain based AI and Robotics Technologies
Blockchain based AI and cloud computing
Blockchain based Economic paradigms and game theory
Blockchain based Machine and Deep Learning of Knowledge
Blockchain based Distributed Knowledge and Processing
Blockchain based Humans-Agents Interactions / Human-Robot Interactions

Track 02: IoT and Cyber-Physical Systems
Blockchain-based IoT Applications and Services
Blockchain-based security for the Internet of Things and cyber-physical systems
Blockchain-based Internet of Things architectures and protocols
Blockchain in Cyber Physical Systems (CPS)
Blockchain-based application in Intelligent Manufacturing: Industrial Internet of Things,
Blockchain and Secure Critical Infrastructure with Industry 4.0
Intelligent manufacture and management
Consensus and mining algorithms suited for resource-limited IoTs
Blockchain-based Controlled mobility and QoS
Blockchain-based energy optimization techniques in WSN
Blockchain-based Software defined networks

Track 03: Big Data
Blockchain in Data Fusion
Blockchain Analytics and Data mining
Distributed data store for blockchain
Distributed transaction for blockchain
Blockchain based Data Science and Data Engineering
Protocols for management and access using blockchains
Blockchain architectures tailored for domain-specific applications

Track 04: Security and Privacy on the Blockchain
Authentication and authorization in Blockchain
Applications of blockchain technologies in digital forensic
Privacy aspects of blockchain technologies
Blockchain-based threat intelligence and threat analytics techniques
Blockchain-based open-source tools
Forensics readiness of blockchain technologies
Blockchain Attacks on Existing Systems
Blockchain Consensus Algorithms
Blockchain-based Intrusion Detection/Prevention
Security and Privacy in Blockchain and Critical Infrastructure
Attacks on Blockchain and Critical Infrastructure
Blockchain and Secure Critical Infrastructure with Smart Grid

Track 05: Metaverse and Digital Twin
Blockchain in the metaverse
Blockchain in the digital twin
NFT Applications and protocols
Edge computing for Internet of Metaverse
Network security of the metaverse
Digital twin and Metaverse privacy
Consensus and mining algorithms suited for the metaverse
Blockchain-based Controlled mobility and QoS in the metaverse
Cybersecurity in the metaverse

Track 06: Blockchain Research & Applications for Innovative Networks and Services
State-of-the-art of the Blockchain technology and cybersecurity
Blockchain-based security solutions of smart cities infrastructures
Blockchain in connected and autonomous vehicles (CAV) and ITS)
Blockchain Technologies and Methodologies
Recent development and emerging trends Blockchain
New models, practical solutions and technological advances related to Blockchain
Theory of Blockchain in Cybersecurity
Applications of blockchain technologies in computer & hardware security
Implementation challenges facing blockchain technologies
Blockchain in social networking
Performance metric design, modeling and evaluation of blockchain systems
Network and computing optimization in blockchains
Experimental prototyping and testbeds for blockchains

Это дрифт

Почему падает точность предсказания модели

Monday, February 13, 2023

Непобедимые deep fake

От технического директора Microsoft: ON THE HORIZON: INTERACTIVE AND COMPOSITIONAL DEEPFAKES. Как их распознать? А никак.
Остается только Authenticity protocols и Content provenance. В первом случае, нужно динамически аутентифицировать участников онлайн-собрания, например. Новое подтверждение подлинности протоколы, такие как проверка подлинности в реальном времени, могут потребоваться для идентификации интерактивных дипфейков через обязательные тесты на компетентность и знания. Новые практики многофакторной аутентификации личности могут стать необходимыми для допуска на онлайн-встречи или появления в видеороликах.

Второе - это размечать медиаданные. Если водяного знака нет - считать фейком.

Friday, February 03, 2023

Кибербезопасность от Сбербанка

Спецкурс Сбербанка по кибербезопасности ИИ - регистрация

Все о корреляции

Обзор подходов к вычислению корреляции

SEO или PEO?

10 trends that will shape the role of data scientists in the next 10 years: Prompt Engineering Optimization (PEO) - формулировка запросов к большим языковым моделям. Это то, что заменит поисковую оптимизацию (SEO).

Другие предсказания трендов более очевидные. Например, рост AutoML и Low-code решений. Все хотят экономить и обходиться без программирования. Но есть и впервые появишаяся позиция - понимание предметной области. Без этого, на самом деле, машинное обучение превращается в игру с цифрами.

Thursday, February 02, 2023

О кибербезопасности систем Интернета Вещей

В настоящей статье рассматриваются вопросы кибербезопасности систем Интернета Вещей (IoT). Такого рода системы всегда представляют собой интеграцию множества различных технологий. Это, естественным образом, увеличивает возможности для атакующих по воздействию как на программные, так и на аппаратные подсистемы проектов. Множество различных поставщиков со своими решениями и циклами по обновлению программного обеспечения многократно увеличивает возможности атак на цепочки поставок. Исторически, системы IoT использовали и продолжают использовать самые разнообразные коммуникационные решения, что усложняет защиту данных в этой плоскости. Оконечные устройства (сенсоры, актуаторы) также сильно различаются по своим возможностям и характеристикам, что исключает какие-то единые решения в этой области. Пожалуй, единственным “стандартным” элементом IoT систем служат облачные хранилища, кибербезопасностью которых необходимо заниматься и вне IoT проектов. Дополнительную сложность работам по кибербезопасности IoT придает то, что за термином IoT скрывается целое семейство подходов (архитектур) – промышленный Интернет Вещей, Интернет нано-вещей и т.д. К возможным атакам на Iot системы относят кражу конфиденциальных данных, кражу личных данных, повреждение инфраструктуры, повреждение данных, несанкционированное наблюдение, незаконное изменение данных и несанкционированное использование возможностей устройств.

Отсюда

Туда и обратно

Две статьи по использование ИИ (практически - машинного обучения) в кибербезопасности:

ML в кибер-обороне

ML в кибер-наступлении

взято из интересной книги 2023 года Artificial Intelligence and Cybersecurity. Theory and Applications

Wednesday, February 01, 2023

INJOIT vol. 11, no. 2

Вышел второй номер журнала INJOIT в 2023 году. И одиннадцатый год издания журнала.

Темы статей:

  • О булевых функциях с мощностью множества критерия распространения, равной 2^n-2
  • Прогноз развития эпидемической ситуации COVID-19 в Москве в 2022-2023 годах
  • Построение модели управления пропускной способностью телекоммуникационных сетей
  • Поддержка средств автономной навигации мобильного робота с помощью внутренней модели на нейронной сети
  • Генерация математических моделей линейных динамических систем, заданных структурными схемами
  • Применение Ceph в современных облачных инсталляциях
  • Зависимость качества работы нейронных сетей от характеристик обучающих данных при работе со снимками УЗИ щитовидной железы
  • Разработка веб-приложения для мониторинга параметров работы манипуляционных механизмов
  • Методы анализа рисков информационной безопасности: нечеткая логика
  • Оценка временной сложности для задачи поиска идентичных товаров для электронной торговой площадки на основании композиции моделей машинного обучения
  • Онтологии как инструментарий прикладной аналитики
  • О кибербезопасности систем Интернета Вещей

Архив журнала находится здесь.

/via Лаборатория ОИТ

Tuesday, January 31, 2023

Откуда и куда?

Adaptive Feature Fusion Networks - интересный подход к анализу матриц корреспонденций (они же OD matrices) в метро

Monday, January 23, 2023

Больше разных Интернетов

IoT (Internet of Things) - уже далеко не один.

Вот еще:

IoNT - Internet of Nano Things

IoST - Internet of Space Things

MIoT - Marine Internet of Things

OIoT - Oceans Internet of Things

См. также другие публикации по теме Интернет Вещей

INJOIT 2023

11-й год издания журнала INJOIT. Первый номер за 2023 год в Elibrary и Киберленинке

Что из этого сбылось?

Интересные предсказания развития ИИ на 2022 год. Документ был написан в конце 2021 года. Что сбылось в итоге?

TinyML - развивается

AutoML - остается общей мечтой

AI as a service - то же, что и было. Возможно, ChatGPT как сервис поменяет лидеров?

P.S. в своих прогнозах на 2023 год Google ставит на порождающие модели

Sunday, January 22, 2023

Tensorflow - учебник

Хороший учебный материал в доступной форме - Tensorflow + Google Colab

Атаки инверсии

Реалистичная модель для атак инверсии (восстановление исходных данных для модели машинного обучения). Авторы описывают атаку на модель, которая выводит только метки (только предсказанные классы) без указания достоверности.

Thursday, January 19, 2023

Tuesday, January 17, 2023

IoT проекты

Студенческие и аспирантские проекты по IoT. В рамка данного проекта также издана интересная книга по лабораторным работам в рамках курсов по Интернету вещей. Используется Arduino, Raspberry Pi, Node-Red, Thingsboard.

См. также другие публикации по теме Интернет Вещей

Monday, January 09, 2023

Квантовая Индустрия 4.0

Интересный обзор: Implications of Quantum Science on Industry 4.0: Challenges and Opportunities

Про ROC

Простое объяснение ROC метрики

См. также другие статьи, затрагивающие метрики

Создатель двойников

Цифровая платформа разработки и применения цифровых двойников (Digital Twins) и «умных» цифровых двойников (Smart Digital Twins) высокотехнологичных промышленных изделий/продуктов и технологических/производственных процессов их изготовления - cml-bench

См. также другие публикации, посвященные digital twins

Tuesday, January 03, 2023

Кого ты лечишь?

Довольно здравые рассуждения о том, что объяснимый ИИ должен быть разным. Объяснения для моделей машинного обучения должны быть разными, в зависимости от того, кому они адресованы.

Monday, January 02, 2023

Интегрированные градиенты

Объяснение моделей нейронных сетей с помощью интегрированных градиентов. Сравнение с картами значимости.

Практическое использование интегрированных градиентов с помощью Trulens. И тот же самый Trulens для подтверждения перетренировки

Открытая наука: INJOIT том 10, ном. 12

Очередной номер журнала INJOIT появился на сайте Киберленинка.

Это том 10, номер 12 за 2022 год. Первый номер 2023 года выйдет уже в январе.

/via Лаборатория ОИТ

Sunday, January 01, 2023

Плюшевые волки, зайцы, погремушки…

Плюшевые волки,
Зайцы, погремушки.
Детям дарят с елки
Детские игрушки.

И, состарясь, дети
До смерти без толку
Все на белом свете
Ищут эту елку.

Где жар-птица в клетке,
Золотые слитки,
Где висит на ветке
Счастье их на нитке.

Только дед-мороза
Нету на макушке,
Чтоб в ответ на слезы
Сверху снял игрушки.

Желтые иголки
На пол опадают...
Всё я жду, что с ёлки
Мне тебя подарят.

Константин Симонов, 1941