Thursday, June 30, 2022

CEUR-WS

Популярное место для публикации материалов конференций и семинаров - ceur-ws.org C 22 апреля материалы из России не принимает ...

Фейковые видео-данные

Интересный подход к проверке отсутствия состязательных атак в видео

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Sunday, June 26, 2022

Некогда объяснять

Explainer - простой пакет для объяснения значимости факторов модели машинного обучения

См. другие публикации, посвященные ответу на вопрос почему?

Thursday, June 23, 2022

Monday, June 20, 2022

Открытая наука, том 10, номер 6

Очередной номер журнала INJOIT появился на сайте Киберленинка.

Это том 10, номер 6 за 2022 год. По данным elibrary.ru, журнал INJOIT занимает второе место в разделе Кибернетика и второе в разделе Автоматика и вычислительная техника

/via Лаборатория ОИТ

Pro & Contra

Простой, но важный момент - предположения, которые лежат в основе различных алгоритмов машинного обучения. Фактически - вопрос выбора модели.

Thursday, June 16, 2022

Рецепты ML

Открытая книга с решениями задач машинного обучения.

P.S. см. также публикации по блокнотам ML: ML notebooks

Математика глубинного обучения

deeplearningmath.org. Книга в свободном доступе. Дописывается в реальном времени.

P.S. см. также другие книги из раздела математика

Wednesday, June 08, 2022

О графовых базах данных

Хорошо написанный материал о достоинствах графовых баз данных. В интервью упоминается GQL - это готовящийся стандарт на язык запросов для графовых баз данных.

Где-то мы уже это видели

Другое название удаленки - Цифровая кафедра. В данном случае МИФИ, но скоро, видимо, везде.

Transfer learning

Примет трансферного обучения: модели, обученные на городских данных, передаются между городами. Неявно утверждая, что все города похожи ...

Sunday, June 05, 2022

Тестирование робастности

Устойчивость систем машинного обучения - критический момент для их применения в авионике, автоматическом вождении и других специальных областях. Как протестировать системы на устойчивость. Некоторая подборка ссылок.

Robuscope - online тестирование моделей ML от Fraunhofer Institute for Cognitive Systems IKS. Вот здесь есть список публикаций авторов системы по оценкам устойчивости. А здесь - подход Fraunhofer к аудированию систем ИИ (май, 2022)

Efemarai - платформа для постоянного тестирования и улучшения машинного обучения. Efemarai Continuum позволяет командам машинного обучения разрабатывать надежные модели, постоянно тестируя граничные случаи (границы применимости).

Вот здесь есть описание системы

Arize AI - мониторинг для ML систем

Сравнительный обзор инструментов тестирования робастности от Borealis AI

Фреймворк для верификации систем ИИ - A.I. Verify. Авторство - государственная комиссия по защите данных Сингапура (PDPC Singapore)

Коллекция инструментов и регуляторных актов по тестированию работы ИИ систем с данными

Практический пример тестирования устойчивости системы распознавания дорожных знаков

Анализ сдвига данных, оценка качестве данных и другие инструменты в обзоре подходов к тестированию систем ML

Общие подходы к тестированию ML систем

Большой обзор систем тестирования для машинного обучения

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Wednesday, June 01, 2022

Прощай, я приму его в лоб

Лобовая Black Box атака на детектор объектов в YOLO - насколько это может быть успешно?

Реально используемая модель в критических ML приложениях должна скрываться. Это отличие от "традиционных" алгоритмов. Траектории, например, рассчитываются у всех одинаково. И открытость алгоритмов = это скорее плюс. Можно что-то проверить. А вот знание (догадка) о об используемой архитектуре ML системы может помочь построить состязательную атаку.