технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Thursday, June 30, 2022
CEUR-WS
Фейковые видео-данные
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Wednesday, June 29, 2022
ML стек
Tuesday, June 28, 2022
Monday, June 27, 2022
Физические атаки
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Sunday, June 26, 2022
Некогда объяснять
Saturday, June 25, 2022
Friday, June 24, 2022
Аномалии поведения
От стартапа, который посвятил свой бизнес анализу работы программистов с точки зрения кибербезопасности. У них в блоге довольно много интересных примеров
Thursday, June 23, 2022
Кэп попал в какой-то комитет
Процесс разработки возглавлял Микрософт. Компания активно принимает собственные стандарты для разработки ИИ: Microsoft’s Responsible AI Standard
Monday, June 20, 2022
Открытая наука, том 10, номер 6
Это том 10, номер 6 за 2022 год. По данным elibrary.ru, журнал INJOIT занимает второе место в разделе Кибернетика и второе в разделе Автоматика и вычислительная техника
/via Лаборатория ОИТ
Pro & Contra
Sunday, June 19, 2022
Friday, June 17, 2022
Thursday, June 16, 2022
Рецепты ML
P.S. см. также публикации по блокнотам ML: ML notebooks
Математика глубинного обучения
P.S. см. также другие книги из раздела математика
Tuesday, June 14, 2022
Saturday, June 11, 2022
Friday, June 10, 2022
Graph ML 2022
См. также другие публикации, посвященные графам
Thursday, June 09, 2022
Wednesday, June 08, 2022
О графовых базах данных
Где-то мы уже это видели
Transfer learning
Tuesday, June 07, 2022
Искусственный интеллект на войне
P.S. Оценка таких приложений с точки зрения используемых моделей, архитектур и методов есть в статье журнала INJOIT
Monday, June 06, 2022
Sunday, June 05, 2022
Тестирование робастности
Robuscope - online тестирование моделей ML от Fraunhofer Institute for Cognitive Systems IKS. Вот здесь есть список публикаций авторов системы по оценкам устойчивости. А здесь - подход Fraunhofer к аудированию систем ИИ (май, 2022)
Efemarai - платформа для постоянного тестирования и улучшения машинного обучения. Efemarai Continuum позволяет командам машинного обучения разрабатывать надежные модели, постоянно тестируя граничные случаи (границы применимости).
Вот здесь есть описание системы
Arize AI - мониторинг для ML систем
Сравнительный обзор инструментов тестирования робастности от Borealis AI
Фреймворк для верификации систем ИИ - A.I. Verify. Авторство - государственная комиссия по защите данных Сингапура (PDPC Singapore)
Коллекция инструментов и регуляторных актов по тестированию работы ИИ систем с данными
Практический пример тестирования устойчивости системы распознавания дорожных знаков
Анализ сдвига данных, оценка качестве данных и другие инструменты в обзоре подходов к тестированию систем ML
Общие подходы к тестированию ML систем
Большой обзор систем тестирования для машинного обучения
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Saturday, June 04, 2022
Friday, June 03, 2022
Про тех. процессы
Wednesday, June 01, 2022
Прощай, я приму его в лоб
Реально используемая модель в критических ML приложениях должна скрываться. Это отличие от "традиционных" алгоритмов. Траектории, например, рассчитываются у всех одинаково. И открытость алгоритмов = это скорее плюс. Можно что-то проверить. А вот знание (догадка) о об используемой архитектуре ML системы может помочь построить состязательную атаку.