AbavaNet technical corner
технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Thursday, April 24, 2025
Как скажете
Wednesday, April 23, 2025
Tuesday, April 22, 2025
Поясни за модель
(1) LIME (Local Interpretable Model-Agnostic Explanations): IME (Local Interpretable Model-Agnostic Explanations): Это изменяет ввод выборок данных, чтобы увидеть, как меняются прогнозы. LIME позволяет интерпретировать модель локально. После изменения значений признаков наблюдаются выходные данные.
(2) SHAP (аддитивные объяснения Шепли): Это еще один метод объяснения выходных данных ML-модели. Он сопоставим с LIME в том, что интерпретации используются для отображения влияния определенного значения признака на прогноз. SHAP повышает прозрачность модели.
(3) ELI5 или Explain Like I'm 5: Это популярный инструмент Python, который позволяет визуализировать прогнозы моделей машинного обучения и помогает в отладке классификаторов. ELI5 можно использовать для оценки производительности модели машинного обучения двумя способами. Global ELI5 демонстрирует, как параметры ведут себя по отношению ко всей модели. Локальный ELI5 проверяет один экземпляр прогноза.
(4) XAI 5: Это набор инструментов машинного обучения, специально созданный для анализа данных и оценки моделей. Он помогает пользователю сбалансировать класс путем увеличения или уменьшения выборки набора данных перед обучением и тестированием. Корреляционная матрица используется для оценки поведения модели.
(5) Инструментарий Partial Reliance Plot (PDPbox) используется для вычисления и визуализации влияния признаков на прогнозирование целевых переменных. Библиотека похожа на random forest в том, что указывает, как характеристика влияет на прогнозирование. Модуль Python обнаруживает связи между данными или признаками, используемыми в качестве входных данных для модели, и окончательным прогнозом. Он используется для демонстрации глобальных и локальных интерпретаций моделей черного ящика.
(6) GradCAM Он позволяет визуализировать тепловые карты и градиенты для настройки гиперпараметров или разработки матриц неточностей, а также объяснять и визуализировать прогноз.
(7) InterpretML: набор инструментов Microsoft Python с открытым исходным кодом для обучения понятных моделей и объяснения технологий черного ящика. Это помогает в отладке, позволяя понимать прогнозы, сделанные моделью. Он основан на индивидуальной оценке глобальных и локальных аспектов.
(8) АЛИБИ. Alibi — это библиотека Python с открытым исходным кодом, которая состоит из широкого спектра алгоритмов для выполнения интерпретации прогноза в конкретном случае.
См. также другие публикации, посвященные SHAP и ответу на вопрос "почему" для моделей машинного обучения
Monday, April 21, 2025
6G - примеры использования
Sunday, April 20, 2025
Книги предсказаний
Saturday, April 19, 2025
Формальные методы
Friday, April 18, 2025
Thursday, April 17, 2025
Состязательные атаки и защиты в машинном зрении
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Wednesday, April 16, 2025
Как оценить ИИ, который умнее нас?
Tuesday, April 15, 2025
Адаптивный камуфляж
См. также другие публикации по теме физические атаки
Monday, April 14, 2025
MS AI Red Team
1) Генеративный ИИ усиливает как новые, так и существующие риски;
2) Понимание того, что может делать система и где она применяется;
3) Автоматизация может помочь охватить большую часть ландшафта рисков
3 takeaways from red teaming 100 generative AI products
См. также другие публикации по теме Red team
Saturday, April 12, 2025
20 терминов из статистики
Friday, April 11, 2025
ИБП для промышленности
Аномалии в киберфизических системах
См. также другие публикации, посвященные CPS
Wednesday, April 09, 2025
ML & Causal
см. также другие публикации, посвященные каузальности