технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Страницы
Saturday, September 30, 2023
Об утечке данных
Friday, September 29, 2023
О робастности метрик
См. также другие публикации, посвященные робастности
Синтетические личности
Thursday, September 28, 2023
Знания из ничего
В перспективе
См. также другие статьи, посвященные визуализации
Wednesday, September 27, 2023
Основы A/B тестирования
См. также другие публикации, посвященные A/B тестированию
Monday, September 25, 2023
Международный конгресс «СОВРЕМЕННЫЕ ПРОБЛЕМЫ КОМПЬЮТЕРНЫХ И ИНФОРМАЦИОННЫХ НАУК»
Подробнее об участии - здесь
Sunday, September 24, 2023
Saturday, September 23, 2023
Защита критической инфраструктуры
Friday, September 22, 2023
ThingPlug
См. также другие публикации по теме IoT
Thursday, September 21, 2023
Оценка уязвимостей
Серьезность и возможность использования — это два разных измерения серьезности обнаруженной уязвимости. Усилие по исправлению измеряет сложность работы, необходимой для исправления результата.
Серьезность — это потенциальное влияние на конфиденциальность, целостность и доступность приложения, как это определено в CVSS (Общая система оценки уязвимостей). Возможность использования — это вероятность или легкость, с которой злоумышленник может использовать обнаруженную информацию. Обнаружение высокой важности с высокой вероятностью использования злоумышленником потенциально более опасно, чем обнаружение высокой серьезности с низкой вероятностью использования.
Усилие по исправлению, также называемое сложностью исправления, является мерой ожидаемых усилий, необходимых для исправления результата.
Атаки на сертификацию
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Wednesday, September 20, 2023
Лучше поздно, чем никогда
Tuesday, September 19, 2023
Нас этому не учили
1. Фреймворк для оценки надежности моделей машинного обучения от Google. Предлагается одновременно провести стресс-тестирование производительности «готовой» модели (т. е. прогнозируемого распределения) в терминах неопределенности, надежного обобщения и адаптации к новым данным.
2. Интересный автор из списка MIT Technology Review’s 2023 Innovator of the Year, который занимается исследованиями по данной теме: Sharon Yixuan Li
P.S. см. также другие публикации по теме out-of-ditribution-detection: OOD
P.P.S. статья в журнале INJOIT: Namiot, Dmitry, and Eugene Ilyushin. "Data shift monitoring in machine learning models." International Journal of Open Information Technologies 10.12 (2022): 84-93.
Monday, September 18, 2023
Будьте проще
VLAM
См. также другие публикации, посвященные LLM
Saturday, September 16, 2023
Подкрепленье не прислали
1. Книга в свободном доступе Reinforcement Learning: An Introduction
2. Reinforcement Learning: an Easy Introduction to Value Iteration
См. другие публикации, посвященные Reinforcement Learning
Friday, September 15, 2023
ChatGPT список списков
См. также другие публикации, посвященные LLM
Thursday, September 14, 2023
Галлюцинации
См. также другие публикации, посвященные LLM
Wednesday, September 13, 2023
Доверенный ИИ
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Что в коде моем?
Tuesday, September 12, 2023
Триггер против очистки
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Monday, September 11, 2023
Практика отравлений
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Sunday, September 10, 2023
Защита моделей ML
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
ML в критических приложениях
Ясно выражено то, о чем мы писали в своих статьях о мониторинге работы реальных моделей:
"Commercial solutions will certainly incorporate methodology for monitoring and retraining models, but it is unlikely they will incorporate processes that capture the complex system integration and risk frameworks that apply to DAF systems, especially safetycritical systems in the foreseeable future. The DAF should invest in synthetic data engines, live virtual constructive environments, data repositories, and support for digital twins representative of their modalities and platforms of interest to facilitate rapid model retraining and maintenance. Data standards must be extended to the platforms to support this retraining and enable fast capture of AI-ready data to facilitate retraining around model failure events."
Friday, September 08, 2023
Вопрошалки
2. 202 Awesome ChatGPT Prompts to Boost Productivity
3. Tips to enhance your prompt-engineering abilities
4. Prompt Engineering: A Practical Example
См. также другие публикации, посвященные LLM
Thursday, September 07, 2023
LLM и кибербезопасность
См. также другие публикации, посвященные LLM
AI Red Team - 2
1. Google опубликовал программный документ Securing AI: Similar or Different?
2. Статья Google: Why Red Teams Play a Central Role in Helping Organizations Secure AI Systems
3. Интересное интервью с CISO Google Cloud: What we can learn when responsible hacking meets responsible AI
4. NVIDIA AI Red Team: An Introduction. Хорошее введение в проблему, фреймворк и набор используемых инструментов.
5. Следующая платформа для кибербезопасности - Securing AI: The Next Platform Opportunity in Cybersecurity
Tuesday, September 05, 2023
Мартингалы и робастность
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Sunday, September 03, 2023
Камуфляж и состязательные атаки
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Все атаки из архива
Интересная статья из этого списка: MDTD: A Multi-Domain Trojan Detector for Deep Neural Networks. Идея метода проверть в реальном времени, содержат входные данные триггер или нет. Основывается на том, что "чистые" экземпляры данных, и экземпляры данных с триггером находятся на разных расстояниях от границы решений.
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению