Страницы

Wednesday, May 29, 2024

Tuesday, May 28, 2024

Взгляд со стороны

Интересная работа - изучение того, как человек воспринимает камуфляжный рисунок. Функциональные сети мозга моделируют способность мозга обмениваться информацией между различными областями, помогая в понимании когнитивного процесса зрительного внимания человека во время поиска целей, тем самым способствуя развитию оценки камуфляжа. В этом исследовании изображения с различными камуфляжными эффектами были представлены наблюдателям для генерации сигналов электроэнцефалографии (EEG), которые затем использовались для построения функциональной сети мозга. Впоследствии топологические параметры сети были извлечены и введены в модель машинного обучения для обучения. Результаты показывают, что большинство классификаторов достигли показателей точности, превышающих 70%. В частности, алгоритм Logistic достиг точности 81,67%. Таким образом, можно с высокой точностью прогнозировать эффективность маскировки цели без необходимости расчета вероятности обнаружения. Предлагаемый метод в полной мере учитывает аспекты зрительных и познавательных процессов человека, преодолевает субъективность человеческой интерпретации, добивается стабильной и достоверной точности. Отсюда.

Так можно оценивать маскировку

Thursday, May 23, 2024

ГигаЧат

Курс от Сьербанка по работе с GigaChat

Не все так просто

Это системный промпт (запрос) в LLM Claude 3. Эпоха коротких запросов подошла к концу. Короткие запросы, возможно, будут в начале сеанса, чтобы понять, что вообще модель знает. А дальше диалог будет включать уже запросы с подробными инструкциями.

Вот интересная статья, в которой обсуждается ситуация - можно ли с последовательностью уточняющих запросов добиться такого же эффекта, как и при специальной настройке модели.

См. также другие публикации, посвященные LLM

Saturday, May 18, 2024

Разведка данных

Конспект лекций по разведочному анализу данных: A Course in Exploratory Data Analysis

Thursday, May 16, 2024

Доктор Gemini

On the popular MedQA (USMLE) benchmark, our best-performing Med-Gemini model achieves SoTA performance of 91.1% accuracy. Это точность работы модели на тестах для врачебной лицензии США. USMLE - United States Medical Licensing Examination. При сдаче экзамена человеком его защитывают при 75%, если что. Отсюда.

Wednesday, May 15, 2024

Цена данных

Интересное исследование - как определить цену данных. Если продукт - это некоторый датасет, то что определяет его стоимость?

Большой фишинг

Использование LLM для генерации фишингового контента

См. также другие публикации, посвященные LLM

Tuesday, May 14, 2024

Другой взгляд на рекомендательные системы

Мы рассматриваем рекомендации как проблему наблюдения, тогда как на самом деле это проблема вмешательства. Контрфактический подход к построению рекомендаций

Monday, May 13, 2024

Учебка хакера

Учебные проекты по кибербезопасности

1. TryHackMe https://tryhackme.com

2. Blue Team Labs https://blueteamlabs.online

3. Hands-On SOC Analyst Training https://letsdefend.io

4. Cybrary https://cybrary.it

Атаки на модели

Отравление файлов предобученных моделей - новая статья в журнале Автоматика и Телемеханика

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Friday, May 10, 2024

Переносимость атак

Хорошая статья по практической переносимости состязательных атак. Как с ограниченным бюджетом (ограниченным количеством запросов к атакуемой модели) построить теневую модель, и построить на ней атаки. Доступен исходный код.

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Wednesday, May 08, 2024

Как тестировать LLM

Хороший материал о том, как тестировать (оценивать) LLM

См. также другие публикации, посвященные LLM

Tuesday, May 07, 2024

Оценка влияния

Хорошая книга в открытом доступе https://www.worldbank.org/en/programs/sief-trust-fund/publication/impact-evaluation-in-practice

см. также другие публикации, по теме causal

Monday, May 06, 2024

Шпаргалки по LLM - 2

Компактное изложение: LLM fine-tuning

См. также другие публикации, посвященные LLM

Sunday, May 05, 2024

Атаки на сегментацию

Состязательные атаки на сегментацию изображений

См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению

Friday, May 03, 2024

Доверенные LLM

Интересные решения от CleanLab (MIT) по доверенным LLM

См. также другие публикации, посвященные LLM

Thursday, May 02, 2024

Чего не могут LLM

Хорошая статья - What can LLMs never do?

См. также другие публикации, посвященные LLM