технические проблемы и идеи, родившиеся в бурных водах реки Abava (а равно как и на ее берегах, далеких и близких), выставленные на всеобщее обсуждение
Thursday, August 31, 2023
Tuesday, August 29, 2023
Monday, August 28, 2023
ChatGPT в атаке
ChatGPT and Malware: Making Your Malicious Wishes Come True
Пока не очень получается генерить вредоносное ПО, но фаззинг является перспективной идеей для LLM. Google обещает открыть детали
DarkBERT и DarkBARD - Google API и тренировка на всем даркнете.
PentestGPT - надстройка для ChatGPT, тесты проникновения
Deng, Gelei, et al. "PentestGPT: An LLM-empowered Automatic Penetration Testing Tool." arXiv preprint arXiv:2308.06782 (2023).
Beckerich, Mika, Laura Plein, and Sergio Coronado. "RatGPT: Turning online LLMs into Proxies for Malware Attacks." arXiv preprint arXiv:2308.09183 (2023).
Интересная презентация - Marcus Botacin. 2023. GPThreats-3: Is Automated Malware Generation a Threat? SlideShare.
Jennifer Fernick. 2023. On the malicious use of large language models like GPT-3. nccgroup.
A Survey on Large Language Model based Autonomous Agents. Агентам предстоит сыграть важную роль в автоматизации кибератак.
Aaron Mulgrew. 2023. I built a Zero Day virus with undetectable exfiltration using only ChatGPT prompts.
Fábio Perez and Ian Ribeiro. 2022. Ignore Previous Prompt: Attack Techniques For Language Models. arxiv:2211.09527
OPWNAI: Cybercriminals Starting to Use ChatGPT. Check Point.
Sangfor Technologies. 2023. ChatGPT Malware: A New Threat in Cybersecurity.
Gradient Flow: Unleashing LLMs in Cybersecurity: A Playbook for All Industries
Awesome Large Language Model Tools for Cybersecurity Research
New LLM-based SOC tool to help automate security response
Hazell, Julian. "Large language models can be used to effectively scale spear phishing campaigns." arXiv preprint arXiv:2305.06972 (2023).
См. также другие публикации, посвященные LLM
Sunday, August 27, 2023
Векторные базы данных
Парадоксы статистики
Accuracy Paradox
False Positive Paradox
Gambler’s Fallacy
Simpson’s Paradox
Berkson’s Paradox
Saturday, August 26, 2023
AI Red Team
См. также другие публикации, посвященные LLM
Friday, August 25, 2023
О робастности
Global evasion attacks (глобальная атака уклонения): можем менять любые входные данные (локальная атака уклонения меняет данные только внутри существующего распределения). Глобальная атака уклонения относится к робастности во всем диапазоне входных данных. Под робастностью по-прежнему понимается то, что малые изменения не меняют результат.
Отсюда: Li, Linyi, Tao Xie, and Bo Li. "Sok: Certified robustness for deep neural networks." 2023 IEEE Symposium on Security and Privacy (SP). IEEE, 2023.
Атаки и отравления
См. также другие публикации по теме adversarial, посвященные устойчивому машинному обучению
Thursday, August 24, 2023
Атаки на приватные данные
P.S. авторы, похоже, удалили исходный код из репозитория Responsible Data Science Lab
Wednesday, August 23, 2023
Кругом враги
LLM - проблемы и направления исследований
См. также другие публикации, посвященные LLM
Зашита от отравлений
Tuesday, August 22, 2023
Искусственные контрфактические примеры
Monday, August 21, 2023
Sunday, August 20, 2023
Что же важно для модели?
См. также другие публикации, посвященные SHAP
Saturday, August 19, 2023
Защита изображений
Wednesday, August 16, 2023
Probabilistic Machine Learning: Advanced Topics
См. также другие публикации по теме Probabilistic Machine Learning
Tuesday, August 15, 2023
Monday, August 14, 2023
Цифровые двойники инфраструктуры
См. также другие публикации, посвященные digital twins
Sunday, August 13, 2023
3D geometry generation
Friday, August 11, 2023
Платежный сервис с блокчейн
См. также другие публикации, посвященные блокчейн
Thursday, August 10, 2023
Tuesday, August 08, 2023
LLM и кибербезопасность
См. также другие публикации, посвященные LLM
Wednesday, August 02, 2023
Открытая наука: INJOIT том 11, номер 7
Это том 11, номер 7 за 2023 год.
/via Лаборатория ОИТ
Tuesday, August 01, 2023
5G IoT
См. также другие публикации, посвященные блокчейн