ChatGPT and Malware: Making Your Malicious Wishes Come True
Пока не очень получается генерить вредоносное ПО, но фаззинг является перспективной идеей для LLM. Google обещает открыть детали
DarkBERT и DarkBARD - Google API и тренировка на всем даркнете.
PentestGPT - надстройка для ChatGPT, тесты проникновения
Deng, Gelei, et al. "PentestGPT: An LLM-empowered Automatic Penetration Testing Tool." arXiv preprint arXiv:2308.06782 (2023).
Beckerich, Mika, Laura Plein, and Sergio Coronado. "RatGPT: Turning online LLMs into Proxies for Malware Attacks." arXiv preprint arXiv:2308.09183 (2023).
Интересная презентация - Marcus Botacin. 2023. GPThreats-3: Is Automated Malware Generation a Threat? SlideShare.
Jennifer Fernick. 2023. On the malicious use of large language models like GPT-3. nccgroup.
A Survey on Large Language Model based Autonomous Agents. Агентам предстоит сыграть важную роль в автоматизации кибератак.
Aaron Mulgrew. 2023. I built a Zero Day virus with undetectable exfiltration using only ChatGPT prompts.
Fábio Perez and Ian Ribeiro. 2022. Ignore Previous Prompt: Attack Techniques For Language Models. arxiv:2211.09527
OPWNAI: Cybercriminals Starting to Use ChatGPT. Check Point.
Sangfor Technologies. 2023. ChatGPT Malware: A New Threat in Cybersecurity.
Gradient Flow: Unleashing LLMs in Cybersecurity: A Playbook for All Industries
Awesome Large Language Model Tools for Cybersecurity Research
New LLM-based SOC tool to help automate security response
Hazell, Julian. "Large language models can be used to effectively scale spear phishing campaigns." arXiv preprint arXiv:2305.06972 (2023).
См. также другие публикации, посвященные LLM
No comments:
Post a Comment