GPTSecurity

「塑造未来的安全领域智能革命」

【论文速读】| 针对大语言模型的有效且具有规避性的模糊测试驱动越狱攻击

基本信息 原文标题:Effective and Evasive Fuzz Testing-Driven Jailbreaking Attacks against LLMs 原文作者:Xueluan Gong, Mingzhe Li, Yilin Zhang, Fengyuan Ran, Chen Chen, Yanjiao Chen, Qian Wang, Kwok-Yan Lam ...

【论文速读】| PROMPTFUZZ:利用模糊测试技术对大语言模型中的提示注入进行鲁棒性测试

基本信息 原文标题: PROMPTFUZZ: Harnessing Fuzzing Techniques for Robust Testing of Prompt Injection in LLMs 原文作者: Jiahao Yu, Yangguang Shao, Hanwen Miao, Junzheng Shi, Xinyu Xing 作者单位: Northwestern Un...

第70期|GPTSecurity周报

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。 Security Papers R...

【论文速读】| AutoSafeCoder:通过静态分析和模糊测试保障LLM代码生成安全的多智能体框架

本次分享论文:AutoSafeCoder: A Multi-Agent Framework for Securing LLM Code Generation through Static Analysis and Fuzz Testing 基本信息 原文作者:Ana Nunez, Nafis Tanveer Islam, Sumit Jha, Paul Rad 作者单位:Unive...

【论文速读】| 用于安全代码评估的大语言模型:一项多语言实证研究

基本信息 原文标题:Large Language Models for Secure Code Assessment: A Multi-Language Empirical Study 原文作者:Kohei Dozono, Tiago Espinha Gasiba, Andrea Stocco 作者单位:Technical University of Munich, Siemens...