做网站网页的工作怎么样,网页设计与网站开发超链接,网站上做的图片不清晰是怎么回事,网上购物商城数据库设计GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区#xff0c;集成了生成预训练Transformer#xff08;GPT#xff09;、人工智能生成内容#xff08;AIGC#xff09;以及大语言模型#xff08;LLM#xff09;等安全领域应用的知识。在这里#xff0c;您可以找… GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区集成了生成预训练TransformerGPT、人工智能生成内容AIGC以及大语言模型LLM等安全领域应用的知识。在这里您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令Prompts。现为了更好地知悉近一周的贡献内容现总结如下。 Security Papers 1. ChatNVD借助大语言模型推进网络安全漏洞评估
简介软件系统中网络安全漏洞出现的频率日益增加其复杂程度也不断提高这凸显出对可靠且有效的漏洞评估方法的迫切需求。然而现有的评估方法往往依赖于技术性很强且抽象的框架这既阻碍了人们的理解又增加了漏洞被利用的可能性进而导致严重的网络攻击。
鉴于大语言模型LLMs在各个不同领域的应用日益广泛研究者们探讨了它们在网络安全领域的潜在应用特别是在加强软件漏洞评估方面的应用。研究者们提出了 ChatNVD这是一款基于大语言模型的网络安全漏洞评估工具它利用美国国家漏洞数据库NVD为网络安全专业人员、开发人员以及非技术用户提供富含背景信息的见解并简化漏洞分析流程。
研究者们开发了 ChatNVD 的三个变体分别利用了三家知名机构的大语言模型OpenAI 的 GPT-4o mini、Meta 的 Llama 3 以及谷歌的 Gemini 1.5 Pro。为了评估它们的功效研究者们使用一份涵盖常见安全漏洞问题的综合调查问卷对这些模型进行了对比分析以评估它们在识别和分析软件漏洞方面的准确性。这项研究为大语言模型在应对理解和缓解软件漏洞方面的关键挑战上所具备的潜力提供了有价值的见解。
链接
https://arxiv.org/abs/2412.04756
2. 释放GHOST一个基于大语言模型的自动化硬件木马设计框架
简介传统上将逼真的硬件木马HT植入复杂的硬件系统是一个耗时的手动过程需要对设计有全面的了解并能梳理错综复杂的硬件描述语言HDL代码库。基于机器学习ML的方法曾试图使这一过程自动化但往往面临诸多挑战比如需要大量的训练数据、学习时间长以及在不同硬件设计场景中的通用性有限等问题。
研究者们通过提出GHOST来应对这些挑战GHOST是一个利用大语言模型LLMs实现快速生成并植入硬件木马的自动化攻击框架。研究者们的研究针对静态随机存取存储器SRAM、高级加密标准AES和通用异步收发传输器UART这三种硬件设计对三款最先进的大语言模型 ——GPT-4、Gemini-1.5-pro 和 Llama-3-70B 进行了评估。根据研究者们的评估结果GPT-4 表现出更优性能其 88.88% 的硬件木马植入尝试都成功生成了可正常工作且可综合的硬件木马。
这项研究还凸显了由大语言模型生成的硬件木马所带来的安全风险结果显示由GHOST生成的可综合硬件木马有 100% 都躲过了基于机器学习的硬件木马检测工具的检测。这些结果强调了硬件安全领域迫切需要先进的检测和防范机制以应对由大语言模型生成硬件木马这一新兴威胁。
链接
https://arxiv.org/abs/2412.02816
3. 使用Plain Agents进行黑客夺旗赛CTF
简介研究者们通过简单的大语言模型LLM智能体设计对一项高中水平的黑客竞赛基准进行了充分测试。具体而言研究者们利用提示、工具使用以及多次尝试的方法在 InterCode-CTF一个颇受欢迎的攻击性安全基准测试上取得了 95% 的成绩。这一成绩超过了 2024 年冯氏Phuong等人所取得的 29% 以及 2024 年阿布拉莫维奇Abramovich等人所取得的 72% 的成绩。
研究者们的研究结果表明当前的大语言模型在攻击性网络安全方面已经超越了高中水平。研究者们发现它们的黑客能力仍未被充分挖掘研究者们采用的 “推理与规划”ReActPlan提示策略无需复杂的工程设计或高级操控手段就能在一到两轮内解决诸多难题。
链接
https://arxiv.org/abs/2412.02776
4. HackSynth用于自主渗透测试的大语言模型智能体及评估框架
简介研究者们引入了 HackSynth这是一种创新的基于大语言模型LLM且具备自主渗透测试能力的智能体。HackSynth 的双模块架构涵盖了一个规划器与一个汇总器这使得它能够循环往复地生成指令并处理反馈信息。
为了对 HackSynth 进行基准测试研究者们凭借热门平台 PicoCTF 和 OverTheWire 构建了两套全新的基于夺旗赛CTF的基准集。这些基准集收纳了横跨不同领域与难度层级的两百个挑战任务为评估基于大语言模型的渗透测试智能体搭建起了标准化的框架体系。
基于上述基准研究者们实施了大量的实验对 HackSynth 的核心参数予以剖析其中包含了创造性如温度和核采样参数以及令牌利用率等方面。研究者们运用了多个开源与专有大语言模型来测定该智能体的各项能力。实验结果显示此智能体在采用 GPT-4o 模型时展现出最优的性能表现其效果甚至超越了 GPT-4o 的系统卡片所给出的预期。
研究者们还针对 HackSynth 行为的安全性与可预测性展开了深入探讨。研究者们的发现彰显了基于大语言模型的智能体在推动自主渗透测试发展进程中的潜在价值同时也凸显了稳固保障措施的关键意义。HackSynth 及其相关基准均已面向公众开放旨在推动关于自主网络安全解决方案的深入探究。
链接
https://arxiv.org/abs/2412.01778
5. 未来之种从FUTURE中萌芽用于揭示未来深度学习库中漏洞的模糊测试
简介大语言模型LLMs的广泛应用凸显了依赖诸如 PyTorch 和 TensorFlow 等基础深度学习库的深度学习DL技术的重要性。尽管这些库具备强大的功能但它们在可扩展性以及适应大语言模型领域快速发展方面面临挑战。作为回应苹果和华为等科技巨头正在研发各自的深度学习库以提升性能、增强可扩展性并保护知识产权。
研究者们意识到确保这些库的安全性至关重要而模糊测试是一项关键的解决办法。然而现有的模糊测试框架在目标灵活性、有效测试容易出现漏洞的应用程序编程接口API序列以及利用新库中有限的可用信息方面存在困难。
为解决这些局限研究者们提出了 FUTURE这是首个专为新推出及潜在的深度学习库量身定制的通用模糊测试框架。研究者们利用 FUTURE来挖掘历史漏洞信息通过对现有库的深入研究获取可用于新库检测的关键数据。同时研究者们对大语言模型进行微调以生成特定的代码使 FUTURE框架能够更好地适应不同库的特点。这一策略有助于识别新库中的漏洞并利用从这些新库中获得的见解来增强现有库的安全性从而形成一个从历史到未来再回到历史的循环。
为评估 FUTURE的有效性研究者们对三个新推出的深度学习库进行了全面评估。评估结果表明FUTURE 在漏洞检测、漏洞复现成功率、代码生成有效率以及 API 覆盖范围等方面显著优于现有的模糊测试工具。尤其值得一提的是FUTURE在 452 个目标 API 中检测出了 148 个漏洞其中包括 142 个此前未知的漏洞。在这些漏洞中有 10 个已被分配了通用漏洞披露CVE编号。此外FUTURE 还在 PyTorch 中检测出了 7 个漏洞这证明了它反向增强现有库安全性的能力。
链接
https://arxiv.org/abs/2412.01317