我的AI女友

看着痞老板对着机器人老婆凯伦敲敲打打,为什么不能整一个AI女友呢?

· 843浏览 · 5天前
通过AI生成漏洞代码,以寻找可能存在的CVE

通过AI生成漏洞代码,以寻找可能存在的CVE

· 71浏览 · 6天前
AI-Sense AI 对敏感文件自动识别

AI-Sense AI 对敏感文件自动识别

· 47浏览 · 8天前
AI浪潮下的自动化——一些基于Dify的信息收集方法

Dify是一个非常好的生成式AI应用创新引擎,其中最吸引我的是他的工作流。实际攻防演练过程种。基于此开发了一些DSL,方便信息收集流程自动化。

· 165浏览 · 2025-03-01 14:56
AI玩web(红)全网首发

AI玩web(红)全网首发

原创 · 146浏览 · 2025-02-28 15:56
基于LLM的JSB权限风险自动化挖掘技术

大型语言模型(LLM)具备代码理解、模式识别和逻辑推理能力,可显著提升JSB风险挖掘的自动化程度。其核心价值体现在: 1. 跨语言分析:同时处理Java/Kotlin(Android)、JavaScript(Web)代码,识别跨语言调用链。 2. 语义级漏洞检测:超越正则匹配,理解代码上下文(如权限校验逻辑是否包裹敏感操作)。 3. 攻击面扩展:基于漏洞模式生成潜在攻击路径(如从接口暴露到数据流追

· 59浏览 · 2025-02-24 12:14
通过模糊测试实现提示注入攻击

前言 大型语言模型(LLMs)因其强大的生成类人文本的能力而在各种应用中获得了广泛的使用。然而,近期出现了提示注入攻击,即通过覆盖模型的原始指令与恶意提示来操纵生成的文本,造成了很大的危害。 提示注入攻击的基本原理是利用语言模型对提示的强依赖性,通过伪造或篡改输入内容来操控模型的输出。模型会根据输入提示解析上下文并生成响应,如果攻击者巧妙地设计输入提示,可以导致模型误解任务目标或违背其安全策略。

· 310浏览 · 2025-01-12 01:12
基于大模型LLM的黑白盒RCE漏洞自动化挖掘

引言 远程代码执行(Remote Code Execution,RCE)漏洞是最危险的网络安全漏洞之一,攻击者可以通过此类漏洞远程执行任意代码,进而控制目标系统。由于RCE漏洞的危害性极大,因此发现和修复这些漏洞是网络安全领域的重要任务。传统的漏洞挖掘方法依赖于手动渗透测试和静态分析,效率较低且依赖于安全专家的经验。近年来,大语言模型(LLM)技术,尤其是如OpenAI Codex等模型的出现,为

· 4791浏览 · 2024-12-29 05:27
基于优化的大模型越狱技术分析与实战

前言 在大语言模型中一个很前沿的领域叫做安全对齐。安全对齐是指确保这些模型在应用时能够遵循预定的安全规范、道德标准和社会价值观,以减少潜在的风险和误用。随着大语言模型的广泛应用,它们的输出可能影响用户的决策、信念以及社会的整体安全,因此,研究和实践大语言模型的安全对齐已成为一个重要的领域。 模型对齐的核心目标是确保大语言模型的行为与开发者、用户和社会的期望一致。在安全对齐中,最主要的是预防模型输

· 633浏览 · 2024-12-20 13:17
【CVE-2025-50379】利用cursor解读tomcat 条件竞争导致RCE漏洞

POC,大家都有了。 在windows系统下,如果tomcat开启了put协议,可以通过同一时间内多次发送大小写混淆的数据包利用条件竞争绕过tomcat的防护,从而造成rce PUT /aaa/aa.Jsp HTTP/1.1 Host: 192.168.2.137:8080 User-Agent: Mozilla/5.0 <% Runtime.getRuntime().exec("calc

· 1404浏览 · 2024-12-19 03:13
面向GPTs的提示词注入攻击分析

背景 在去年的时候OpenAI推出了可以为特定目的创建的定制版ChatGPT——称为GPTs。GPTs是任何人都可以创建一个定制版本的ChatGPT,以帮助他们在日常生活中、特定任务、工作或家庭中更加有用,然后与他人分享这一创造。例如,GPT可以帮助学习任何棋盘游戏的规则,帮助孩子学习数学,或设计贴纸。任何人都可以轻松构建自己的GPT。 创建一个GPTs就像开始一段对话一样简单,给它指令和额外的

· 3036浏览 · 2024-12-18 15:23
提示词注入攻击

背景 近年来,随着人工智能技术,尤其是大模型(如GPT类模型、BERT类模型等)的不断发展,这些模型已被广泛集成到各类应用中,从数字助手到AI驱动的新闻产业,几乎覆盖了各行各业。大模型的应用逐渐成为提升产品和服务智能化的核心驱动力,展现出了巨大的市场潜力与应用前景 比如大模型在个人数字助手中的应用最为广泛,例如智能语音助手(如Apple的Siri、Amazon的Alexa、Google Assis

· 2203浏览 · 2024-11-30 05:42
大模型多轮越狱技术分析与实现

背景 大语言模型的 “越狱” 是指用户通过一些巧妙设计的指令或手段,绕过语言模型预先设置的安全策略和使用规则,让模型生成不符合伦理道德、包含有害内容(如暴力、歧视、违法信息等)的内容。而 “多轮越狱” 则是指经过多个回合的交互,逐步突破语言模型的安全防护。 在多轮越狱攻击中,允许攻击者进行多轮对话,这更贴近现实中的恶意使用场景,相较于以往主要针对单轮攻击的研究,扩大了风险范围。 上图所示就是正

· 808浏览 · 2024-11-28 09:22
智能纪元:AI大模型驱动的红队攻击技术 (二)

引言 前文我们分享了构建红队智能体时模型选择/RAG/Function calling的技术选型 (链接),文本主要分享单智能体/多智能体/提示词进化在构建红队智能体过程中的应用. 单智能体框架 单智能体(Single Agent)是业界最早的智能体形态.具体的概念这里不再赘述,可以简单的理解为单智能体应用除了用户只有一个角色,这个角色负责处理所有任务.单智能体也是当前应用最广泛的形式. 接下来我

· 1393浏览 · 2024-11-13 06:19
伪装重构越狱大模型

前言 大模型(LLM)自从ChatGPT发布以来,在数据分析、程序合成等各种下游任务中表现出显著的性能。但它们仍面临一些问题,这些问题大大降低了它们的可靠性。 与传统神经网络一样,大模型容易受到某些风险的攻击,包括对抗攻击、后门攻击和隐私泄露。除此以外,还存在特有的攻击类型,包括提示注入、提示泄露、越狱攻击等。 如下图所示,大模型所面临的特定攻击一旦发生,可以被操纵用于输出特定的语句、或者泄露之前

· 1045浏览 · 2024-11-12 13:47