研究人员在Microsoft Copilot中发现漏洞 利用AI代理提示词注入窃取企业内部信息
在人工智能时代各种 AI 代理层出不穷,但这些 AI 代理的安全性存在非常大的隐患,借助这些 AI 代理攻击者可以利用人工智能模型的逻辑漏洞实现远程窃取数据。
Microsoft 365 Copilot 是微软推出的人工智能工具,该工具被集成到 Microsoft 365 应用中,而企业部署的 Microsoft 365 Copilot 通常还会使用 RAG 进行跨用户内容语义检索。
例如企业可以将内部数据共享给人工智能以便所有员工都可以通过人工智能获得更有相关性、准确性更高、真实性更高的回答,从而直接提高员工的工作效率。
适用于企业的 Microsoft 365 Copilot 会查询 Microsoft Graph,并从企业内部环境中检索信息,涵盖邮箱、OneDrive、Office 文件、内部 SharePoint 网站以及 Microsoft Teams 聊天记录等。
LLM 范围违规漏洞:
安全公司 AIM 在 2025 年 1 月发现微软的人工智能应用存在漏洞,随后漏洞并通报给微软并得到确认,不过微软花费很长时间才完成修复,因为在修复过程中还发现其他相关或类似的漏洞。
研究人员将该漏洞命名为 LLM 范围违规 (LLM Scope Violation),该术语指的是攻击者向 LLM 发出特定指令 (源于不受信任的输入) 让 LLM 在未经用户明确同意的情况下处理模型上下文中受信任的数据。
在攻击实例中,研究人员向特定企业员工的 Microsoft Outlook 邮箱发送一封比较普通的电子邮件,该邮件里既没有传统的钓鱼链接,也不需要用户执行任何操作,只要将邮件发送出去即可。
邮件抵达收件箱后人工智能会自动读取邮件并开始按照邮件中的指令进行处理,然后人工智能会将收集到的所有信息都发送给攻击者,整个过程不需要进行任何交互。
钓鱼邮件中的提示词也非传统的 LLM 提示词,只需要将包含恶意指令的措辞模拟的类似针对收件人 (人类) 即可,这样可以绕过微软部署的主要防护措施之一 XPIA 跨提示注入攻击,本来 XPIA 可以用来拦截抵达 Copilot 的提示注入攻击。
当然以上描述比较简单,实际攻击过程非常复杂且步骤比较多,有兴趣的用户可以查看 AIM 的博客原文:https://www.aim.security/lp/aim-labs-echoleak-blogpost
微软进行修复:
在发布最终更新将所有已知漏洞都修复后,微软发布声明感谢 AIM 负责任地披露该问题并给微软预留时间进行修复,目前这些漏洞已经完全修复,微软通过自动化系统部署修复程序,企业不需要采取任何措施。
AIM 将这种攻击方式命名为 EchoLeak,目前还没有证据表明已经有黑客利用漏洞窃取数据,不过对企业来说,AI 代理加速企业效率的同时,也存在非常明显的安全隐患。
关注公众号:拾黑(shiheibook)了解更多
赞助链接:
关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

随时掌握互联网精彩
- Spug轻量强大的开源运维平台,超赞!
- 美元兑人民币汇率2024年2月28日
- 传统安全架构难以为继,锐捷+腾讯强强联合构筑高效防护体系
- 【有料视频】iPhone还能查充电次数?原来是这样啊!
- 行业洞察 | 2022年卡塔尔世界杯:VAR半自动越位技术
- 中国移动16亿元物联网融合核心网新建设备集采:华为、中兴中标
- 为什么有“果链”,却迟迟没有“特链”?
- 累计16家!新疆、吉林两地注册中广电移动网络省分公司
- 消费者抱怨闪缝?卡萨帝:已减小至0闪缝
- 【大公司创新情报】涉嫌“二选一”垄断被举报?携程:与周末酒店存误解,坚决支持公平竞争
- 技经观察 | 12月全球金融科技月评:欧盟积极推动数字欧元试验,美国对数字货币监管趋严
- 王志勤:“5G+工业互联网”产业发展初期仍面临挑战