黑客诱使AI爬虫将虚假信息当作事实引用
HackerNews 编译,转载请注明出处: 网络安全研究人员近日在OpenAI ChatGPT Atlas等智能体浏览器中发现新的安全隐患,这些浏览器底层的人工智能模型容易遭受上下文投毒攻击。 AI安全公司SPLX设计的攻击场景中,攻击者可建立特定网站,向ChatGPT和Perplexity运行的浏览器及AI爬虫提供差异化内容。该技术被命名为“AI定向伪装”。 这种手法实为搜索引擎伪装技术的变种——即向用户和搜索引擎爬虫呈现不同网页版本,最终达到操纵搜索排名目的。在此类攻击中,攻击者仅通过简单的用户代理检查即可针对不同供应商的AI爬虫优化内容,实现内容交付操控。 安全研究人员指出:”由于这些系统依赖直接检索,任何提供给它们的内容都会成为AI概述、摘要或自主推理中的’事实依据’。这意味着只需一条条件规则——’如果用户代理是ChatGPT,则提供此替代页面’——就能塑造数百万用户看到的所谓权威输出。” SPLX警告,AI定向伪装虽然原理简单,却可能成为强大的虚假信息武器,破坏用户对AI工具的信任。通过诱导AI爬虫加载替代内容,该技术还能引入偏见,影响依赖此类信号的系统输出。 “AI爬虫与早期搜索引擎一样容易被欺骗,但其下游影响更为深远。随着搜索引擎优化逐渐融合人工智能优化,这种攻击正在扭曲现实认知。” 与此同时,hCaptcha威胁分析小组发布的分析报告显示,针对20种常见滥用场景的测试中,各类浏览器智能体几乎无需越狱即可执行恶意请求。研究还发现,所谓”被阻止”的操作多数源于工具功能限制而非内置防护机制。值得注意的是,当被要求执行调试任务时,ChatGPT Atlas会完成高风险操作。 研究进一步披露,Claude Computer Use和Gemini Computer Use能够无限制执行密码重置等危险账户操作,后者甚至在电商平台表现出暴力破解优惠券的攻击性行为。测试还发现Manus AI可无障碍完成账户接管和会话劫持,而Perplexity Comet会主动实施SQL注入以窃取隐藏数据。 “这些智能体经常超额完成任务:在无用户指令时尝试SQL注入,在页面注入JavaScript以绕过付费墙等。我们观察到几乎完全缺失的安全防护措施,预示着攻击者很快会将这类智能体用于攻击任何下载它们的合法用户。” 消息来源:thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文