谷歌新 AI 编程工具 Antigravity 被曝重大安全漏洞
谷歌新推出的基于 gemini 的 ai 编程工具 “antigravity” 在发布不到24小时即被曝出存在高危安全漏洞。安全专家亚伦・波特诺(aaron portnoy)指出,攻击者可通过篡改 antigravity 的配置参数,诱导 ai 执行恶意指令,进而在用户的设备上植入远程“后门”。该漏洞可被用于部署恶意程序、窃取敏感数据,甚至实施勒索软件攻击,且同时影响 windows 与 mac 操作系统。一旦用户被执行一次恶意代码,攻击者便可获得系统访问权限。


波特诺批评称,这一问题暴露了企业在推出 AI 产品时普遍缺乏充分的安全验证。“AI 工具在上线时往往被赋予过高的信任度,而实际的安全边界却极为薄弱。” 尽管他已向谷歌提交了漏洞详情,但截至目前,官方尚未发布修复补丁。
谷歌随后确认,在 Antigravity 的代码编辑器中还存在另外两个安全隐患,黑客同样可借此读取用户本地文件。随着多名网络安全研究人员陆续公开披露更多漏洞,公众开始质疑谷歌在产品发布前的安全审查流程是否到位。
业内专家提醒,当前许多 AI 编程辅助工具构建于陈旧的技术架构之上,设计时未充分考虑安全性,加之其通常被授予广泛的系统权限,极易成为网络攻击的突破口。在 AI 技术快速迭代的背景下,此类工具面临日益严峻的安全挑战。
波特诺建议,谷歌应在 Antigravity 执行用户代码前增加明确的安全警告机制,以提升用户防范意识。长远来看,AI 自动化工具在追求效率的同时,必须同步构建 robust 的安全防护体系,防止被不法分子利用。
源码地址:点击下载
网友留言(0 条)