近期,谷歌对其 AI 编程与代理平台 Antigravity 实施了一次大规模访问限制措施,引发 AI 开发者社区的激烈反响。谷歌称此举是为了遏制所谓的“恶意使用行为”,但在实际执行过程中,不少开发者的账户被临时或永久限制访问,包括部分付费用户在内。
Antigravity 是谷歌面向开发者推出的 AI 编程工具,允许用户构建、测试并运行自动化代理与智能体,并且可访问 Gemini 模型的高级资源。近期,不少开发者使用开源 AI 代理框架 OpenClaw 通过 OAuth 授权方式连接到 Antigravity 的后端,以便在本地运行智能体任务,例如自动化脚本、代码生成等。
OpenClaw 自 2025 年末发布后,凭借其本地执行能力与自由度,迅速吸引了大量开发者关注,并在 Github 上拥有数十万星标。但这份自由也带来了潜在的风险——通过第三方工具绕过原生客户端访问模型资源可能对云端基础设施带来未知的负载与安全隐患。
谷歌官方及 DeepMind 工程师称,他们在后端监测到 OpenClaw 相关集成导致了 服务质量下降与资源负载飙升。对此,谷歌选择按照服务条款 (“Terms of Service”) 快速切断了 OpenClaw 相关用户对 Antigravity 平台的访问权限。部分用户在执行自动化任务时未意识到这类访问模式违反了平台规定。
据报道,这些限制影响了包括付费 “AI Ultra” 订阅用户在内的一部分开发者,有人甚至发现自己无法再通过该账户访问 Antigravity 或相关 Gemini 资源。谷歌方面表示,这些限制主要针对 Antigravity 平台及其相关接口,并不会对用户的其它 Google 服务(如 Gmail、Cloud)产生永久影响。
谷歌的封禁措施在开发者社区引发了广泛争议。一些开发者认为自己使用的是已开放的 OAuth 授权流程,并未明显超出使用范围,却仍遭遇封禁,这在沟通与规则明确性方面存在不足。OpenClaw 的主要维护者也公开批评了谷歌的做法,称其过于“高压”和“武断”,并宣布将从项目中移除对谷歌平台的支持。
与此同时,这一事件也映射出行业内部在 AI 平台开放性与生态控制权 之间的矛盾:谷歌与 Anthropic 等公司正逐步收紧对其模型资源的访问权限,而开源社区与自主框架之间的互操作性空间正在受到挑战。
多个社区讨论版块显示,一些开发者遇到了未经预警的账号限制或 403 错误,仅因通过 OpenClaw 或类似工具访问后台服务便遭遇封禁。这种服务不可用的情况甚至出现在付费订阅用户身上,使得对平台规则理解的模糊性成为争议焦点。
也有用户指出,这类自动化监测机制可能过于敏感或误判,导致部分正常使用场景被误认为是滥用行为,进一步加剧了社区对于透明度和申诉渠道的要求。
这次事件并非孤立案例。类似的问题此前也发生在其他 AI 平台上,如 Anthropic 近期更新服务条款,禁止某些第三方 OAuth 授权方式访问其模型服务。这反映出主流 AI 提供商正倾向于构建更封闭、可控的生态体系,以防止滥用、保护资源以及确保商业利益。
对于开发者和企业而言,这一趋势意味着未来构建智能体与自动化流程时需更加关注 官方支持的接口与合规方式,而避免依赖未获授权的接入方案。与此同时,如何在保障创新活力的前提下确保平台的稳定性与安全,将成为整个 AI 生态值得持续讨论的问题。
谷歌对 Antigravity 平台的封禁行动引发了围绕 AI 平台开放性、服务条款执行和开发者权益保护的热烈讨论。无论是大型 AI 平台厂商,还是开源社区生态,未来都需要更清晰的政策框架和沟通机制来平衡创新与合规,从而推进 AI 技术健康发展。