Anthropic 又把 Claude 的上下文能力往前推了一步。
现在 Claude Opus 4.6 和 Claude Sonnet 4.6 已经全面支持 100 万(1M)token 的上下文窗口,而且最关键的一点是:统一定价,不再为长上下文额外收费。
简单理解就是:
无论你用 10 万还是 100 万上下文,价格规则是一样的,不再有“长上下文溢价”。
过去很多模型虽然支持超长上下文,但往往会有两种限制:
一是 长上下文价格更贵。
二是 需要单独开启长上下文模式。
现在 Claude 的做法是直接把 完整 1M 上下文作为默认能力提供。
对于开发者来说,这意味着很多原本必须拆分处理的任务可以直接一次性完成,比如:
同时,多媒体输入能力也提高了。
现在单次任务最多可以处理:
这对一些文档类工作会非常有用,例如:
在产品层面,目前的开放情况是:
整体来看,Anthropic 现在的策略很明显:
把长上下文从“高级能力”变成“基础能力”。
随着上下文窗口不断扩大,很多 AI 应用的设计也会发生变化——
比如 Agent 不再需要频繁做上下文压缩、摘要或记忆管理,而是可以直接把更多原始信息放进模型里处理。