随着大模型能力从“对话生成”迈向“执行任务”,一个过去在互联网金融中常见的概念,正在进入 AI 系统核心:身份验证(KYC)。
Claude 近期开始灰度上线基于 Persona 的用户身份验证机制,允许用户通过护照、驾照或身份证件完成认证。这一变化表面上是账户安全升级,但在 AI 技术演进的语境中,其意义远不止于此。
在 Chatbot 时代,匿名使用几乎是默认前提。但当 AI 能够:
“谁在使用 AI”这一问题,开始变得至关重要。
Claude 引入身份验证,本质上是在为 Agent 系统建立“责任锚点”——让每一个 AI 行为,都可以映射到一个真实身份。
Persona 是一家专注于身份验证与合规的服务商,其能力通常包括:
在 Claude 的体系中,Persona 并不是简单的“登录验证”,而更像一个身份中间层(Identity Layer):
这使得 AI 平台开始具备类似金融系统的身份管理能力。
从 AI 工程角度看,身份验证的引入,与 Agent 能力的发展高度相关。
现代 LLM 已支持调用外部工具,例如:
POST /payment)一旦 AI 能执行“有后果的操作”,就必须明确:
在企业部署中,AI 系统需要处理:
身份验证成为这些能力的前提条件。
模型对齐(alignment)解决的是“行为是否合规”,但无法解决:
引入真实身份,可以作为补充约束机制。
Claude 引入 Persona,意味着 AI 系统架构正在发生变化:
传统 LLM 架构:
新架构:
不同身份可能对应不同能力:
所有关键操作可被记录:
这使 AI 系统逐步具备“可监管性”。
Claude 的这一动作,并非孤立事件,而是 AI 行业整体演进的一部分。
可以看到三个趋势:
类似金融行业,AI 平台开始:
不同用户获得不同 AI 能力:
随着监管关注增强,AI 产品需要:
身份系统成为这些能力的基础设施。
对于 AI 工程社区而言,这一变化将直接影响系统设计方式:
未来的 AI 应用,很可能需要像设计数据库权限一样,设计“AI 权限模型”。
尽管身份验证带来安全与合规优势,但也引发新的问题:
在某些地区,严格的身份验证甚至可能影响产品增长。
因此,如何在“安全”与“可用”之间找到平衡,将成为关键。
Claude 引入 Persona 身份验证,表面上是一次功能更新,实质上反映了 AI 系统定位的变化:
从一个“回答问题的模型”,转向一个“执行任务的代理”。
而一旦 AI 能够影响现实世界,身份、权限与责任就不再是可选项,而是基础设施。
对于整个行业而言,这意味着一个新的阶段正在到来:
AI 不只是更强了,也变得更可控、更可审计,但同时也更“真实世界化”。