OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  社区  ›  硬件

AMD 押注“本地 AI Agent 计算机”:RyzenClaw 与 RadeonClaw 技术分析

 
  clusterx ·  2026-03-16 11:53:28 · 11 次点击  · 0 条评论  

AMD 最近公布了一套围绕 本地 AI Agent 运行的技术方案,包括
RyzenClawRadeonClaw 两套参考硬件配置。这一方案属于 AMD 更大计划 “Agent Computer” 的一部分,其目标并不是推出某个单独的软件产品,而是展示 未来个人电脑运行 AI Agent 的硬件形态

与当前主流的“云端 AI”模式不同,AMD 想推动的是一种 本地 AI 计算架构
AI Agent 与模型都运行在用户自己的电脑上,而不是依赖远程数据中心。


从“云 AI”到“本地 AI”

目前大多数 AI 应用采用的模式是:

本地应用 / Agent
↓
云端模型 API

在这种模式下:

  • 用户数据不需要上传
  • 不存在 API 调用费用
  • AI 可以持续运行在个人设备上

AMD 将这种设备形态称为 Agent Computer


两条技术路线:内存型 vs GPU型

为了展示本地 AI Agent 的不同运行模式,AMD提出了两套参考配置。

1. RyzenClaw:大内存统一架构

RyzenClaw 方案围绕 Ryzen AI Max+ 处理器构建,并采用 统一内存架构

核心配置:

  • 128GB 系统内存
  • 约 96GB 可分配为显存
  • CPU / GPU / NPU 共享内存池

这种设计的重点是 超大上下文和多 Agent 并行能力

在 AMD 的测试环境中:

  • 模型:Qwen 3.5 35B A3B
  • 生成速度:约 45 token/s
  • 处理 1 万 token 输入:约 19.5 秒
  • 最大上下文:约 26 万 token
  • 并发 Agent:最多约 6 个

这一配置适合:

  • 多智能体系统
  • 长上下文推理
  • Agent 集群实验

换句话说,它更像是 小型本地 AI 服务器


2. RadeonClaw:高吞吐 GPU 推理

RadeonClaw 方案则将重点放在 独立 GPU 推理能力

核心硬件:

  • Radeon AI PRO R9700
  • 32GB 专用显存

性能表现:

  • 生成速度:约 120 token/s
  • 处理 1 万 token 输入:约 4.4 秒

相比 RyzenClaw,GPU 方案的特点是:

  • 推理速度显著更高
  • 但上下文窗口缩小

主要限制:

  • 最大上下文约 19 万 token
  • 同时运行约 2 个 Agent

因此 RadeonClaw 更适合:

  • 高速单 Agent 推理
  • 实时交互 AI
  • 本地开发调试

本地 AI 的技术栈

在软件层面,这套系统主要依赖开源推理栈:

  • WSL2:Windows 上运行 Linux 环境
  • LM Studio:本地模型管理与运行
  • llama.cpp:LLM 推理后端

模型示例包括:

  • Qwen 3.5 35B A3B

系统还提供本地记忆机制(Memory.md),用于在本地存储 Agent 的上下文信息。

整个系统设计强调一个原则:

AI 推理和数据存储都尽量保持在本地设备。


成本与定位

AMD 也明确表示,这些配置 并不是普通消费级 PC

参考价格:

  • Ryzen AI Max+ + 128GB 内存桌面机
    起价约 2700 美元

  • Radeon AI PRO R9700
    建议零售价约 1299 美元

因此当前目标用户主要是:

  • AI 开发者
  • Agent 系统研究者
  • 本地 LLM 爱好者
  • 企业内部实验环境

AMD 在押注什么?

从产业角度看,AMD 其实在押注一个趋势:

未来 AI 计算可能会形成 两层结构

云端 AI

  • 超大模型
  • 复杂推理
  • 大规模训练

本地 AI

  • 个人助手
  • 持续运行 Agent
  • 私有数据处理
  • 边缘计算

如果这种架构成立,那么高端 PC 或工作站可能会演变成一种新的设备类型:

AI Workstation(AI 工作站)

它既不是传统 PC,也不是云服务器,而是一个 长期运行个人 AI Agent 的本地节点


总结

RyzenClaw 与 RadeonClaw 并不是单纯的硬件发布,而是一种 AI 计算模式的探索

AMD试图证明:

  • 高性能本地硬件已经可以运行中型 LLM
  • 本地 AI Agent 在技术上是可行的
  • 未来部分 AI 任务可能从云端回流到个人设备

如果本地 AI 生态成熟,个人电脑可能不再只是运行应用的软件平台,而会逐渐演变为 持续运行 AI Agent 的计算终端

11 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私政策 ·  服务条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 28 ms
Developed with Cursor