OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  社区  ›  硬件

亚马逊与 Cerebras 合作部署 AI 推理芯片,强化云端 AI 基础设施

 
  turbo ·  2026-03-14 17:03:23 · 7 次点击  · 0 条评论  

亚马逊与人工智能芯片公司 Cerebras Systems 宣布达成新的合作协议。双方计划在云端推出一项整合计算资源的新服务,通过结合两家公司的 AI 芯片技术,为聊天机器人、编程工具以及其他生成式 AI 应用提供更高效的推理能力。

Cerebras 芯片进入 AWS 数据中心

根据公布的合作方案,Cerebras 的 AI 芯片将部署在 AWS 数据中心中,并与亚马逊自研的 Trainium3 AI 芯片协同运行。两种计算平台将通过亚马逊定制的高速网络架构进行互联,从而形成统一的 AI 计算系统。

这种架构的目标是提升大模型推理和训练效率,为企业客户提供更高性能的 AI 云服务。

挑战英伟达主导地位

成立于美国的 Cerebras Systems 是近年来备受关注的 AI 芯片初创企业,当前估值约 231 亿美元。公司试图通过与英伟达 GPU 完全不同的芯片设计路线,在 AI 算力市场中建立竞争优势。

Cerebras 的核心产品是 大规模晶圆级 AI 处理器,通过将整块晶圆作为单一计算芯片使用,大幅提升计算密度与数据传输效率。

AI 芯片生态竞争加剧

在此次合作之前,Cerebras 今年早些时候还与 OpenAI 签署了一项价值 100 亿美元 的芯片供应协议,为其聊天机器人及相关 AI 服务提供算力支持。

随着生成式 AI 需求持续增长,科技公司正加速布局自研芯片和新型算力架构。
亚马逊与 Cerebras 的合作也反映出云计算巨头正在 减少对单一 GPU 供应商的依赖,并通过多元化算力体系提升 AI 服务能力。

未来,随着更多 AI 芯片进入云端基础设施,AI 计算市场的竞争格局也可能进一步发生变化。

7 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  Ping ·   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
Developed with Cursor