最近,日本互联网圈有个挺有意思、也有点微妙的事件。
乐天集团 高调发布了自家的大模型 “Rakuten AI 3.0”,并宣称这是“日本最大的高性能 AI 模型”。但很快就被开发者社区发现:这个模型很大概率是基于 DeepSeek-V3 微调而来。
这件事在日本技术社区直接炸开了锅。
社区开发者通过模型行为特征、输出风格,甚至一些“指纹级”的细节,对比发现:
简单说一句人话就是:
不是从零训练,而是“站在现成大模型肩膀上做优化”。
如果只是“用开源模型做微调”,其实在 AI 圈并不罕见,甚至可以说是主流路径。
真正引发争议的点在于两个关键词:
乐天参与了日本政府的 AI 加速器计划,并获得了资金支持。
而这个计划的一个隐含目标是:
推动“日本自主 AI 能力”的发展
但现在被发现核心能力来自 DeepSeek(中国团队开源模型),就会让一部分人质疑:
乐天官方的说法其实是比较“标准”的:
“充分利用开源社区的最优成果”
这句话在技术上完全没问题。
但问题在于——
当你对外强调“日本最大 AI 模型”时,用户的默认理解往往是:
而不是:
基于现有开源 SOTA 模型进行优化
这种“预期差”才是舆论发酵的关键。
如果把视角拉大一点,其实乐天这件事非常典型。
今天的大模型行业,已经越来越接近一个现实:
“从零训练”正在变成少数巨头的游戏,而大多数公司选择在开源模型上做差异化。”
类似路径其实很多:
换句话说:
👉 “是否从零训练”,已经不是衡量技术能力的唯一标准
真正的竞争点在转向:
可以分两层看:
这套操作,在全球 AI 公司里都很常见。
这才是争议核心。
这件事背后,其实有个更值得讨论的问题:
当开源模型越来越强,“国家 AI 能力”的定义还成立吗?
如果一个模型:
那它算不算“本国 AI”?
这个问题,日本现在遇到,未来其他国家大概率也会遇到。
乐天 AI 3.0 这件事,本质上不是“抄没抄”的问题,而是:
如果用一句话总结:
开源让 AI 更快落地,但也让“谁在创新”变得更难界定。