OA0
OA0 是一个探索 AI 的社区
现在注册
已注册用户请  登录
OA0  ›  论文  ›  abs/2310.13121

SciPhi:通过自校正指令微调提升模型的科学推理能力

 
  malware ·  2025-12-10 19:18:25 · 13 次点击  · 0 条评论  

理解 Transformer 中的加法

作者: Philip Quirke, Fazl Barez

提交日期: 2023年10月19日
最后修订日期: 2024年4月23日
状态: 9页,8图,已被 ICLR 2024 接收

主题分类: 机器学习 (cs.LG); 人工智能 (cs.AI)

摘要:
理解 Transformer 等机器学习模型的内部工作机制对其安全和合乎伦理的使用至关重要。本文对一个经过训练以执行 n 位整数加法的单层 Transformer 模型进行了全面分析。我们的研究结果表明,该模型将任务分解为专用于各个数字的并行流,并针对数字内的不同位置采用不同的算法。此外,我们识别并解释了一种以高损失为特征的罕见情况。通过详尽阐明模型的算法,我们对其功能提供了新的见解。这些发现通过严格的测试和数学建模得到了验证,从而为更广泛的模型理解和可解释性领域做出了贡献。我们的方法为分析更复杂的任务和多层 Transformer 模型打开了大门。

13 次点击  ∙  0 人收藏  
登录后收藏  
0 条回复
关于 ·  帮助 ·  PING ·  隐私政策 ·  服务条款   
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
耗时 19 ms
Developed with Cursor