OA0 = Omni AI 0
OA0 是一个探索 AI 的论坛
现在注册
已注册用户请  登录
OA0  ›  论文  ›  arxiv:2204.03645

DaViT:双注意力机制的视觉 Transformer

 
  exploit ·  2022-04-07 00:00:00 · 1 次点击  · 0 条评论  

DaViT:Dual Attention Vision Transformers

原论文标题: DaViT: Dual Attention Vision Transformers
作者: Mingyu Ding 等
arXiv: 2204.03645


核心内容

本文提出了一种新的视觉 Transformer 架构,通过空间 token 和通道 token 上的双注意力机制同时捕获全局与局部信息,并通过序列分组维持计算效率。在多个视觉任务上显示了较强性能。:contentReference[oaicite:1]{index=1}

1 次点击  ∙  0 人收藏  
登录后收藏  
目前尚无回复
0 条回复
About   ·   Help   ·    
OA0 - Omni AI 0 一个探索 AI 的社区
沪ICP备2024103595号-2
Developed with Cursor