【2025ICCV-密集检测】Frequency-Dynamic Attention Modulation for Dense Prediction

论文地址:https://arxiv.org/pdf/2507.12006v1

核心问题

Vision Transformers (ViTs) 在密集预测任务(如语义分割、目标检测)中存在频率消失(frequency vanishing)​问题:

  1. 注意力机制本质是低通滤波器,会抑制高频信号(纹理、细节);
  2. 堆叠层架构加剧高频信息丢失,导致特征表示模糊(如图1b所示)。


解决方案:FDAM(频率动态注意力调制)​

提出一种轻量级模块,包含两项核心技术:

1. 注意力反转(AttInv)​
  • 动机​:基于电路理论,将低通滤波器(注意力矩阵)反转为高通滤波器(图3-i)。
  • 方法​:
    • 计算注意力矩阵的频域响应 F(A);
    • 生成互补高通滤波器:A
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

清风AI

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值