YOLOv8v10专栏限时订阅链接:YOLOv8v10创新改进高效涨点+永久更新中(至少500+改进)+高效跑实验发论文
目录
三、手把手教你添加 LSKAttention模块和修改task.py文件
1.首先在yolov10/ultralytics/nn/newsAddmodules创建一个.py文件
2.在yolov10/ultralytics/nn/newsAddmodules/__init__.py中引用
参考版本2 : yolov10n_C2f_LSKA.yaml
一、LSKAttention模块介绍
摘要:带有大型内核注意力 (LKA) 模块的视觉注意力网络 (VAN) 已被证明在一系列基于视觉的任务中提供了卓越的性能,超过了视觉转换器 (ViTs)。然而,随着卷积核大小的增加,这些 LKA 模块中的深度卷积层会导致计算和内存占用量呈二次方增加。为了缓解这些问题,并在 VAN 的注意力模块中使用非常大的卷积内核,我们提出了一个大