知足知不足,有为有不为
目录
常见涨点的注意力机制有CBAM, SE, CA, ECA等。该文章对以下模块进行总结,如有其他好用的模块请在评论区告诉我再来更新。
一、模块添加步骤
先说模块添加的方法
1.将注意力机制的代码写进 models/common.py 或 models/experimental.py 中去;
2.结合注意力机制需要的参数以及自己模型的通道数等条件,更改自己的.yaml配置文件;
3.在解析文件models/yolo.py中的parse_model()函数里再编写一段代码,使得配置文件里写的参数适应配置文件中width_multiple、depth_multiple的设置。
4.运行yolo.py文件,查看是否加如了相应模块。