【超分辨率(Super-Resolution)】关于【超分辨率重建】专栏的相关说明,包含专栏简介、专栏亮点、适配人群、相关说明、阅读顺序、超分理解、实现流程、研究方向、论文代码数据集汇总等

本专栏全面解析【超分辨率重建】,涵盖图像和视频超分,包括算法模型、论文精读、代码复现、环境配置、实践应用等。提供论文阅读和写作指导,Pytorch代码实现,模型权重文件,适用于初学者、毕业设计和实际应用需求。内容丰富,从SRCNN开始,覆盖众多经典模型,适合科研和应用需求。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


关键词:Image Super-Resolution、Video Super-Resolution

专栏简介

本专栏研究领域为【超分辨率重建】,涵盖图像超分、视频超分,实时超分,4K修复等方面。主要内容包括主流算法模型的论文精读、论文复现、毕业设计、涨点手段、调参技巧、论文写作、应用落地等方面。

算法模型从SRCNN开始更新至今,一般是一篇论文精读对应一篇论文复现。

论文精读详解理论,归化繁为简,归纳核心,积累词句,培养阅读论文和论文写作能力
论文复现依托Pytorch代码,实现完整的模型训练流程,总结调参方法,记录碰到的bug,论文插图可视化,培养读写代码能力、做实验的能力、以及应用落地能力。在复现大量的算法后,专栏会更新涨点方法,帮助有需要的同学找到创新点。专栏中还会更新一些实用技术,帮助大家解决实际问题。此外,专栏会更新超分算法相关的毕业设计,以完整软件项目的形式呈现(UI界面+超分算法)。

为什么要精读论文?

  1. 培养科研思维并养成习惯。科研是发现问题解决问题的过程。看论文的首要意义在于走一遍别人走过的路,模仿就是学习和入门最便捷的途径。没有创新思路一定是看的论文不够多。论文具有时间上的连续性,很多文章都是在前人的工作基础上研究的,那么某个方向近几年的文章就是要重点关注的,形成体系,积累思路和手段,从而在读文章的时候迅速找到该文章方法的缺陷,进而产生idea和motivation。
  2. 寻找baseline,确定方向。论文能否发表取决于审稿人,那么论文作者写作的针对人群是审稿人而不是大众读者,即使很简单的idea也会经过包装让审稿人觉得高大上。因此,精读的目的既是抽丝剥茧,抓重点,让大家从不知所云的文字中快速理解论文的做法,并快速判断是否有进一步做的价值,如果能发现问题,也就找到了baseline,并根据自己看过的大量文章中检索类似问题的解决办法或经验,进而实现创新。
  3. 学习论文写法。终归是要自己写论文的,那么顶刊顶会论文的写作思路、文笔、用词、故事讲法等就是最好的学习素材。

为什么要复现论文?

  1. 入门。学习代码结构,数据集准备与预处理、训练、推理、测试走一遍完整流程,熟悉实验过程,增强代码调试能力,熟练风格类似的代码框架,比如EDSR和BasicSR的框架使用,以便后续训练和测试自己提出的模型,此外有的论文源码中还会提供画图的相关代码,能大幅提升科研效率;
  2. 寻找baseline。你的创新实现大概率是在别入的代码基础之上实现的,那么就一定要会baseline的全部代码,这样才知道如何修改和添加结构;
  3. 便于实验对比。跑出评估指标PSNR/SSIM和可视化结果。有的代码没提供可视化结果,就需要自己跑出来对比,如果你不是在benchmark上做,而是有自己的数据集,那么就更需要重新在自己的数据集上训练跑出结果。

从零开始发一篇SCI

  1. 调研阶段:问题背景,问题描述,基础知识,综述,大概掌握主流方法;
  2. 精读论文:根据调研经过按发展顺序精读10~20篇论文,搞懂主流方法的motivation,针对问题提出的idea,创新点切入,实验设计等,既学习方法也学习论文写法;
  3. 复现论文:与2紧密相连,论文中idea的代码实现,框架使用,巩固方法,积累实用的代码块,熟练掌握训练和测试流程(为了跑自己的实验),跑出定量结果和定性结果(为了对比)。注:定性结果一般直接抄之前工作论文中的结果,定性结果一般源码中会给出下载,如果没给则需要自己跑出然后做对比,如果重新训练自己的数据集则都需要跑。
  4. 2和3结合,目的如下:(1)积累同一个benchmark下的各方法定量结果(PSNR/SSIM等),overleaf中建一个项目积累;(2)积累同一个benchmark下的个方法定性结果(visual results),弄个移动硬盘复现一篇就保存好一篇的结果;(3)积累各方法的参考文献bib格式,overleaf建个.bib积累;(4)找之前工作存在的问题、局限、可以改进的地方等,弄个文档做笔记。注:积累的目的是提高效率,避免重复性工作以及手忙脚乱。(4)是核心,无论如何创新都是最主要的,但创新的前提是掌握研究方向的发展进程,养成解决问题的思路,锻炼代码实现能力。注:如果你是硕士只发一篇文章就毕业并且以后打死也不再发论文了,则不用积累。准备读博或者以后当老师的同学则需要积累,经常换方向是大忌,积累则一劳永逸,能更专注于创新点而不在于重复性工作,需要什么直接从自己积累的库中提取即可。
  5. 做实验:根据3养成的训练和测试流程做一遍自己的idea,时刻记录实验结果,做好实验结果的分类与管理,避免混乱,根据实验效果判断是否成文(自己或组里讨论对idea有个大概的判断),如果work就奔着一区/CCFA投,如果不work经导师同意则可以投三四区。根据2学习好文章的实验做法,做消融以及其他补充实验,丰富工作量。
  6. 成文:先做图表,后写文字。一般5和6是同步进行的,5在等待实验结果的时候,6就可以先写提纲并填充引言和相关工作等与实验无关的内容。不建议先写method,除非你的idea非常明确完全不会变动。有可能在实验的过程中你会发现某个模块比现在idea中的模块还好,就会有公式和结构图变动,因此method和experiment部分最好是等完全确定下来不改了之后再写。图表都弄好之后,可以配合AI阐述并填充文字部分,最后自己修改润色等。
  7. 投稿:根据不同期刊/会议先阅读官方说明,然后按步骤投稿即可,多查查前人的教程攻略,不用怕有问题,有问题会退回来改完再重新投就行。
  8. 如果你只需要做项目而不需要发论文,则只进行步骤2和步骤3即可。如果你需要发文章且基础较好则可以忽略步骤1。本专栏的意义之一是可以帮你节省调研的时间,直接从【精读论文】开始即可。

专栏亮点

  • 省时:超分辨率领域论文全覆盖,算法模型全,主流的算法模型都会涉及结合能搜集到的资料深入浅出解读,按顺序阅读即可,节省搜论文的时间。【论文复现】文章末尾会提供训练好各放大倍数下的最优性能(PSNR最优)模型权重文件,读者可以下载直接使用,方便论文中实验部分方法对比(视觉效果和量化指标)或直接应用模型超分自己的图像数据。
  • 省力:大白话讲解,手把手教学,带你读论文,写代码,理解文章的算法和创新点,避免一个人对着论文死磕但还是不理解的情况出现。按部就班,肯定能跑出好的模型结果,帮助你了解论文内容和结构,积少成多,学会写论文。同时,让你少走弯路,避免模型调参四处碰壁,涉及的模型都提供训练好的权重文件,可以直接拿来测试自己的图像。
  • 省事:努力做全网最全最好最详细的【超分辨率】专栏,专栏永久更新,第一时间更新最新的超分领域内容,关注订阅后一劳永逸,关注账号后更新了会私信告知。有问题可以随时留言交流,大家一起讨论总比一个人死磕要强。

适配人群

  • 研究超分辨重建的新手小白,希望快速入门
  • 有毕业需要的本科生(毕业设计)、研究生(导师放养,缺乏科研能力以及论文写作经验),希望有一篇论文毕业
  • 有训练自己特定需求数据的工作者,本专栏将帮你跑通流程,训练你自己的数据
  • 有实际应用需求场景的工作者,本专栏将提供已经训练好的模型去超分你自己的数据,比如医学领域的MRI图像、生物领域的细胞图像和其他需要应用的领域。有泛化性非常好的数据集训练出来的模型。(如果你没有硬件条件去训练,而只是想用模型超分你自己的数据)
  • 想挣钱搞副业的奋斗者,希望用超分技术解决客户问题,通过技术手段赚钱。比如老照片修复,4K修复视频等等。

建议:有科研需要的同学【论文精读】和【论文复现】都看,理论+实验;有做项目应用需要而不需要写论文的同学可以只看【论文复现】,有最优PSNR的模型文件,可以直接用,超分自己的图像。

相关说明

  • 关于更新:一般模型比较大,想复现出论文的结果需要训练很久,再加上写文章,总结反思的过程,更新频率可能比较低。先更新图像超分,再更新视频超分。
  • 关于内容:黑色加粗是重点红色加粗是笔者的讲解、总结或创新。绿色加粗是补充内容,可能还有一些吐槽,能产生共鸣。【论文精读】文章末尾有链接可以直接跳转到对应的【论文复现】文章,【论文复现】文章开头有【论文精读】的文章链接,方便回顾理论。
  • 关于读者:希望你一步一步按顺序仔细阅读,尽量不要跳跃。只需要跑通流程不需要了解理论的同学直接看【论文复现】,只需要训练好的模型文件去超分自己数据的同学直接跳转到文章末尾有权重文件连接。除此之外,请全部阅读!有问题随时评论区留言答疑。禁止没仔细看文章就问问题,禁止白嫖,禁止问奇奇怪怪的问题。
  • 阅读顺序:请按给出的文章目录顺序阅读。有的算法模型是在前一篇文章的基础上实现的,尽量不要跳跃。如果有缺失的文章或者有你特别想了解的文章,请在评论区留言。让我们一起感受【超分】领域的研究历程吧!
  • 有发文章需求的同学建议对照原论文阅读全部【论文精读】,了解论文结构脉络,看别人怎么写的,怎么讲故事的,你自己才能会写。
  • 只有做项目做实际应用没有写文章需要的同学可以只看【论文精读】中红字总结的理论部分和实验参数+【论文复现】全文。
  • 有的论文没有源代码,或者有他人复现的代码但质量不高,或者实现思路与其他文章相似,则【论文精读】以丰富阅读、开拓思路为目的。
  • 怕专栏质量不够高,怕被坑钱的读者可以看下面两篇试读文章,以此为依据决定是否订阅:
    【图像超分】论文精读:Image Super-Resolution Using Deep Convolutional Networks(SRCNN)
    【图像超分】论文复现:新手入门!Pytorch实现SRCNN,数据预处理、模型训练、测试、评估全流程详解,注释详细,简单修改就可以训练你自己的图像数据,有训练好的模型下载地址,随取随用

在这里插入图片描述

关于答疑

宗旨:先仔细阅读文章,有问题再问

基础薄弱的同学先学深度学习基础,搞明白框架和执行逻辑,重点为pytorch(数据处理DataLoader、模型实现nn、训练相关)、cv2和PIL等图像处理基础,有的问题搜一搜,查一查,把基础打好。

欢迎提出以下问题:

  • 专栏内文章中出现的错误和表意不明的内容;
  • 代码报错;
  • 与算法模型相关的讨论,改进等;
  • 希望我后续出的文章,方向,功能需求等;
  • 友好的讨论,各种方面都可以,论文、投稿、读研读博、当老师等;

符合以上条件的,我知无不言,作为一名高校教师,我很愿意和友好的学生沟通!工作很忙,空闲时间看见了就会回复。

以下评论和问题不回:

  • 不友好的攻击与谩骂,没有礼貌的;比如:“这么简单的东西还收费”。你觉得简单,还有很多需要入门的小伙伴不觉得简单,不要用你的标准来评判他人;
  • 不看文章一通乱问的;答案就在文章中,仔细阅读,文章写的很细致,问我我给你回答没有你仔细阅读效率高;
  • 表述不明,完全不知所云的;不明白你的问题,自然无法解答;
  • 上来就要代码的,想白嫖的,套话的;不要问我这个方案可不可以,能不能给个创新idea等厚脸皮的话。一切都要自己动手做,去试了才知道,谁有好的想法不都自己发文章了吗,还能告诉你吗?
  • 我也不会的;我不是神仙什么都会,可以讨论,但不能要求我一定能回答;

订阅专栏后的答疑是作为附加的增值服务,我没有义务什么离谱的问题都回答你,即使你花了钱也不行,每个人的标准不同,求同存异,友好相处,有问题有意见可以提,但别找骂。

注:有的文章质量可能偏低,可能是我先发出来准备后面再完善的,大家不用担心,做事情先完成再完美。

环境配置

笔者的项目环境:

  • 编译器:pycharm
  • torch 1.12.1
  • windows11
  • 服务器4个GPU,Titan RTX

pycharm专业版远程连接服务器运行。你可以根据自己的情况使用不同配置,结果不会差很多。

如果你的环境不同,请根据自己的情况修改部分代码。

例如,多个GPU就会用到torch.nn.parallel DataParallel,而且会model.to(device)或者to cuda。而你自己的环境是windows本地跑,只有一个GPU,那么就需要修改对应部分的代码。

仅做参考,相信大多数人的环境应该都能运行。实在不行,只能升级设备了。

超分理解

超分辨率(Super-Resolution),顾名思义,是将低分率的图像变成高分辨率的图像。它是低级别(low-level)的图像复原任务(同级别的还有去噪)。但是,超分是病态的(ill-pose)。它是无中生有,凭空创造出来的。为的是改善视觉效果,提升后续工作的效率。

那么,图像是如何无中生有,从低分辨率到高分辨率的呢?

请添加图片描述

举一个分辨率放大2倍的例子。GT是Groud Truth,也是HR。作为标签(label)或者目标(target)指导低分率图像要向着什么目标努力。低分辨率图像是通过插值算法造出来的,常见的方法是用双三次插值缩小再放大(也可以添加高斯噪声)。当然,如果你自己有两个2倍关系的数据,低分辨率(LR)的是输入,高分辨率(HR)是GT。

这样,LR和HR之间有一个映射,通过损失函数最小化来得到最优的模型。

如上图所示,Input就是通过双三次插值(Bicubic)先缩小2倍(LR)再放大2倍的结果。Output是通过模型将LR超分的结果。

横向对比,一个是不同算法的对比,得出我们的模型更好的结论;一个是超分的结果与GT对比,得出我们的模型更接近于原图。质量评估,可视化看清晰度;量化评估,看PSNR和SSIM等指标。

常见的传统方法对比有:nearest,双线性,双三次,lanczos,sinc,spline等。

然而,实际应用场景中,想让图像从模糊变清晰,往往是给出模糊图像,而不是像上图中作为GT,也没有对应放大倍数后想达到的指导。超分之后,发现图像还是模糊。

这是为什么呢?

答:超分只是将图像的分辨率放大,模糊是因为失焦或图像大小变化导致的,超分才有效果。一定要分析模糊产生的原因,是因为噪声模糊(去噪模型)、运动模糊(有对应的去运动模糊的方法)还是大小变化模糊。

实际应用往往需要去噪、锐化、超分等多种图像复原手段共同作用才能产生比较好的效果。

所以,当你训练的超分模型效果不好时,不必气馁。需要写论文的只站在论文的角度思考有提升就可以;需要实际应用的调调数据或者换换模型,总会守得云开见月明,轻舟已过万重山。

实现流程

超分也和其他深度学习任务相同,一般分为以下几步实现算法模型:

  1. 网络模型定义:明确网络的输入和输出,以及维度。
  2. 数据预处理:根据网络的输入处理数据,适配网络。数据增强:超分的数据增强一般为旋转[0,90,180,270]、翻转(左右、上下)、缩放(0.5~1倍之间)。超分的输入一般不是以整张图像的形式,而是裁剪图像的一小块输入。为了覆盖所有的图像特征,数据集会非常大,对设备要求也很高,对于参数也有影响。数据集一般做成.h5格式。 超分是low-level任务,一些tricks对模型的提升帮助不大。初始图像大小需要调整为能整除放大倍数,会有一些像素损失,影响最终的结果。
  3. 模型训练:常规步骤,根据不同方法具体实现。最好能边训练边验证。
  4. 模型测试:用测试集测试模型,计算平均PSNR和SSIM。
  5. 其他补充:训练过程可视化(visdom、Tensorboard),科研作图(epoch和psnr的关系),可视化feature map等,可能出现在论文中的内容。

文章目录

基础知识

  1. 【图像去噪/超分】基础知识之BasicSR | BasicSR库的用法详解,包含各部分代码功能详细介绍(全代码注释),自己改进创新需要修改的位置等
  2. 【图像超分/图像去噪】Windows下使用BasicSR训练和测试模型
  3. 【图像超分】基础知识之计算效率 | 计算模型复杂度Flops,Multi-Adds(MACs)以及单位缩放和 参数量Params

三个常用的SR框架

内容如下:

  • 使用方式:训练和测试跑通图文教程、如何修改成自己的数据集和网络、报错解决并适配高版本的Python/Pytorch/Cuda等;
  • 全代码逐行注释,肯定能看懂;
  1. BasicSR:https://github.com/XPixelGroup/BasicSR
  2. EDSR-Pytorch:https://github.com/sanghyun-son/EDSR-PyTorch
  3. KAIR:https://github.com/cszn/KAIR

一些论文源码只给出了模型结构,训练和测试是基于上面这三个库的。所以,如果想在这些模型上用自己的数据集做对比实验,就必须掌握这三个框架的使用,以便跑出结果。如果还是在benchmark上做,只需要指标而不需要超分可视化结果(有的代码没给模型和可视化结果),又不以这些模型作为baseline,则无需会。总之,以哪个模型作为baseline,则学习哪个模型源码的框架,目前basicsr是主流,后两个框架未来应该也不太会用了。

EDSR-Pytorch是单独架构,BasicSR的很多脚本来自于KAIR,BasicSR属于完全体。有BasicSR自然不会再用KAIR了。

数据集相关

  1. 【图像超分】SR常用数据集的下载、处理、使用、说明、文件结构、参考文献引用(持续更新)
  2. 【图像超分】基础知识之数据集制作 | matlab | 使用bicubic下采样HR获得不同倍数下的LR

可解释性(论文中的可视化说明)

  1. (CVPR 2021)【图像超分】论文精读:Interpreting Super-Resolution Networks with Local Attribution Maps(LAM)
  2. (CVPR 2021)【图像超分】论文复现:必须会的可视化手段!SR网络可解释性方法LAM源码复现,图文手把手教程,整合并跑通源码,获得LAM和DI结果,使用LAM可视化自己的模型!
  3. (TPAMI 2025)【图像去噪/超分】论文精读:Interpreting Low-level Vision Models with Causal Effect Maps(CEM)
  4. (TPAMI 2025)【图像去噪/超分】论文复现:底层视觉可解释性通用方法!因果归因算法CEM的Pytorch源码复现,图文手把手教程,跑通CEM源码,获得LAM可视化结果和正负范围,使用CEM可视化自己的模型!

图像超分(Image Super-Resolution)

分类方法:以论文中实验部分的小标题为准,做了Lightweight就会收录到高效/轻量化超分中。

经典超分(Classical SR)

序号题目模型出处和年份关键词精读复现
1Enhanced Deep Residual Networks for Single Image Super-ResolutionEDSR/MDSRCVPRW 2017CNN点我跳转到精读文章点我跳转到复现文章
1Deep Back-Projection Networks For Super-ResolutionDBPNCVPR 2018CNN、反投影点我跳转到精读文章
1Second-order Attention Network for Single Image Super-ResolutionSANCVPR 2019CNN、Attention点我跳转到精读文章点我跳转到复现文章
1Single Image Super-Resolution via a Holistic Attention NetworkHANECCV 2020CNN、Attention点我跳转到精读文章
3ClassSR: A General Framework to Accelerate Super-Resolution Networks by Data CharacteristClassSRCVPR 2021通用加速框架、图像分类引入SR任务点我跳转到精读文章
3Reflash Dropout in Image Super-ResolutionRDSRCVPR 2022dropout提升泛化能力点我跳转到精读文章
1Cross Aggregation Transformer for Image RestorationCATNeurIPS 2022Transformer、窗口自注意力改进点我跳转到精读文章点我跳转到复现文章
1Activating More Pixels in Image Super-Resolution TransformerHATCVPR 2023Transformer、混合窗口自注意力点我跳转到精读文章点我跳转到复现文章
2Dual Aggregation Transformer for Image Super-ResolutionDATICCV 2023Transformer、改进自注意力点我跳转到精读文章点我跳转到复现文章
3SRFormer: Permuted Self-Attention for Single Image Super-ResolutionSRFormerICCV 2023Transformer、窗口自注意力改进点我跳转到精读文章点我跳转到复现文章
4Attention Retractable Frequency Fusion Transformer for Image Super ResolutionARTCVPRW 2023Transformer、改进自注意力、频域点我跳转到精读文章
4Accurate Image Restoration with Attention Retractable TransformerARTICLR 2023Transformer、改进自注意力、Swin点我跳转到精读文章
4DRCT: Saving Image Super-Resolution away from Information BottleneckDRCTCVPRW 2024Transformer、密集残差链接、Swin点我跳转到精读文章点我跳转到复现文章
4Recursive Generalization Transformer for Image Super-ResolutionRGTICLR 2024Transformer、改进自注意力点我跳转到精读文章
4MTKD: Multi-Teacher Knowledge Distillation for Image Super-ResolutionMTKDECCV 2024Transformer、蒸馏点我跳转到精读文章
4Multi-scale Attention Network for Single Image Super-ResolutionMAN-baseCVPRW 2024全卷积网络,大核卷积点我跳转到精读文章点我跳转到复现文章
4Image Processing GNN: Breaking Rigidity in Super-ResolutionIPGCVPR 2024 Award & Oral图卷积、Transformer点我跳转到精读文章
5Progressive Focused Transformer for Single Image Super-ResolutionPFTCVPR 2025Transformer、Attention(当前层利用前一层的Attention Map)、点我跳转到精读文章点我跳转到复现文章
任意尺度超分(Arbitrary-Scale SR)
序号题目模型出处和年份关键词精读复现
1Learning Continuous Image Representation with Local Implicit Image FunctionLIIFCVPR 2021 Oral图像的连续表示、自监督点我跳转到精读文章
2Local Implicit Wavelet Transformer for Arbitrary-Scale Super-ResolutionLIWTBMVC 2024 Oral小波变换点我跳转到精读文章
2Chain-of-Zoom: Extreme Super-Resolution via Scale Autoregression and Preference AlignmentCoZarXiv 2025与模型无关、GRPO、VLM、无损放大256倍点我跳转到精读文章

高效/轻量化超分(Efficient/Lightweight SR,ESR)

  • 方法汇总:

  • 轻量化超分常见手段:

  • 文章列表:

序号题目模型出处和年份关键词精读复现
1Learning a Single Convolutional Super-Resolution Network for Multiple DegradationsSRMDCVPR 2018CNN、引入噪声映射点我跳转到精读文章
1Fast, Accurate, and Lightweight Super-Resolution with Cascading Residual NetworkCARNECCV 2018CNN、残差块点我跳转到精读文章
1Lightweight Image Super-Resolution with Adaptive Weighted Learning NetworkAWSRNarXiv 2019CNN点我跳转到精读文章
1Lightweight Image Super-Resolution with Information Multi-distillation NetworkIMDNACM MM 2019CNN、蒸馏点我跳转到精读文章
1Fakd: Feature-Affinity Based Knowledge Distillation for Efficient Image Super-ResolutionFAKDICIP 2020CNN、蒸馏点我跳转到精读文章
1Multi-Attention Based Ultra Lightweight Image Super-ResolutionMAFFSRNECCVW 2020CNN、Attention点我跳转到精读文章
1Learning with Privileged Information for Efficient Image Super-ResolutionPISRECCV 2020CNN、蒸馏点我跳转到精读文章
1LatticeNet: Towards Lightweight Image Super-resolution with Lattice BlockLatticeNetECCV 2020CNN、改进残差块点我跳转到精读文章
1Residual Feature Aggregation Network for Image Super-ResolutionRFANetCVPR 2020残差特征融合、Attention、ESA模块出处点我跳转到精读文章只有ESA模块代码
1Residual Feature Distillation Network for Lightweight Image Super-ResolutionRFDNECCVW 2020CNN、蒸馏点我跳转到精读文章点我跳转到复现文章
2Efficient Image Super-Resolution Using Pixel AttentionPANECCV 2020CNN、Attention点我跳转到精读文章点我跳转到复现文章
2LAPAR: Linearly-Assembled Pixel-Adaptive Regression Network for Single Image Super-Resolution and BeyondLAPARNeurlPS 2021CNN点我跳转到精读文章
2Exploring Sparsity in Image Super-Resolution for Efficient InferenceSMSRCVPR 2021CNN、稀疏性点我跳转到精读文章
2Edge-oriented Convolution Block for Real-time Super Resolution on Mobile DevicesECBSRACM MM 2021CNN、重参数化点我跳转到精读文章
2Lightweight Bimodal Network for Single-Image Super-Resolution via Symmetric CNN and Recursive TransformerLBNetIJCAI 2022CNN + Transformer点我跳转到精读文章
4Blueprint Separable Residual Network for Efficient Image Super-ResolutionBSRNCVPRW 2022CNN、BSConv、Attention点我跳转到精读文章点我跳转到精读文章
5Edge-enhanced Feature Distillation Network for Efficient Super-ResolutionEFDNCVPRW 2022CNN、蒸馏、重参数化点我跳转到精读文章
5RepSR: Training Efficient VGG-style Super-Resolution Networks with Structural Re-Parameterization and Batch NormalizationRepSRACM MM 2022重参数化、BN点我跳转到精读文章未开源
5Residual Local Feature Network for Efficient Super-ResolutionRLFNCVPRW 2022CNN、残差块、Attention点我跳转到精读文章
5A Hybrid Network of CNN and Transformer for Lightweight Image Super-ResolutionHNCTCVPRW 2022CNN + Transformer点我跳转到精读文章
6Fast and Memory-Efficient Network Towards Efficient Image Super-ResolutionFMENCVPRW 2022CNN、Attention、重参数化点我跳转到精读文章点我跳转到复现文章
7Transformer for Single Image Super-ResolutionESRTCVPRW 2022CNN块+Transformer块点我跳转到精读文章点我跳转到复现文章
8Efficient Image Super-Resolution using Vast-Receptive-Field AttentionVapSRECCVW 2022CNN、DWConv、Attention点我跳转到精读文章点我跳转到复现文章
9Efficient Long-Range Attention Network for Image Super-resolutionELANECCV 2022Transformer、改进自注意力点我跳转到精读文章
9Feature Distillation Interaction Weighting Network for Lightweight Image Super-ResolutionFDIWNAAAI 2022CNN、蒸馏点我跳转到精读文章
9ShuffleMixer: An Efficient ConvNet for Image Super-ResolutionShuffleMixerNeurIPS 2022CNN、卷积替代自注意力点我跳转到精读文章点我跳转到复现文章
10Multi-level Dispersion Residual Network for Efficient Image Super-ResolutionMDRNCVPRW 2023CNN、Attention点我跳转到精读文章
10Reparameterized Residual Feature Network For Lightweight Image Super-ResolutionRepRFNCVPRW 2023CNN、重参数化、傅里叶损失点我跳转到精读文章
11DIPNet: Efficiency Distillation and Iterative Pruning for Image Super-ResolutionDIPNetCVPRW 2023蒸馏、重参数化点我跳转到精读文章
11Large Kernel Distillation Network for Efficient Single Image Super-ResolutionLKDN/LKDN-SCVPRW 2023大核卷积、蒸馏、新优化器Adan点我跳转到精读文章点我跳转到复现文章
12Omni Aggregation Networks for Lightweight Image Super-ResolutionOmni-SRCVPR 2023改进自注意力点我跳转到精读文章点我跳转到复现文章
13SRFormer: Permuted Self-Attention for Single Image Super-ResolutionSRFormer-lightICCV 2023Transformer、窗口自注意力点我跳转到精读文章点我跳转到复现文章
14Spatially-Adaptive Feature Modulation for Efficient Image Super-ResolutionSAFMNICCV 2023卷积替代Trans块点我跳转到精读文章点我跳转到复现文章
15Dual Aggregation Transformer for Image Super-ResolutionDAT-lightICCV 2023Transformer、改进的自注意力点我跳转到精读文章点我跳转到复现文章
15Lightweight Image Super-Resolution with Superpixel Token InteractionSPINICCV 2023超像素、多头Attention点我跳转到精读文章点我跳转到复现文章
15DLGSANet: Lightweight Dynamic Local and Global Self-Attention Networks for Image Super-ResolutionDLGSANetICCV 2023Transformer、改进的自注意力点我跳转到精读文章
15Feature Modulation Transformer: Cross-Refinement of Global Representation via High-Frequency Prior for Image Super-ResolutionCRAFTICCV 2023CNN+Transformer点我跳转到精读文章
15DDistill-SR: Reparameterized Dynamic Distillation Network for Lightweight Image Super-ResolutionDDistill-SRTMM 2023CNN、重参数化、蒸馏点我跳转到精读文章
15Cross-receptive Focused Inference Network for Lightweight Image Super-ResolutionCFINTMM 2023CNN块+Transformer块点我跳转到精读文章
15Efficient Mixed Transformer for Single Image Super-ResolutionEMTarXiv 2023Transformer、改进的自注意力点我跳转到精读文章
15From Coarse to Fine: Hierarchical Pixel Integration for Lightweight Image Super-ResolutionHPINetAAAI 2023改进的自注意力点我跳转到精读文章
15Efficient Information Modulation Network for Image Super-ResolutionEIMNECAI 2023用CNN替代Transformer模拟自注意力点我跳转到精读文章
15PlainUSR: Chasing Faster ConvNet for Efficient Super-ResolutionPlainUSRACCV 2024CNN、UNet、MobileNetv3、重参数化、Attention点我跳转到精读文章
15A Lightweight CNN and Spatial-Channel Transformer Hybrid Network for Image Super-ResolutionCSCTHNICME 2024CNN + Transformer点我跳转到精读文章
15A scalable attention network for lightweight image super-resolutionSCANJournal of King Saud University - Computer and Information Sciences 2024CNN、Attention点我跳转到精读文章
15Fully 1 × 1 Convolutional Network for Lightweight Image Super-ResolutionSCNetMIR 2024CNN、全1×1卷积点我跳转到精读文章点我跳转到复现文章
16FreqFormer: Frequency-aware Transformer for Lightweight Image Super-resolutionFreqFormerIJCAI 2024Transformer、改进自注意力块、频域点我跳转到精读文章点我跳转到复现文章
17SMFANet: A Lightweight Self-Modulation Feature Aggregation Network for Efficient Image Super-ResolutionSMFANetECCV 2024Transformer、Attention、特征聚合点我跳转到精读文章点我跳转到复现文章
18HiT-SR: Hierarchical Transformer for Efficient Image Super-ResolutionHiT-SRECCV 2024Transformer、改进窗口自注意力点我跳转到精读文章点我跳转到复现文章
19Transforming Image Super-Resolution: A ConvFormer-based Efficient ApproachCFSRTIP 2024Transformer、大核卷积替代自注意力点我跳转到精读文章点我跳转到复现文章
19Efficient Image Super-Resolution with Feature Interaction Weighted Hybrid NetworkFIWHNTMM 2024CNN+Transformer点我跳转到精读文章
20Swift Parameter-free Attention Network for Efficient Super-ResolutionSPANCVPRW 2024Attention、对称激活函数点我跳转到精读文章点我跳转到复现文章
20Large Kernel Frequency-enhanced Network for Efficient Single Image Super-ResolutionLKFN/LKFN-SCVPRW 2024频域、FFT、baseline为LKDN点我跳转到精读文章点我跳转到复现文章
21Multi-scale Attention Network for Single Image Super-ResolutionMAN-tiny/lightCVPRW 2024全卷积网络,大核卷积点我跳转到精读文章点我跳转到复现文章
21Partial Large Kernel CNNs for Efficient Super-ResolutionPLKSRarXiv 2024卷积网络,大核卷积,Attention点我跳转到精读文章
21Unifying Dimensions: A Linear Adaptive Approach to Lightweight Image Super-ResolutionLAMNetarXiv 2024Transformer、卷积替代自注意力、Attention点我跳转到精读文章
21See More Details: Efficient Image Super-Resolution by Experts MiningSeemoReICML 2024卷积网络、特征融合点我跳转到精读文章
21Transcending the Limit of Local Window: Advanced Super-Resolution Transformer with Adaptive Token DictionaryATD-lightCVPR 2024Transformer、改进的自注意力、交叉注意力点我跳转到精读文章
21GRFormer: Grouped Residual Self-Attention for Lightweight Single Image Super-ResolutionGRFormerACM MM 2024CNN、卷积替代自注意力、频域点我跳转到精读文章
21SRConvNet: A Transformer-Style ConvNet for Lightweight Image Super-ResolutionSRConvNetIJCV 2024Transformer、改进的自注意力、交叉注意力点我跳转到精读文章
21Image Super-Resolution via Efficient Transformer Embedding Frequency Decomposition With RestartFDRNetTIP 2024Transformer、Octave卷积点我跳转到精读文章
21Asymmetric Large Kernel Distillation Network for efficient single image super-resolutionALKDNetFrontiers in Neuroscience 2024非对称大核卷积点我跳转到精读文章
21CubeFormer: A Simple yet Effective Baseline for Lightweight Image Super-ResolutionCubeFormerarXiv 2024Transformer、改进自注意力、baseline是Omni-SR点我跳转到精读文章
21OSFFNet: Omni-Stage Feature Fusion Network for Lightweight Image Super-ResolutionOSFFNetAAAI 2024CNN、特征融合、蒸馏点我跳转到精读文章
21Lightweight multi-scale distillation attention network for image super-resolutionMSDANKBS 2024CNN、多尺度、蒸馏、Attention点我跳转到精读文章
22Dual-domain Modulation Network for Lightweight Image Super-ResolutionDMNetTMM 2025频域(傅里叶域+小波域)点我跳转到精读文章点我跳转到复现文章
22Dilated feature distillation attention network for efficient image super-resolutionDFDANPR 2025CNN、蒸馏、扩展卷积、Attention点我跳转到精读文章
22Efficient frequency feature aggregation transformer for image super-resolutionEFATSRPR 2025Transformer,自注意力改进点我跳转到精读文章
22Efficient Attention-Sharing Information Distillation Transformer for Lightweight Single Image Super-ResolutionASIDAAAI 2025Attention、蒸馏点我跳转到精读文章
22CATANet: Efficient Content-Aware Token Aggregation for Lightweight Image Super-ResolutionCATANetCVPR 2025Transformer、Attention、特征聚合点我跳转到精读文章点我跳转到复现文章
22Emulating Self-attention with Convolution for Efficient Image Super-ResolutionESCICCV 2025大核卷积、卷积替代自注意力点我跳转到精读文章点我跳转到复现文章
23Progressive Focused Transformer for Single Image Super-ResolutionPFT-lightCVPR 2025Transformer、Attention(当前层利用前一层的Attention Map)点我跳转到精读文章点我跳转到复现文章
23Distillation-Supervised Convolutional Low-Rank Adaptation for Efficient Image Super-ResolutionDSCF/DSCLoRACVPRW 2025CNN、蒸馏、LoRA点我跳转到精读文章
23DiMoSR: Feature Modulation via Multi-Branch Dilated Convolutions for Efficient Image Super-ResolutionDiMoSRarXiv 2025CNN模拟自注意力、膨胀卷积点我跳转到精读文章
23Structural Similarity-Inspired Unfolding for Lightweight Image Super-ResolutionSSIUTIP 2025CNN、展开范式点我跳转到精读文章
23MAT: Multi-Range Attention Transformer for Efficient Image Super-ResolutionMATTCSVT 2025Transformer,改进自注意力点我跳转到精读文章
23Semantic-Guided Global-Local Collaborative Networks for Lightweight Image Super-ResolutionSGGLC-NetarXiv 2025(看文章应该投的是TIM,有仪器相关的描述)CNN+Transformer,语义引导,Omni-SR为baseline点我跳转到精读文章
23Efficient Star Distillation Attention Network for Lightweight Image Super-ResolutionSDANarXiv 2025CNN,大核卷积,星型蒸馏点我跳转到精读文章
23SAAT: Synergistic Alternating Aggregation Transformer for Image Super-ResolutionSAATarXiv 2025Transformer,自注意力部分用双分支点我跳转到精读文章
23Transformer-Style Convolutional Network for Efficient Natural and Industrial Image SuperresolutionTSCNTII 2025Transformer-Style,CNN点我跳转到精读文章
23PromptSR: Cascade Prompting for Lightweight Image Super-ResolutionPromptSRArXiv 2025Transformer,prompt点我跳转到精读文章

盲超分/真实世界图像超分辨率(Blind/Real-world SR)

序号题目模型出处和年份关键词精读复现
1Deep Constrained Least Squares for Blind Image Super-ResolutionDCLSCVPR 2022CNN、模糊核、Attention点我跳转到精读文章
1Metric Learning based Interactive Modulation for Real-World Super-ResolutionMM-RealSRECCV 2022无监督、交互调制点我跳转到精读文章
1SRFormer: Permuted Self-Attention for Single Image Super-ResolutionSRFormer-lightICCV 2023Transformer、窗口自注意力点我跳转到精读文章点我跳转到复现文章
1LightBSR: Towards Lightweight Blind Super-Resolution via Discriminative Implicit Degradation Representation LearningLightBSRICCV 2025IDR,蒸馏点我跳转到精读文章
1Asymmetric content-aided Transformer for efficient image super-resolutionACTKBS 2025Transformer点我跳转到精读文章
1Toward lightweight image super-resolution via re-parameterized kernelrecalibrationKRGNKBS 2025CNN、重参数化点我跳转到精读文章
任意尺度超分(Arbitrary-Scale SR)

特定场景超分

医学图像
遥感图像
人脸图像
文本图像

视频超分(Video Super-Resolution)

基于扩散模型的SR模型汇总(Diffusion-based SR Model)

图像恢复(Image Restormation)

说明:通用图像恢复模型(All-in-One),实验中涉及超分。

序号题目模型出处和年份关键词精读复现
1A Comparative Study of Image Restoration Networks for General Backbone Network DesignX-RestormerECCV 2024点我跳转到精读文章
1AN EFFICIENT AND MIXED HETEROGENEOUS MODEL FORIMAGE RESTORATIONRestorMixerarXiv 2025CNN+Transformer+Mamba点我跳转到精读文章

理论部分,论文精读

看懂论文,学习算法知识,拓宽思路,提升科研写作能力。

【图像超分】主流算法:

  1. 【图像超分】论文精读:Image Super-Resolution Using Deep Convolutional Networks(SRCNN)
  2. 【图像超分】论文精读:Accelerating the Super-Resolution Convolutional Neural Network(FSRCNN)
  3. 【图像超分】论文精读:efficient sub-pixel convolutional neural network (ESPCN)
  4. 【图像超分】论文精读:Accurate Image Super-Resolution Using Very Deep Convolutional Networks (VDSR)
  5. 【图像超分】论文精读:Deeply-Recursive Convolutional Network for Image Super-Resolution (DRCN)
  6. 【图像超分】论文精读:Image Super-Resolution via Deep Recursive Residual Network (DRRN)
  7. 【图像超分】论文精读:Enhanced Deep Residual Networks for Single Image Super-Resolution(EDSR和MDSR)
  8. 【图像超分】论文精读:SRResNet/SRGAN
  9. 【图像超分】论文精读:ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks
  10. 【图像超分】论文精读:Image Super-Resolution Using Dense Skip Connections(SRDenseNet)
  11. 【图像超分】论文精读:Deep Laplacian Pyramid Networks for Fast and Accurate Super-Resolution(LapSRN)
  12. 【图像超分】论文精读:Residual Dense Network for Image Super-Resolution(RDN)
  13. 【图像超分】论文精读:Wide Activation for Efficient and Accurate Image Super-Resolution(WDSR)
  14. 【图像超分】论文精读:Real-ESRGAN: Training Real-World Blind Super-Resolution with Pure Synthetic Data
  15. 【图像超分】论文精读:Embedded Block Residual Network (EBRN)
  16. 【图像超分】论文精读:Second-order Attention Network for Single Image Super-Resolution(SAN)
  17. 【图像超分】论文精读:SwinIR: Image Restoration Using Swin Transformer
  18. 【图像超分】论文精读:Fully 1 × 1 Convolutional Network for Lightweight Image Super-Resolution (SCNet)
  19. 【图像超分】论文精读:CoSeR: Bridging Image and Language for Cognitive Super-Resolution(CoSeR)
  20. 【图像超分】论文精读:APISR: Anime Production Inspired Real-World Anime Super-Resolution
  21. 【图像超分/扩散模型】论文精读:Exploiting Diffusion Prior for Real-World Image Super-Resolution(StableSR)

视频超分:

  1. 【视频超分】论文精读:FMA-Net: Flow-Guided Dynamic Filtering and Iterative Feature Refinement with Multi-Attention for Joint Video Super-Resolution and Deblurring

其他领域:

  1. 【图像超分】论文精读:Deep learning super-resolution electron microscopy based on deep residual attention network
  2. 【图像超分】论文精读:SRFS: Super Resolution in Fast-Slow Scanning Mode of SEM Based on Denoising Diffusion Probability Model
  3. 【图像超分】论文精读:Resolution enhancement in scanning electron microscopy using deep learning

实践部分,论文复现

跑通代码,学习超分算法实现流程,复现论文中性能,提升代码能力。

  1. 【图像超分】论文复现:新手入门!Pytorch实现SRCNN,数据预处理、模型训练、测试、评估全流程详解,注释详细,简单修改就可以训练你自己的图像数据,有训练好的模型下载地址,随取随用
  2. 【图像超分】论文复现:Pytorch实现SRCNN!保姆级复现教程!提供完整代码和最优权重模型(x2、x3、x4)!科研级论文曲线图!计算平均PSNR和SSIM!代码Windows和Linux都可用!
  3. 【图像超分】论文复现:Pytorch实现FSRCNN,包含详细实验流程和与SRCNN的比较
  4. 【图像超分】论文复现:Pytorch实现FSRCNN!整合到SRCNN项目中!提供完整代码和最优权重模型(x2、x3、x4)!科研级论文曲线图!计算平均PSNR和SSIM!
  5. 【图像超分】论文复现:Pytorch实现ARCNN和FastARCNN!保姆级复现教程!代码注释详细!细节完善!提供完整代码和最优权重模型!绘制科研级论文曲线图!计算测试集的平均PSNR和SSIM!
  6. 【图像超分】论文复现:Pytorch实现ESPCN
  7. 【图像超分】论文复现:万字长文!Pytorch实现VDSR!血与泪的数据处理与训练过程总结!深度学习中的各种踩坑记录!适合各种深度学习新手!帮助你少走弯路!
  8. 【图像超分】论文复现:Pytorch实现DRRN,完美复现论文中的结果(Scale=2,PSNR=37.74)
  9. 【图像超分】论文复现:万字长文!Pytorch实现EDSR!代码修改无报错!踩坑全记录!适合各种深度学习新手!帮助你少走弯路!附修改后的代码和PSNR最优的模型权重文件!
  10. 【图像超分】论文复现:Pytorch实现WDSR!保姆级复现教程!代码注释详尽!完整代码和x2、x3、x4下的最优模型权重文件可以直接用!绘制论文曲线图!计算主流测试集的平均PSNR和SSIM!
  11. 【图像超分】论文复现:万字长文!Pytorch实现SRDenseNet!模型结构搭建通俗易懂!修正各种代码问题!适合各种深度学习新手!帮助你少走弯路!性能与原论文近似!
  12. 【图像超分】论文复现:万字长文!Pytorch实现SRResNet!代码修改无报错!踩坑全记录!适合各种深度学习新手!帮助你少走弯路!附修改后的代码和PSNR最优的模型权重文件!
  13. 【图像超分】论文复现:新手入门必备!Pytorch实现SRGAN!手把手详细教程!代码注释详尽!可用于训练自己的数据集!实时验证模型性能!绘制PSNR曲线图!附训练好的各放大倍数的模型权重文件!
  14. 【图像超分】论文复现:万字长文!Pytorch实现LapSRN代码修改无报错!踩坑全记录!适合各种深度学习新手!帮助你少走弯路!附修改后的代码和PSNR最优的模型权重文件!
  15. 【图像超分】论文复现:Pytorch实现RDN!保姆级复现教程!实现与原论文基本一致的PSNR和SSIM!代码注释详尽!易读易复用!可用于训练自己的数据集!附完整代码和各放大倍数下的最优模型权重文件!
  16. 【图像超分】论文复现:Pytorch实现IDN!保姆级复现教程!代码注释详尽!完整代码和x2、x3、x4下的最优模型权重文件可以直接用!绘制论文曲线图!实现matlab版本的PSNR/SSIM计算!
  17. 【图像超分】论文复现:Pytorch实现RCAN!与论文中参数和细节完全一致!提供完整代码和模型权重(x2、x3、x4、x8)!计算5大主流测试集上RCAN和RCAN+的PSNR和SSIM!

高效科研

  1. 【高效科研】提升科研做图效率!实用的局部放大图工具,可多图实时查看局部放大区域对比,点击鼠标即可同时裁剪并保存局部放大区域!
  2. 【高效科研】超分辨率重建论文实验部分的视觉比较(Visual comparison)—— 制作局部放大图!全代码自动化实现!鼠标框选区域!只需修改图像路径!无需使用PPT或PS!四种方法让你得心应手!
  3. 【高效科研】Pytorch训练的模型评估测试集,实现与论文中的PSNR/SSIM一致的计算方法!附各主流方法的Bicubic结果对比!分析区别以及原因!得到终极计算方法!
  4. 【高效科研】使用PPT绘制超分辨率重建/图像去噪等CV论文中的网络结构示意图!附多个自绘的主流网络模型模板!各个模块随取随用!
  5. 【高效科研】超分/去噪等领域通用论文写作提纲,包括每个部分详细撰写、图表制作、参考文献BibTeX格式、latex使用等,附参考写作流程,写作心得!
  6. 【高效科研】气泡图绘制 | 将各SOTA方法的PSNR vs. FLOPs vs. Parameters vs. Runtime vs. Memory可视化,对比性能与模型复杂度

论文、代码、数据集、工具、资料汇总

  1. GitHub:超分辨率最全资料集锦
  2. https://github.com/ChaofWang/Awesome-Super-Resolution?tab=readme-ov-file#2024 —— Paper/code汇总,一直更新至今
  3. 【实践与问题解决28】最全超分辨率(SR)数据集介绍以及多方法下载链接
  4. 6000+Star的超分工具箱项目,整合了多种SR算法
  5. 数据集快速处理工具MindsporeDataset
  6. SISR深度学习主要方法简述 —— 表格汇总上采样方法和各模型方法
  7. 深度学习的图像超分技术综述-输入单张图像(SISR)和输入多张图像的基于参考的图像(RefSR) —— 同上
  8. 基于深度学习的超分辨率图像技术发展轨迹一览 —— 发展历程,原理
  9. SRCNN、DRCN、FSRCNN、ESPCN、SRGAN、RED…你都掌握了吗?一文总结超分辨率分析必备经典模型(一)
  10. VDSR、DRRN、LapSRN、RCAN、DSRN…你都掌握了吗?一文总结超分辨率分析必备经典模型(二)
  11. SFT-GAN、CSRCNN、CSNLN、HAN+、Config (f)…你都掌握了吗?一文总结超分辨率分析必备经典模型(三)
  12. 超分辨率重建生成低分辨率图像,生成降质图像公认方法代码 —— 生成LR图像matlab代码(用python生成LR会有性能差异)
  13. 超分数据集概述和超分经典网络模型总结 —— 一篇综述,总结了数据集和经典方法
  14. 图像超分综述:超长文一网打尽图像超分的前世今生 (附核心代码) —— 各算法创新点及核心代码总结

注:上述链接是本人在学习超分的过程中觉得有用的资料,分享给大家,侵删。

研究方向

  • benchmark上涨点,改模型结构,迁移其他模块 —— 常规做法(适用于不要求论文等级的同学)
  • 真实世界(Real-World)超分、盲超分 —— 研究热点(但需要算力强,适用于想发稍微好点论文的同学,有一定算力的硬件)
  • 用扩散模型解决超分问题,对标GAN,去噪扩散模型效果更好 —— 研究大热点(适用于想发任何等级论文的同学,但需要硬件算力特别强,没有8个A100也得有4个A40)
  • 细化到具体类别 —— 动漫图像超分、人脸图像超分、医学图像超分、显微图像超分、遥感图像超分、文字文档图像超分(基于某一类特征研究,好出成果,适用于想快速出文章的同学,可以解决实际问题,做项目)
  • 提升超分训练效率(Efficient Image Super-Resolution)
  • 通用方法 —— 将某个方法加入到超分流程中实现更好的效果,比如某个数据增强使用后比不使用效果好,在网络尾端使用dropout比不使用效果好等。

前沿资讯

  1. 【图像超分】前沿资讯:CVPR 2025 10th NTIRE Workshop挑战赛x4图像超分赛道报告!一大批CVPRW论文即将来袭!
  2. 【图像超分】前沿资讯:枯燥且乏味的比赛!Xiaomi永远的神!去年的冠军含金量还在上升!全都是SPAN变体!第十届NTIRE 2025高效超分辨率挑战赛报告,一大批CVPRW论文即将来袭!

问题汇总

本小节汇总遇到的问题,不定期更新。

  1. 如何做scale=1的超分,即不放大,只变清晰?

答:可以,但不符合超分的做法。因为超分的含义就是提升分辨率,没办法训练scale=1的模型,scale=1就变成其他问题了(想变清晰是去模糊image deblurring)。但可以放大完再缩小。也有输入输出图像大小一致的模型,但不是scale=1训练出来的。总之,有很多手段可以不放大,只变清晰。但不是scale=1。跟图像大小没关系,超分主要是学习不同分辨率图像之间的映射关系,实际上不是图像大小缩放而来的关系,也可以按照超分的流程训练找到LR和HR的关系,LR图像输入模型,模型推理出对应的HR。缩放倍数只是一种得到LR的手段,一种提前设定好的关系。

  1. python与matlab计算PSNR和SSIM的差别
  1. 精读论文为啥要全文翻译成中文,而不是直接以英文解析?
  • 研究生一般是用中文写初稿,然后翻译成英文再润色最后投SCI,并且毕业论文是中文写作。因此,中文的语言通顺有助于英文翻译的准确性,也有助于毕业写大论文。
  1. 为什么论文的中文翻译有些语句不通顺?
  • 如果通顺就是中文行文习惯Chinglish,比如中文的虽然后必须加但是。英文的虽然后面就没有但是,那么按中文的翻译习惯就不会翻译出来但是。因此,当你在写中文初稿的时候,虽然后面就可以不写但是。例如,虽然xxx解决了xxx问题,(但是)xxx仍有xxx限制。就会自动翻译成Since xxxxxx, xxxxxx. 而不是 Since xxxxxx, but xxxxxx.

与我联系

超分交流Q.Q.群:750414192
v.x.:shixiaodayyds(可加v.x.交流群,注明来意,已订阅的备注CSDN昵称)

公众号

关注下方👇公众号【十小大的底层视觉工坊】,公众号将更新精炼版论文,帮助你用碎片化时间快速掌握论文核心内容。

评论 53
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

十小大

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值