论文详解 ——《SNR-Aware Low-light Image Enhancement》

文章目录

  • Abstract
  • 1.Introduction
  • 2. Related Work
  • 3. Our Method
    • 3.1 Long- and Short-range Branches
    • 3.2 SNR-based Spatially-varying Feature Fusion
    • 3.3 SNR-guided Attention in Transformer
    • 3.4 Loss Function
  • 4. Experiments
    • 4.1. Datasets and Implementation Details
    • 4.2 Comparison with Current Methods
    • 4.3 Ablation Study
    • 4.4. Influence of SNR Prior
  • 5. Conclusion

论文链接(CVPR2022):《SNR-Aware Low-light Image Enhancement》
源码链接:https://github.com/dvlab-research/SNR-Aware-Low-Light-Enhance

Abstract

本文提出了一种新的弱光图像增强解决方案,通过综合利用Signal-to-Noise-Ratio-aware transformersConvolution models,利用空间变化操作动态增强像素
它们是对极低信噪比(SNR)图像区域的long-range操作和对其他区域的short-range操作。
我们提出在引导特征融合之前先考虑信噪比,并利用一种新的自注意模型构建SNR-aware Transformer,以避免来自极低信噪比的噪声图像区域的token。
大量的实验表明,在7个具有代表性的基准测试中,我们的框架始终比SOTA方法获得更好的性能。此外,我们进行了一项大规模的用户研究,有100名参与者来验证我们的结果优越的感知质量。

1.Introduction

微光成像对于许多任务都是至关重要的,比如夜间的物体和动作识别[18,27]。弱光图像通常可视性较差,不适合人类感知。同样,当直接以弱光图像作为输入时,下游视觉任务也会受到影响。

目前已经提出了几种增强弱光图像的方法。如今,事实上的方法是学习操纵颜色、色调和对比度的神经网络,以增强弱光图像[12,15,41,56],而最近的一些作品考虑了图像中的噪声[29,48]。
本文的核心思想是:
在微光图像中,不同的区域可以具有不同的亮度、噪声、可见性等特征。亮度极低的区域会受到噪声的严重破坏,而同一图像中的其他区域仍然可以有合理的能见度和对比度。
为了更好的整体图像增强,我们应该自适应地考虑弱光图像中的不同区域。

因此,我们通过探索信噪比(signal-To-noise- ratio, SNR)[3, 54]来研究图像空间中信噪比的关系,以实现空间变化增强。
1. 低信噪比的区域通常是不清楚的。因此,我们在更长的空间范围内利用非局部图像信息进行图像增强。 (Long-range)
2. 信噪比较高的区域通常具有较高的能见度和较少的噪声。因此,本地图像信息通常就足够了。(Short-Range)

下图所示为弱光图像举例说明。
在这里插入图片描述
本文提出了对于在RGB空间下的弱光图像增强解决方案 是同时利用long-range 和short-range的operation。
1. 具有Transfomer结构的long-range[38]捕获非局部信息
2. 具有convolutional residual blocks[17]的short-range捕获局部信息.

在增强每个像素时,我们根据像素的信噪比动态地确定局部(short-range)和非局部(long-range)信息的贡献。
因此,在高信噪比区域,局部信息在增强过程中起着至关重要的作用,而在非常低信噪比区域,非局部信息是有效的。
为了实现这种空间变化的操作,我们构造了一个SNR prior,并利用它来指导特征融合。同时,我们修改了Transformer结构中的注意机制,提出了SNR-aware Transformer
与现有的Transformer结构不同,并不是所有的token都有助于注意力计算。我们只考虑具有足够信噪比的Token,以避免极低信噪比区域的噪声影响。

我们的框架有效地增强了动态噪声水平的微光图像。在7个具有代表性的数据集上进行了广泛的实验:LOL (v1 [45], v2real [53], & v2-synthetic[53])、SID[5]、SMID[4]和SDSD(室内和室外)[39]。
如图1所示,我们的框架在所有具有相同结构的数据集上都优于10种SOTA方法。此外,我们进行了大规模的用户研究,有100名参与者来验证我们的方法的有效性。定性比较如图3所示。
在这里插入图片描述
总的来说,我们的贡献有如下三点:

  • 我们提出了一种新的信噪比感知框架,该框架利用SNR prior,并同时采用transformer structure和convolutional model来实现空间变化的弱光图像增强。
  • 我们设计了一种具有自注意模块的SNR-aware transformer,用于弱光图像增强。
  • 我们在七个有代表性的数据集上进行了广泛的实验,表明我们的框架始终优于一组丰富的SOTA方法。

2. Related Work

  • No-learning-based Low-light Image Enhancement
    为了增强微光图像,直方图均衡化和伽玛校正是扩展动态范围和提高图像对比度的基本工具。这些主要方法往往会在增强的真实图像中产生不希望看到的伪影。基于retexx的方法,将反射分量视为图像增强的似是而非的近似,能够产生更真实和自然的结果[28,35]。然而,当增强复杂的真实图像时,这一行方法经常会局部扭曲颜色[40]。
  • Learning-based Low-light Image Enhancement
    近年来提出了许多基于学习的微光图像增强方法[2,14,20,22,29,31,42,48-50,52,53,59,60,62,63]。Wang et al.[40]提出了预测光照图来增强曝光不足的照片。Sean等人设计了一种策略来学习三种不同类型的空间局部滤波器来增强。Yang等人提出了一种半监督方法来恢复微光图像的线性带表示。此外,还有非监督方法[7,14,19]。例如Guo等人[14]构建了一个轻量级网络来估计像素级和高阶曲线,用于动态范围调整。
    与之前的工作不同,我们的新方法基于一个信噪比感知框架,包括一个新的SNR-aware Transformer设计和一个卷积模型,以空间变化的方式自适应增强弱光图像。如图1所示,我们的框架在7个相同结构的不同基准上都取得了更好的性能。

3. Our Method

图4显示了我们框架的概述。输入是一个弱光图像,我们首先使用一个简单而有效的策略获得一个SNR map(详细信息见第3.2节)。我们提出以SNR为指导,对不同signal-to-noise ratios的图像区域自适应地学习不同的增强操作。
在这里插入图片描述
在我们框架的最深层隐藏层中,我们为long-range和short-range设计了两个不同的分支。它们是专门为实现高效操作而制定的,分别由transformer[38]和卷积结构实现。为了实现长时间的工作,同时避免在极暗区域噪声的影响,我们用一个SNR map来指导transformer的注意机制。为了采用不同的操作,我们提出了一种基于信噪比的融合策略,从long-range、short-range特征中获得组合表示。此外,我们使用从编码器到解码器的skip connections来增强图像细节。

3.1 Long- and Short-range Branches

  • Necessity of spatial-varying operations

传统的微光图像增强网络在最深的隐藏层采用卷积结构。这些操作大多是在short-range 获取本地信息。局部信息可能足以恢复不是非常暗的图像区域,因为这些像素仍然包含大量可见的图像内容(或信号)。但是对于非常暗的区域,局部信息不足以增强像素,因为相邻的局部区域的可见度也很弱,且大多是噪声。

为了解决这一关键问题,我们利用不同的局部和非局部通信动态增强不同区域的像素。本地和非本地信息是互补的。这种效果可以根据图像上的SNR分布来确定。一方面,对于高SNR的图像区域,局部信息应该起主要作用,因为局部信息已经足够增强了。它通常比long-range 非本地信息更准确。

另一方面,对于非常低信噪比的图像区域,我们更多地关注非局部信息,因为局部区域在噪声的主导下可能具有很少的图像信息。与以往方法不同的是,在我们的框架中,我们明确地为非常低信噪比的图像区域制定了一个long-range分支,为其他区域制定了一个short-range分支(见图4)。

  • Implementation of two branches

由于transformer 善于通过全局自注意机制捕获long-range依赖关系,因此,基于transformer[38]结构实现了远程分支。这在许多高水平任务[10,16,21,30,46,57,58]和低水平任务[6,44]中得到了证实。

在long-range 分支中,我们首先将feature map F F F (编码器从输入图像 I ∈ R H × W × 3 I∈R^{H×W×3} IRH×W×3中提取)划分为m个特征块,即 F i ∈ R p × p × C F_i∈R^{p×p×C} FiRp×p×C, I = 1 , … , m I ={1,…,m} I=1m。假设feature map F F F 的大小为 h × w × C h × w × C h×w×C, patch的大小为 p × p p × p p×p,覆盖整个feature map的feature patches有 m = h p × w p m = \frac{h}{p} × \frac{w}{p} m=ph×pw.

如图4所示,我们的SNR-aware transformer是基于patch的。它由多头自注意(MSA)模块[38]和前馈网络(FFN)[38]组成,两者都由两个全连接层组成。从transformer的output feature F 1 , . . . , F m F_1,...,F_m F1,...,Fm 具有相同大小的input feature。我们把 F 1 , . . . , F m F_1,...,F_m F1,...,Fm flatten 到1D的特征,并进行计算

y 0 = [ F 1 , F 2 , … , F m ] ,  q i = k i = v i = L N ( y i − 1 ) ,  y ^ i = M S A ( q i , k i , v i ) + y i − 1 ,  y i = F F N ( L N ( y ^ i ) ) + y ^ i ,  and  [ F 1 , F 2 , … , F m ] = y l , i = { 1 , … , l } ,  \begin{aligned}& y_0=\left[F_1, F_2, \ldots, F_m\right] \text {, } \\& q_i=k_i=v_i=L N\left(y_{i-1}\right) \text {, } \\& \widehat{y}_i=M S A\left(q_i, k_i, v_i\right)+y_{i-1} \text {, } \\& y_i=F F N\left(L N\left(\widehat{y}_i\right)\right)+\widehat{y}_i, \\& \text { and }\left[\mathcal{F}_1, \mathcal{F}_2, \ldots, \mathcal{F}_m\right]=y_l, i=\{1, \ldots, l\} \text {, } \\&\end{aligned} y0=[F1,F2,,Fm]qi=ki=vi=LN(yi1)y i=MSA(qi,ki,vi)+yi1yi=FFN(LN(y i))+y i, and [F1,F2,,Fm]=yl,i={1,,l}

式中, L N LN LN为 Layer normalization; y i y_i yi表示第 i i i 个transformer block的输出; M S A MSA MSA 表示 SNR-aware multi-head self-attention module (见图5),将在第3.3节详细介绍; Q i 、 k i 、 v i Q_i、k_i、v_i Qikivi分别表示第 i i i 个多头自我注意模块中的查询向量、键向量和值向量; l l l 表示transformer 的层数。Transformed feature F 1 , … , F m \mathcal{F}_1, \ldots, \mathcal{F}_m F1,,Fm 可以合并形成2D feature map F l \mathcal{F}_l Fl(见图4)。

3.2 SNR-based Spatially-varying Feature Fusion

如图4所示,我们利用编码器 E \mathcal{E} E从输入图像 I I I中提取特征 F F F,然后将该特征分别由long-range 和short-range 分支进行处理,产生long-range特征 F l ∈ R h × w × C \mathcal{F}_l∈R^{h×w×C} FlRh×w×C和short-range 特征 F s ∈ R h × w × C \mathcal{F}_s∈R^{h×w×C} FsRh×w×C。为了自适应地结合这两个特征,我们将信噪比映射的大小调整为 h × w h × w h×w,将其归一化到 [0,1] 范围内,并将归一化后的信噪比映射 S ’ S’ S作为插值权值,将 F l F_l Fl F s Fs Fs融合为 :

F = F s × S ′ + F l × ( 1 − S ′ ) \mathcal{F}=\mathcal{F}_s \times S^{\prime}+\mathcal{F}_l \times\left(1-S^{\prime}\right) F=Fs×S+Fl×(1S)

其中 F ∈ R h × w × C F∈R^{h×w×C} FRh×w×C是传递给解码器以产生最终输出图像的输出特征。由于SNR map 中的值动态地显示了输入图像不同区域的噪声水平,因此融合可以自适应地结合局部(近程)和非局部(长程)图像信息产生 F \mathcal{F} F

3.3 SNR-guided Attention in Transformer

  • Limitation of traditional transformer structures

虽然传统的transformer可以捕获非局部信息来增强图像,但它们也存在一些关键问题。在原始结构中,对所有的patch进行注意计算。为了增强一个像素,long-range 的注意力可能来自任何图像区域,而不考虑信号和噪声水平。事实上,非常低信噪比的区域是由噪声主导的。因此,它们的信息是不准确的,严重干扰了图像增强。在此,我们提出了SNR 引导下的transformer改进的注意事项。

  • SNR-aware transformer

在这里插入图片描述

图5显示了我们的具有新的自注意模块的SNR-aware Transformer。给定输入图像 I ∈ R H × W × 3 I∈R^{H×W×3} IRH×W×3,对应的SNR map S ∈ R H × W S∈R^{H×W} SRH×W,我们先调整S的大小为 S ’ ∈ R h × w S’∈R^{h×w} SRh×w来匹配 feature map F F F 的大小,然后按照 F F F划分patch的方法将 S ’ S’ S 划分为 m m m 个patch,并计算每个patch的平均值,即 S i ∈ R 1 , I = { 1 , … , m } S_i∈R^1, I =\{1,…,m\} SiR1,I={1m}。我们把这些值打包成向量 S ∈ R m S∈R^m SRm。它在transformer的注意力计算中起到了掩模的作用,可以避免transformer中极低信噪比的图像区域(见图5)的信息传播。S的第 i i i个元素的掩码值表示为 :

S i = { 0 , S i < s 1 , S i ≥ s , i = { 1 , … , m } , \mathcal{S}_i=\left\{\begin{array}{ll}0, & S_i<s \\1, & S_i \geq s\end{array}, i=\{1, \ldots, m\},\right. Si={0,1,Si<sSis,i={1,,m},

其中 s s s为阈值。接下来,我们将 S \mathcal{S} S的m个副本堆叠,形成矩阵 S ’ ∈ R m × m S’∈R^{m×m} SRm×m。设multi-head self-attention (MSA)模块(式(1))的head数为 B B B,则Transformer第 i i i 层第b个head 的self-attention A t t e n t i o n i , b Attention_{i,b} Attentioni,b为 :

Q i , b = q i W b q , K i , b = k i W b k , V i , b = v i W b v ,  and   Attention  i , b ( Q i , b , K i , b , V i , b ) = Softmax ⁡ ( Q i , b K i , b T d b + ( 1 − S ′ ) σ ) V i , b \begin{gathered}\mathbf{Q}_{i, b}=q_i W_b^q, \mathbf{K}_{i, b}=k_i W_b^k, \mathbf{V}_{i, b}=v_i W_b^v, \quad \text { and } \\\text { Attention }_{i, b}\left(\mathbf{Q}_{i, b}, \mathbf{K}_{i, b}, \mathbf{V}_{i, b}\right)=\operatorname{Softmax}\left(\frac{\mathbf{Q}_{i, b} \mathbf{K}_{i, b}^T}{\sqrt{d_b}}+\left(1-\mathcal{S}^{\prime}\right) \sigma\right) \mathbf{V}_{i, b}\end{gathered} Qi,b=qiWbq,Ki,b=kiWbk,Vi,b=viWbv, and  Attention i,b(Qi,b,Ki,b,Vi,b)=Softmax(db Qi,bKi,bT+(1S)σ)Vi,b

其中 q i , k i , v i ∈ R m × ( p × p × C ) q_i, k_i, v_i \in \mathbb{R}^{m \times(p \times p \times C)} qi,ki,viRm×(p×p×C) 是式(1)中输入的2D feature, W k q , W k k , W k v ∈ R ( p × p × C ) × C k W_k^q, W_k^k, W_k^v \in \mathbb{R}^{(p \times p \times C) \times C_k} Wkq,Wkk,WkvR(p×p×C)×Ck 表示的是第k个head的投影矩阵。 Q i , b , K i , b , V i , b ∈ R m × C k Q_{i,b}, K_{i,b}, V_{i,b} \in \mathbb{R}^{m\times C_k} Qi,b,Ki,b,Vi,bRm×Ck 分别是在attention 计算中的query, key, value features。

S o f t m a x ( ) Softmax() Softmax() A t t e n t i o n i , b ( ) Attention_{i,b}() Attentioni,b() 的输出形状分别是 m × m m\times m m×m m × C k m \times C_k m×Ck, 其中 C k C_k Ck 是self-attention 计算中的通道数量。 d k \sqrt {d_k} dk 是为了归一化,σ是一个小的负标量−1e9。 B个head的输出都被连接到了一起,所有的值都被线性地投影在transformer的第 i i i层产生MSA的最终输出。因此,我们保证了long-range的attention来自于具有充足SNR 的图像区域。

3.4 Loss Function

  • Data FLow

给定输入图像 I I I,我们首先应用一个具有卷积层的Encoder来提取特征 F F F。编码器的每个阶段包含一个卷积层和LeakyReLU[47]的堆栈。剩余卷积块在编码器之后使用。然后将 F F F转发到long-range 和short-range 分支中,生成特征 F l F_l Fl F s F_s Fs。最后,我们将 F l F_l Fl F S F_S FS融合为 F F F,并使用译码器(与编码器对称)将 F F F转换为残差 R R R。最终输出图像 I ′ = I + R I ' = I +R I=I+R

  • Loss Terms

有两个重构损失术语来训练我们的框架,即Charbonnier loss[25]和Percepture loss。Charbonnier loss写成 :

L r = ∥ I ′ − I ^ ∥ 2 + ϵ 2 L_r=\sqrt{\left\|I^{\prime}-\widehat{I}\right\|_2+\epsilon^2} Lr= II 2+ϵ2

其中, I ^ \hat I I^为ground truth, ϵ \epsilon ϵ 在所有实验中均取 1 0 − 3 10^{−3} 103。Percepture loss使用L1损失来比较 I ^ \hat I I^ I ‘ I‘ I之间的VGG特征距离。

L v g g = ∥ Φ ( I ′ ) − Φ ( I ^ ) ∥ 1 L_{v g g}=\left\|\Phi\left(I^{\prime}\right)-\Phi(\widehat{I})\right\|_1 Lvgg= Φ(I)Φ(I ) 1

其中 Φ ( ) Φ() Φ() 是从VGG网络[37]中提取特征的操作。总的损失函数为 :

L = L r + λ L v g g L=L_r+\lambda L_{v g g} L=Lr+λLvgg

λ是一个超参数。

4. Experiments

4.1. Datasets and Implementation Details

我们在几个数据集(具有可观测噪音的微光区域)评估了我们的框架。它们是LOL (v1 & v2) [45, 53], SID [5], SMID[4]和SDSD[39]。

  • LOL
    LOL在v1和v2版本中都有明显的噪音。
    LOL-v1[45]包含485对low/normal-light 图像用于训练,15对用于测试。每一对包括一个弱光输入图像和一个相关的适定参考图像。

LOL -v2[53]分为LOLv2-real和LOLv2 -synthetic。
LOLv2- v2-real包含689对低/正常光图像对用于训练,100对用于测试。在固定其他相机参数的情况下,通过改变曝光时间和ISO来收集大多数弱光图像。
LOL -v2-synthetic是通过分析RAW格式中的光照分布而生成的。

  • SID/SMID
    对于SID和SMID,每个输入样本都是一对短曝光和长曝光图像。SID和SMID都有较大的噪声,这是因为它们是在极端黑暗的环境下拍摄的弱光图像。
    对于SID,我们使用Sony摄像机捕获的子集,并遵循SID提供的脚本,使用rawpy的默认ISP将弱光图像从RAW转换为RGB。
    对于SMID,我们使用它的完整图像,也将RAWdata传输到RGB,因为我们的工作是在RGB域探索微光图像增强。我们按照[4]的训练和测试划分。
  • SDSD
    最后,我们采用SDSD数据集39进行评估。它包含一个室内子集和一个室外子集,都提供低光和正常光对。

我们在PyTorch[34]中实现了我们的框架,并在带有2080Ti GPU的PC上对其进行训练和测试。
我们用高斯分布随机初始化的网络参数从头开始训练我们的方法,并采用标准的增广方法,例如垂直和水平翻转。
我们框架的编码器有三个卷积层(即strides 1,2,2),编码器后有一个残差块。解码器与编码器对称,使用ChannelShuffle[36]实现上采样机制。为了最小化损失,我们采用了Adam[23]优化器,动量设置为0.9。

4.2 Comparison with Current Methods

我们将我们的方法与SOTA方法中丰富的微光图像增强方法进行了比较,包括Dong[9]、LIME[15]、MF[11]、SRIE[12]、BIMEF[55]、DRD[45]、RRM[28]、SID[5]、DeepUPE[40]、KIND[61]、DeepLPF[33]、FIDE[48]、LPNet[26]、MIR-Net[59]、RF[24]、3DLUT[60]、A3DLUT[42]、Band[52]、EG[20]、Retinex[29]和Sparse[53]。此外,我们还将我们的框架与两种最新的用于低级任务的Transformer结构(IPT[6]和Uformer[44])进行了比较。

  • Quantitative analysis
    我们采用峰值信噪比(PSNR)和结构相似度指数(SSIM)[43]进行评价。一般来说,更高的SSIM意味着结果中更高频的细节和结构。表1-3显示了LOL -v1、LOL -v2-real和LOL -v2synthetic的比较。我们的方法超越了所有的基线。
    请注意,我们从各自的论文或运行各自的公共代码中获得这些数字。我们的方法(24.61/0.842)在LOL-v1上也优于22和62。表4对SID、SMID、SDSD-indoor和SDSD-outdoor的方法进行了比较。我们的算法性能最好。
    在这里插入图片描述

  • Qualitative analysis
    首先,我们在图6(最上面一行)中展示了视觉样本,将我们的方法与在LOL-v1上获得最佳性能(在PSNR方面)的基线进行比较。我们的方法可以得到更好的视觉质量与更高的对比度,更精确的细节,颜色一致性和更好的亮度。
    图6也显示了LOLv2-real和lolv2 -synthetic的视觉对比。虽然这些数据集中的原始图像存在明显的噪声和弱光照,但我们的方法仍然可以得到更真实的结果。此外,在具有复杂纹理的区域,我们的输出显示出更少的视觉伪影。
    在这里插入图片描述
    图7(上一行)显示了对SID的视觉比较,表明我们的方法可以有效地处理非常嘈杂的弱光图像。图7还显示了SMID、sdsd -indoor和sdsd -outdoor的可视化结果。这些结果也表明,该方法在抑制噪声的同时,能有效地增强图像亮度,揭示图像细节。
    在这里插入图片描述

  • User study
    我们进一步对100名参与者进行了大规模的用户研究,以评估我们的方法和5个最强基线(通过SID、SMID和SDSD上的平均PSNR选择)对增强iPhone X或华为P30拍摄的弱光照片的人类感知。共在道路、公园、图书馆、学校、肖像等不同环境下拍摄了30张弱光照片,50%图像像素的强度低于30%。
    在[40]中设置之后,我们使用Likert表(1(最差)到5(最好)),通过图8中所示的6个问题的用户评分来评估结果。所有方法都是在SDSD-outdoor上进行训练,因为[39]表明训练后的模型可以有效增强手机拍摄的弱光图像。图8显示了不同方法的评级分布,其中我们的方法得到的“红色”评级更多,“蓝色”评级更少。此外,我们使用配对t检验(使用MS Excel中的t检验函数)对我们的方法和其他方法之间的评级进行了统计分析。在0.001的显著水平下,所有的t检验结果都具有统计学意义,因为所有的pvalue都小于0.001。
    在这里插入图片描述

4.3 Ablation Study

我们通过分别移除整体架构上的不同组件来考虑四种消融设置。

  • “Our w/o L”删除了远程分支,所以框架只有卷积操作。
  • “Our w/o S”删除了短程分支,保持了完整的远程分支和信噪比引导的注意力。
  • “Ours w/o SA”进一步从“Ours w/o S”中删除了信噪比引导的注意,只保留了最深层的基本Transformer结构。
  • “Ours w/o A”消除了信噪比引导的注意。

我们对所有7个数据集进行了消融研究。表5总结了结果。与所有消融设置相比,我们的全消融设置产生了最高的PSNR和SSIM。“Our w/o L”、“Our w/o S”和“Our w/o SA”显示了单独使用卷积运算或Transformer结构的缺点,从而显示了共同利用短程(卷积模型)和长程(Transformer结构)操作的有效性。结果还显示了“信噪比引导的注意力”(“Ours w/o A”vs.“Ours”)和“信噪比引导的融合”(“Ours w/o S”vs.“Ours”)的影响。
在这里插入图片描述

4.4. Influence of SNR Prior

我们框架的信噪比输入是通过对输入帧进行不基于学习的去噪操作获得的(式(2))。在所有的实验中,考虑到local means去噪速度快,我们都采用local means去噪。在本节中,我们将分析引入其他操作时的影响,包括non-local means[1]和BM3D[8]。结果如图9所示,表明我们的框架对获取信噪比输入的策略并不敏感。这些结果都优于基线的结果。
在这里插入图片描述

5. Conclusion

我们提出了一种新颖的信噪比感知框架,该框架共同利用short-range和long-range操作,以空间变化的方式动态增强像素。采用SNR prior对特征融合进行引导。SNR-aware Transformer采用了一个新的自注意模块。大量的实验,包括用户研究,表明我们的框架在使用相同的网络结构时,在有代表性的基准测试中始终保持最佳的性能。
我们未来的工作是探索其他semantics来增强空间变化机制。此外,我们计划通过同时考虑时间和空间变化的操作,将我们的方法扩展到处理弱光视频。另一个方向是探索微光图像中接近黑色区域的生成方法。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/72499.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

STM32 LL库开发

一、STM32开发方式 标准库开发&#xff1a;Standard Peripheral Libraries&#xff0c;STDHAL库开发&#xff1a;Hardware Abstraction Layer&#xff0c;硬件抽象层LL库开发&#xff1a;Low-layer&#xff0c;底层库 二、HAL库与LL库开发对比 ST在推行HAL库的时候&#xff0c;…

阿里云预装LAMP应用导致MySQL不显示访问密码如何解决

&#x1f600;前言 本篇博文是关于阿里云云服务器ECS部署MySQL过程中出现的一下坑&#xff0c;希望能够帮助到您&#x1f60a; &#x1f3e0;个人主页&#xff1a;晨犀主页 &#x1f9d1;个人简介&#xff1a;大家好&#xff0c;我是晨犀&#xff0c;希望我的文章可以帮助到大家…

APP外包开发的iOS开发语言

学习iOS开发需要掌握Swift编程语言和相关的开发工具、框架和技术。而学习iOS开发需要时间和耐心&#xff0c;尤其是对于初学者。通过坚持不懈的努力&#xff0c;您可以逐步掌握iOS开发技能&#xff0c;构建出功能丰富、优质的移动应用。今天和大家分享学习iOS开发的一些建议方法…

Ubuntu安装bfloat16==1.1出现问题 error: subprocess-exited-with-error

报错 error: subprocess-exited-with-error python setup.py bdist_wheel did not run successfully. 解决方法 确保你的系统上已经安装了 C/C 编译器&#xff08;如 gcc、g&#xff09;。 如果你使用的是 Linux 系统&#xff0c;你可以使用包管理器来安装它们。命令如下 u…

R语言中的函数24:Combinat:combn(), permn()

介绍 combinat中的combn()和permn()函数可以得到所有的排列组合的情况 combn()函数 combn(x, m, funNULL, simplifyTRUE, …)x – 组合的向量源m – 要取的元素的数量fun – 应用于每个组合的函数(可能为空)simplify – 逻辑的&#xff0c;如果是FALSE&#xff0c;返回一个列…

小程序具体开发

window 导航栏 属性名类型默认值作用navigationBarTitleText string字字符串导航栏标题内容navigationBarBackgroundColorHexcolor#000000设置导航栏背景颜色&#xff08;比如荧黄色 #ffa&#xff09;navigationBarTextStylestringwhite设置导航栏标题的颜色&#xff08;仅含有…

视频网站如何选择国外服务器?

​ 视频网站如何选择国外服务器? 地理位置&#xff1a;选择靠近目标用户群体的国外服务器位置是至关重要的。若用户主要集中在中国以外的地区&#xff0c;因您应选择位于用户所在地附近的服务商&#xff0c;以确保视频的传输速度。 带宽和速度&#xff1a;选择带宽足够且方便升…

Amazon CloudFront 部署小指南(五)- 使用 Amazon 边缘技术优化游戏内资源更新发布...

内容简介 游戏内资源包括玩家的装备/弹药/材料等素材&#xff0c;对游戏内资源的发布和更新是游戏运营商的一个常规业务流程&#xff0c;使用频率会十分高&#xff0c;所以游戏运营商希望该流程可以做到简化和可控。针对这个需求&#xff0c;我们设计了 3 个架构&#xff0c;面…

1.2 初识输入输出

博主介绍&#xff1a;爱打游戏的计算机专业学生 博主主页&#xff1a;夏驰和徐策 所属专栏&#xff1a;夏驰和徐策带你从零开始学C 前言&#xff1a; C语言并未定义任何输入输出 (IO) 语句&#xff0c;取而代之&#xff0c;包 含了一个全面的标准库 (standard library) 来 提…

基于自适应曲线阈值和非局部稀疏正则化的压缩感知图像复原研究【自适应曲线阈值去除加性稳态白/有色高斯噪声】(Matlab代码实现)

&#x1f4a5;&#x1f4a5;&#x1f49e;&#x1f49e;欢迎来到本博客❤️❤️&#x1f4a5;&#x1f4a5; &#x1f3c6;博主优势&#xff1a;&#x1f31e;&#x1f31e;&#x1f31e;博客内容尽量做到思维缜密&#xff0c;逻辑清晰&#xff0c;为了方便读者。 ⛳️座右铭&a…

2023网络安全常用工具汇总(附学习资料+工具安装包)

几十年来&#xff0c;攻击方、白帽和安全从业者的工具不断演进&#xff0c;成为网络安全长河中最具技术特色的灯塔&#xff0c;并在一定程度上左右着网络安全产业发展和演进的方向&#xff0c;成为不可或缺的关键要素之一。 话不多说&#xff0c;网络安全10款常用工具如下 1、…

node配置Web 服务器

1、什么是 Web 服务器 Web服务器一般指网站服务器&#xff0c;是指驻留于因特网上某种类型计算机的程序&#xff0c;Web服务器的基本功能就是提供Web信息浏览服务。 它只需支持HTTP协议、HTML文档格式及URL&#xff0c;与客户端的网络浏览器配合。 大多数 web 服务器都支持服…

分支语句和循环语句(1)

这篇文章我们详细的把分支语句和循环语句给大家进行讲解。 分支语句&#xff1a; if switch 循环语句&#xff1a; while for do while goto语句&#xff1a; 1.什么是语句&#xff1f; C语句可分为以下五类&#xff1a; 1. 表达式语句 2. 函数调用语句 3. 控制…

【Windows 常用工具系列 5 -- Selenium IDE的使用方法 】

文章目录 Selenium 介绍Selenium IDE 介绍 Selenium IDE安装Chrome 浏览器安装Selenium IDE使用 Selenium 介绍 Selenium是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中&#xff0c;就像真正的用户在操作一样。 Selenium家庭成员有三个&#xff0c;分别是S…

SQL | 计算字段

7-创建计算字段 7.1-计算字段 存储在数据库中的数据一般不是我们所需要的字段格式&#xff0c; 需要公司名称&#xff0c;同时也需要公司地址&#xff0c;但是这两个数据存储在不同的列中。 省&#xff0c;市&#xff0c;县和邮政编码存储在不同的列中&#xff0c;但是当我们…

基于Java+SpringBoot+vue前后端分离校园社团信息管理设计实现

博主介绍&#xff1a;✌全网粉丝30W,csdn特邀作者、博客专家、CSDN新星计划导师、Java领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战✌ &#x1f345;文末获取源码联系&#x1f345; &#x1f447;&#x1f3fb; 精彩专…

多线程与高并发--------线程池

线程池 一、什么是线程池 在开发中&#xff0c;为了提升效率的操作&#xff0c;我们需要将一些业务采用多线程的方式去执行。 比如有一个比较大的任务&#xff0c;可以将任务分成几块&#xff0c;分别交给几个线程去执行&#xff0c;最终做一个汇总就可以了。 比如做业务操…

2023年上半年数学建模竞赛题目汇总与难度分析

2023年上半年数学建模竞赛题目汇总与难度分析 ​由于近年来国赛ABC题出题方式漂浮不定&#xff0c;没有太大的定性&#xff0c;目前总体的命题方向为&#xff0c;由之前的单一模型问题变为数据分析评价优化或者预测类题目是B、C题的主要命题方向。为了更好地把握今年命题的主方…

从0开始搭建ns3环境以及NetAnim简单使用

一、环境准备 ns3是基于GNU/Linux平台使用C开发的工具软件&#xff0c;在windows系统中安装使用ns3环境&#xff0c;可以使用虚拟机VMware并安装ubuntu系统来实现&#xff0c;现将本教程所用到的虚拟机和系统镜像放到网盘提供下载 名称链接提取码VMware Workstation 17 Proht…

Apache JMeter:完全指南

Apache JMeter 是一款开源的性能测试工具&#xff0c;可以用于测试 Web 应用程序、FTP 服务器、数据库等各种类型的服务器。本文将以 JMeter 5.5 为例介绍 JMeter 的使用方法。 下载和安装 由于 JMeter 是使用 Java 开发的&#xff0c;因此在运行之前必须先安装 JDK。您可以在…