结合SML与差分图像的多聚焦图像融合算法
由于光学系统景深的限制,很难将处于不同景深的目标都清晰地显示在所拍摄的图像上。多聚焦图像融合是解决这一问题的有效途径。多聚焦图像融合将来自同一场景不同聚焦区域的两幅或多幅图像进行融合,从而产生一幅全清晰的图像,融合后的图像与任何一幅输入图像相比都具有更大的信息量。多聚焦图像融合多应用于图像处理、视觉感知和计算机视觉等领域[1]。
多聚焦图像融合算法可以大致分为基于空间域的算法以及基于变换域的算法。其中,基于变换域的方法包括3个阶段:图像变换、系数融合以及逆变换[2]。在此类算法中,常用的有基于多尺度分解下的融合方法例如金字塔变换[3]、小波变换[4]、非下采样Shearlet变换[5]等,以及不同于传统变换域方法的基于稀疏表示(SR)[6]和基于梯度域(GD)[7]的方法。基于变换域的方法需要进行融合图像逆变换,计算复杂度高,而基于空间域的方法直接对源图像进行融合,易于实现图像融合的实时性。这类方法可以大致分为3种:基于块的方法、基于区域的方法以及基于像素的方法[8]。在基于块的方法中,首先将源图像划分成大小相等的块,然后对每一块进行聚焦度量。然而块的大小的划分影响融合结果,容易产生块效应。在基于区域的算法中,利用分割技术对源图像进行区域划分,再计算每一个区域的清晰度。但这一类算法的性能受到分割技术的限制,融合图像易产生伪影。为此,Zhang等人[9]提出了一种基于边界的多聚焦图像融合算法,将聚焦区域的检测任务视为从源图像中找到聚焦区域和散焦区域之间的边界,根据找到的边界,生成具有良好视觉效果的融合图像,但其中的分水岭算法对于尖锐的梯度敏感限制了该算法的性能。Li等人[10]提出一种基于引导滤波的多聚焦图像融合算法,能够保存多个输入图像的原始信息和互补信息,但由于不能够正确识别出图像的聚焦区域,造成融合图像边缘模糊。
针对上述算法出现的问题,本文提出一种结合改进拉普拉斯能量和(SML)和差分图像的多聚焦图像融合算法。SML在处理图像边缘和纹理细节上有较大的优势,但不能充分利用图像的局部信息。针对这个不足,本文在进行SML聚焦检测后再利用引导滤波,得到更精确的聚焦度量结果。由于单一的SML聚焦检测并不能够识别图像的全部显著特征,因此结合差分图像算法对源图像进行聚焦度量。通过两种方法结合能够提取更多的图像特征,并通过对融合决策图进行不一致性处理,能够较好地区分图像边界周围的细节信息。实验证明,该算法能够保留图像的边缘、纹理等显著特征,并在边界融合上具有更好的视觉效果,融合时间较短,保证了算法的实时性。
2 所提出方法
本文算法流程如图1所示,融合过程主要分为3个步骤。首先,利用SML和滤波差分对源图像分别进行聚焦区域检测,得到聚焦特征图像;接着,对聚焦特征图像取绝对值最大得到初始融合决策图,通过小区域去除策略消除噪点,并对聚焦区域进行不一致处理,得到最终融合决策图;最后,根据决策图对源图像逐像素加权平均,得到融合图像。