典型文献
基于光场焦点堆栈的鲁棒深度估计
文献摘要:
传统的深度估计方法通常利用普通相机记录的二维图像进行单目或多目深度估计.因这种方式仅利用了光线的强度信息,忽略了它的方向信息,其深度估计的效果并不理想.相比之下,光场记录的信息不仅包含了光线的强度信息,还包含了方向信息.因此,基于深度学习的光场深度估计方法越来越引起该领域研究人员的关注,现已成为深度估计方向的研究热点.然而,目前大部分的研究工作从极平面图像(EPI)或子孔径图像着手进行深度估计,而不能有效利用焦点堆栈含有的丰富深度信息.为此,本文提出了基于光场焦点堆栈的鲁棒深度估计方法.本文设计了一种上下文推理单元(CRU),它能够有效地挖掘焦点堆栈和RGB图像的内部空间相关性.同时,本文提出了注意力引导的跨模态融合模块(CMFA),对上下文推理单元提取的空间相关性信息进行有效融合.为了验证本方法的准确性,在DUT-LFDD和LFSD数据集上进行了广泛的验证.实验结果表明,本文方法的准确率相比现有的EPINet和PADMM分别提高了 1.2%和2.25%.为进一步证明本方法的有效性,我们在现有公开的手机数据集上进行了反复的测试.可视化测试结果表明,本方法在普通消费级手机获取的图像上亦可取得满意的效果,能够适应现实应用场景.
文献关键词:
光场;焦点堆栈;上下文推理单元;注意力机制;跨模态融合模块
中图分类号:
作者姓名:
吉新新;朴永日;张淼;贾令尧;李培华
作者机构:
大连理工大学信息与通信工程学院 大连 116024;大连理工大学国际信息与软件学院 大连 116024
文献出处:
引用格式:
[1]吉新新;朴永日;张淼;贾令尧;李培华-.基于光场焦点堆栈的鲁棒深度估计)[J].计算机学报,2022(06):1226-1240
A类:
焦点堆栈,极平面图像,上下文推理单元,跨模态融合模块,CMFA,LFDD,LFSD,EPINet,PADMM
B类:
光场,深度估计,估计方法,常利,二维图像,单目,光线,强度信息,相比之下,场记,子孔径,深度信息,CRU,RGB,内部空间,空间相关性,有效融合,DUT,手机数据,可取,现实应用,注意力机制
AB值:
0.176884
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。