基于3D卷积模块和视差分割的立体匹配方法
DOI:
CSTR:
作者:
作者单位:

河南科技大学,应用工程学院,三门峡,472000

作者简介:

通讯作者:

中图分类号:

TP391, TN919.81

基金项目:

河南省科学规划项目(2019JC008)、河南省科学联合会调研课题(SKL-2019-451)


Research of Stereo matching method based on 3D convolution module and parallax segmentation
Author:
Affiliation:

College of Applied Engineering, Henan University of Science and Technology, Sanmenxia, 472000

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    为了提高立体视觉的深度估计准确性和运行效率,提出了基于二元视差分割和3D卷积的立体匹配方法。首先,从立体图像中提取特征,并将特征馈入到分割模块;然后,针对每个视差平面单独运行3D卷积模块,检测目标是否比给定距离更近,或根据某个粗略量级进行深度估计;最后,利用3D卷积层估计二元分割模块的输出,通过精细化处理后,得到最终的视差图。实验结果表明,所提方法在SceneFlow数据集的3-px误差为4.37%,EPE误差为1.06像素;在KITTI2015数据集上的小额误差接近深度引导聚合网络(GA-Net)方法。且所提方法在不同深度量化级别的运行效率最高。

    Abstract:

    To improve the depth estimation accuracy and efficiency of stereo vision, a stereo matching method based on binary disparity segmentation and 3D convolution is proposed. Firstly, features are extracted from the stereo image and fed into the segmentation module. Then, for each parallax plane, the 3D convolution module is run separately to detect whether the target is closer than the given distance, or to estimate the depth according to any rough order. Finally, 3D convolution layer is used to estimate the output of binary segmentation module, and the final disparity map is obtained after fine processing. Experimental results show that the 3-px error of the proposed method is 4.37% and the EPE error is 1.06 pixels in SceneFlow dataset. The small error approximation depth guided aggregation network (GA-Net) method on KITTI2015 dataset. And the proposed method has the highest efficiency in different depth quantization levels.

    参考文献
    相似文献
    引证文献
引用本文

赵倩.基于3D卷积模块和视差分割的立体匹配方法[J].电子测量技术,2021,44(18):72-77

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:
  • 最后修改日期:
  • 录用日期:
  • 在线发布日期: 2024-08-09
  • 出版日期:
文章二维码