资讯 人工智能开发者
此为临时链接,仅用于文章预览,将在时失效

无人驾驶:如何使用立体视觉实现距离估计? | 雷峰网-米乐m6平台

作者:ai研习社-译站
2020/11/17 16:57

译者:ai研习社(、)

双语原文链接:


在自动化系统中,深度学习和计算机视觉已经疯狂地流行起来,无处不在。计算机视觉领域在过去十年中发展迅速,尤其是是障碍物检测方面。

障碍物检测算法,如yolo或retinanet,提供2d的标注框,该标注框指明了障碍物在图像中的位置。

为了获取每个障碍物的距离,工程师将相机与激光雷达(光探测和测距)传感器融合,使用激光返回深度信息。利用传感器融合技术将计算机视觉和激光雷达的输出融合在一起。

使用激光雷达这种方式存在价格昂贵的问题。而对此,工程师使用的一个有用的技巧是:对齐两个像机,并使用几何原理来计算每个障碍物的距离。我们称这种新设置为 伪激光雷达。

  单目视觉和立体视觉

伪激光雷达利用几何原理构造深度图,并将其与物体探测相结合,以获得三维的距离。

如何利用立体视觉实现距离估计?

以下5步伪代码用于获取距离:

1.校准2台照相机(内部和外部校准)

2.创建极线方案

3.先建立视差图,再建立深度图

然后,深度图将与障碍检测算法结合在一起,我们将估算边界框像素的深度。本文结尾处有更多内容。

开始吧!

1.内部和外部校准

每个摄像机都需要校准。校准意味着将具有[x,y,z]坐标的3d点(世界上)转换为具有[x,y]坐标的2d像素。

相机型号

当今的相机使用针孔相机模型。
这个想法是使用针孔让少量光线穿过相机,从而获得清晰的图像。

如果图像中间没有障碍物,那么每条光线都会通过,图像会变得模糊。它还使我们能够确定用于变焦和更好清晰度的焦距f。

要校准相机,我们需要将世界坐标转换为通过相机坐标的像素坐标。

  

相机校准过程

固有参数是我们称为k的矩阵。


校准

过相机校准可以找到k矩阵。

通常,我们使用棋盘格和自动算法来执行它。 当我们这样做时,我们告诉算法棋盘上的一个点(例如:0,0,0)对应于图像中的一个像素(例如:545、343)。

  校准示例

为此,我们必须使用相机拍摄棋盘格的图像,并且在经过一些图像和某些点之后,校准算法将通过最小化最小二乘方损失来确定相机的校准矩阵。

通常,必须进行校准才能消除图像失真。 针孔摄像头模型包括变形,即“ gopro效果”。 为了获得校正的图像,必须进行校准。 变形可以是径向的或切向的。 校准有助于使图像不失真。

  

图像校准

以下是相机校准返回的矩阵:

 

每一个计算机视觉工程师都必须了解和掌握摄像机的标定。这是最基本、最重要的要求。我们习惯于在线处理图像,从不接触硬件,这是个错误。

-尝试运行opencv进行摄像机校准。

同类坐标

在相机校准过程中,我们有两个公式可以将世界上的点o设为像素空间:

world到相机的转换

外在校准公式

相机到图像的转换

  内部校准公式

当您进行数学运算时,您将得出以下等式:

world到图像的转换

  完整公式

如果您查看矩阵尺寸,则不匹配。

因此,我们需要将o_world从[x y z]修改为[x y z 1]。

该“ 1”称为齐次坐标。

立体视觉是基于两张图像来寻找深度。

我们的眼睛就像两个相机。因为它们从不同的角度看同一幅图像,它们可以比对两种视角之间的差异,并计算出距离估计。

下面是立体相机设置的示例。你会在大多数自动驾驶汽车上发现类似的东西。

立体相机如何估算深度

假设你有两个相机,一左一右。这两个相机在相同的y轴和z轴上对齐。基本上,唯一的区别就是它们x值不一样。

现在,看看下面的描述。

立体相机简图

我们的目标是估算出o点(代表图像中的任何像素)的z值,即深度距离。

现在从鸟瞰的角度来考虑这个问题。

立体相机鸟瞰图说明:

如果你运用泰勒斯定理,你会发现我们可以得到两个方程

左相机方程

? 我们得到 z = x*f / xl.

右相机方程:

? 我们获得 z = (x — b)*f/xr.

放在一起,我们可以找到正确的视差 d =xl -- xr和目标正确的 xyz 坐标。  

3. 视差与深度图

视差是什么?视差是一个三维点从两个不同的相机角度在图像中位置的差异。

立体视觉公式


? 由立体视觉我们可以估计任何物体的深度。假设我们做了正确的矩阵校准。它甚至能够计算一个深度映射或者视差映射。


视差图

为什么是“基线几何”?

要计算视差,我们必须从左图像中找到每个像素,并将其与右图像中的每个像素进行匹配。 这称为立体对应问题。


为了解决这个问题--


基线

这是因为两个相机是沿着同一轴对齐的。

以下是基线搜索的工作原理:

  基线搜索

应用:建立伪激光雷达

现在,是时候将这些应用到真实世界的场景中,看看我们如何用立体视觉来估计物体的深度。

考虑两张图片--

  立体视觉

每一幅图像都有外部参数 r 和 t,事先通过校准确定(步骤1)。

视差

对于每一幅图像,我们可以计算相对于另一幅图像的视差图。我们将做如下操作:

我们将获得左右图像的视差图。

为了帮助您更好地理解差异的含义,。

视差图是指一对立体图像之间的明显像素差或运动。
要体验这一点,试着闭上你的一只眼睛,迅速闭上,同时睁开另一只。离你很近的物体看起来会跳跃一段很长的距离,而离你很远的物体几乎不会移动。这个运动就是视差。在一对来自立体摄像机的图像中,你可以测量每个点的视运动像素,并根据测量结果制作出一个强度图像。

  

从视差到深度图

? 我们有两个视差图,这基本上告诉我们,两幅图像之间的像素位移是多少。

对于每个摄像机,都有一个投影矩阵 p_left 和 p_right。为了估计深度,我们需要估计k, r 和 t。

世界坐标系到相机坐标系的转换一个名为

cv2.decomposeprojectionmatrix()的opencv函数可以做到这一点,并从 p 中得到 k、r 和 t;对于每个相机,现在是时候生成深度图了。深度图将使用其他图像和视差图告诉我们图像中每个像素的距离。

这个过程如下:

 

 立体视觉公式

我们对每个像素进行计算。


估计障碍物的深度

针对每个相机,我们都有一个深度图! 现在,假设我们将其与障碍检测算法(例如yolo)结合在一起。 对于每个障碍,这种算法都会返回带有4个数字的边界框:[x1; y1; x2; y2]。 这些数字表示框的左上角和右下角的坐标。

例如,我们可以在左边的图像上运行这个算法,然后使用左边的深度图。

现在,在这个边界框中,我们可以取最近的点。我们知道它,因为我们知道图像中每个点的距离。边界框中的第一个点是我们到障碍物的距离。

真不可思议!我们刚刚构建了伪激光雷达!

借助立体视觉,我们不仅知道图像中的障碍物,而且知道它们与我们的距离! 这个障碍距离我们28.927米!

立体视觉是一种使用简单的几何图形和一个额外的摄像机将2d障碍物检测转换为3d障碍物检测的技术。如今,大多数新兴的edge平台都考虑了立体视觉,比如新的opencv ai kit或对raspberry和nvidia jetson卡的集成。

在成本方面,与使用lidar相比,它保持相对便宜,并且仍具有出色的性能。我们称它为伪激光雷达,因为它可以取代激光雷达的功能。检测障碍物,对障碍物进行分类,并在3d中进行定位。


ai研习社是ai学术青年和ai开发者技术交流的在线社区。我们与高校、学术机构和产业界合作,通过提供学习、实战和求职服务,为ai学术青年和开发者的交流互助和职业发展打造一站式平台,致力成为中国最大的科技创新人才聚集地。

如果,你也是位热爱分享的ai爱好者。欢迎与译站一起,学习新知,分享成长。

长按图片保存图片,分享给好友或朋友圈

无人驾驶:如何使用立体视觉实现距离估计?

扫码查看文章
米乐m6平台

正在生成分享图...

取消
相关文章
网站地图