我听说我们可以看到 3D 世界,或者我们可以检测距离,因为我们有两只眼睛。但我认为我们只用一只眼睛就能做到!(测试一下!)
那么为什么我们只能用一只眼睛来做呢?是否可以仅使用一台相机为机器人提供立体视觉?
我听说我们可以看到 3D 世界,或者我们可以检测距离,因为我们有两只眼睛。但我认为我们只用一只眼睛就能做到!(测试一下!)
那么为什么我们只能用一只眼睛来做呢?是否可以仅使用一台相机为机器人提供立体视觉?
基本上,对于传统的 3D 视觉感知,两个摄像头并不是“真正需要的”。访问两种略有不同的图像是一种常用方法。它们可以具有由同一相机产生的不同视角,并且可以在时间上交错。
但是一个独眼的人也可以通过其他感官或方式加上环境模型来获得深度感。了解有关对象或光源的信息可以检索 3D 形状(光度立体)。单个图像的常用技术称为阴影形状,您还可以从光照、运动、大小中获得形状。这些通常被认为不如双目技术那么忠实。
但是请注意,人们可能会讨论我们是否真的可以谈论 3D 视觉,因为我们仅限于非遮挡表面。
如果您移动您的头部(或者如果目标对象相互移动和/或远离背景),您会随着时间的推移获得立体数据。也许使用某种视觉记忆来比较场景数据之间/反对/跨越......
因此,如果机器人可以移动(或可以移动其相机)......
在详细介绍“为什么我们需要两个摄像头”部分之前,您可以用一只眼睛观察 3D 环境的原因是即使在使用一只眼睛时,由于头部和眼睛的移动而无需任何有意识的努力变化非常轻微和迅速。眼睛的这种快速移动使大脑能够接收到几乎没有可感知差异或差异的图像,并据此计算深度;从而为我们提供了我们感知的 3D 环境。在单目视觉中,人类的深度知觉不是那么好,但残余记忆再次出现在画面中,以填补由于缺乏双眼视觉而留下的空白。除此之外,还有许多其他视觉线索也可以帮助大脑在单眼情况下感知深度。这里很少有答案真的很好。
那么你能想到一个可以快速移动头部或摄像头的机器人吗?如果是,那么它可能是可能的,但使用固定和刚性相机设置,机器人中的单目视觉无法实现 3D 视觉。