我最近在弹丸跟踪的背景下被介绍了卡尔曼滤波的概念。一位同学向我推荐了这个,最让我感兴趣的是它能够融合来自传感器的不同类型的信息。
是否存在与传感器融合不兼容的测量类型?可以融合任何测量以更好地告知基础模型吗?
- 示例:我们在不同时间点拍摄火箭飞过天空的照片。
- 我们使用一些计算机视觉工具从照片中自动检测火箭的位置(有一定程度的测量误差)。
- 在一系列帧中,火箭在重新出现之前慢慢消失在云层后面(无法检测到)。
- 我们知道火箭存在并且位于这片云后面的某个地方。
- 是不是云的(A) “边界”/边界可以告知我们火箭的状态空间,
- ... 或(B)沿轨迹的像素强度(突然从蓝色变为白色)可以告知我们火箭的状态空间?
直觉上,我觉得两者都可以更好地告知轨迹,但在我看来,它们对辅助信息的解释非常不同。我不确定传感器融合是否存在限制,作为该领域的局外人,我无法理解。