信号强度和距离

网络工程 IEEE-802.11
2022-02-07 03:54:06

如果您能向我澄清一些事情,我将不胜感激。

假设我站在 A 点并扫描我周围的 WiFi。我的手机记录了一个信号强度为 -50 dBm 的接入点 X。我使用 FSPL(自由空间路径损耗)公式并计算出 AP(接入点)X 位于我周围 5 米半径范围内。然后我再次扫描,但这次记录信号强度为 -75 dBm 的 AP X。相同的 FSPL 公式表明 X 位于距离我 55 米的半径范围内。

我的问题是 - 我可以安全地假设 X 离我不超过 5 米吗?因为如果不是,假设 10-20 米远,我该如何解释 -50 dBm 的信号强度,它对应于 5 米的距离。是否有可能来自较远位置的信号强度会比来自较近位置的信号强?

预先感谢您的所有答案。

1个回答

从理论上讲,无线信号会随着距离的平方而损失功率(由于功率分布在假设的、不断扩大的球体的表面上)。使用至少三个不同的测量值,您可以计算所有三个接收圆的横截面并找到源。(在三个维度中,您需要使用接收球体和至少四个测量值。大多数情况下,地球可以代替第四个球体。)

在实践中,这要困难得多。空间不是空的,发射器和接收器之间的菲涅耳区域内的任何东西都会衰减信号 - 如果你不使用桅杆,甚至是地球。此外,其他发射器可能会干扰信号并导致可能出现的衰减。

因此,除非您非常仔细地对环境进行建模(几乎不可能),否则您只能进​​行估计。有了一些经验,这些估计可能会非常准确,但又可能完全错误。

另一个完全不同的方面是定向天线的增益。根据天线几何形状,某些方向将获得比其他方向更多的功率。