在数字通信系统中,我们说接收到的信号可以表示为
如果 x(t) 是传输信号并且是噪音。
我想知道是否会有更好的模型
考虑到由通道引起的延迟。我的逻辑正确吗?
如果是这样,那么在使用(1)时做了什么假设,如果我们使用(2),我们会考虑什么?即我们要考虑什么类型的错误(延迟传播,或时间获取错误......)
我期待听到您对此的回应和讨论。谢谢
在数字通信系统中,我们说接收到的信号可以表示为
如果 x(t) 是传输信号并且是噪音。
我想知道是否会有更好的模型
考虑到由通道引起的延迟。我的逻辑正确吗?
如果是这样,那么在使用(1)时做了什么假设,如果我们使用(2),我们会考虑什么?即我们要考虑什么类型的错误(延迟传播,或时间获取错误......)
我期待听到您对此的回应和讨论。谢谢
您问题中的等式(1)是纯加性噪声通道,没有任何进一步的信号失真。等式(2)考虑了延迟,但这通常是不相关的。就误码率而言,纯延迟不会影响通信链路的质量。(我不是在谈论语音通信延迟的恼人影响)。
所以方程(2)中的模型通常不相关,可以用方程(1)代替。一个更通用和有用的模型,其中包括方程式。(2) 作为特例,是
在哪里是通道的脉冲响应,并且表示卷积。该模型表示具有加性噪声的线性时不变信道。方程。(2) 作为特例获得.