为什么串行连接比并行连接快?

电器工程 串行 平行线 速度 串行总线 并口
2022-01-04 08:32:45

作为软件开发人员,并行处理的概念通常意味着更快的处理,因为它意味着如果不需要,事情不必等待其他进程完成。

那么为什么串行连接(可以说)被视为未来而并行连接已成为过去?

在此处输入图像描述

4个回答

问题是保持并行总线上的信号干净并在目标处同步。

使用串行“您所要做的一切”,能够提取时钟并因此提取数据。您可以通过创建大量转换、8b/10b、双相或曼彻斯特编码来提供帮助,有很多方案(是的,这意味着您要添加更多位)。是的,绝对是一个串行接口必须比 N 宽并行总线快 N 倍才能“更快”,但很久以前我们已经达到了这一点。

有趣的是,我们现在有并行串行总线、你的 pcie、你的以太网(好吧,如果你运行 40GigE 是 4 × 10 gig 通道 100Gig 是 10 × 10 gig 或者新的东西是 4 × 25 gig 通道)。这些通道中的每一个都是利用“串行速度”的独立串行接口,但数据的整体传输被拆分为单独的串行接口的负载平衡,然后根据需要在另一侧组合。

显然,一个串行接口的速度不会比并行总线的一个位通道快,所有其他条件都保持不变。关键在于速度、路由、电缆、连接器等,以保持位平行以及在远端满足设置和保持时间是问题所在。使用一个串行接口,您可以轻松地将运行速度提高 N 倍。然后是从引脚到印刷电路板再到连接器的不动产。最近,使用 4 × 10 gig 通道从 10 gig 以太网升级到 40 gig,每通道 25 gig,因此一对 25 gig 或两个 25 gig 对获得 50 gig,而不是四个 10 gig 对。将电缆和其他地方的铜或光纤成本降低一半。服务器场的边际成本足以放弃传统的行业标准路径,并迅速推出一个并迅速推出。

同样,Pcie 从一个或多个串行接口开始,数据负载平衡。仍然使用数据负载平衡和重新加入的串行通道,速度会增加每个串行接口的每一代,而不是添加越来越多的串行对。

SATA 是 PATA 的串行版本,它是 IDE 的直接后裔,并不是说串行速度更快,只是与保持 N 个并行位从一端同步到另一端相比,它更容易同步和提取串行流下一个。即使串行流的每个比特通道比并行流快 16、32、64 倍或更多倍,仍然更容易传输和提取。

为什么串行连接比并行连接快?

你做出错误的假设。采取任何串行连接。现在将 10 个并行放置并称为并行版本。哪个更快?

那么为什么串行连接被认为是未来,而并行连接被认为是过去呢?

谁说的 ?

并行连接仍然无处不在。对于快速短距离连接,并行随时胜过串行。例如 CPU 与其 RAM 之间的接口。

对于长距离,大多数连接都是串行的,因为多线的成本更高。但在光纤中,我们可以通过同一根光纤使用不同波长的信号。你可以称之为平行。

这种转变是从“单个时钟并行”到“多个串行链路”。例如 PCIe,其中一张卡可能有 1 到 16 条“通道”。

涉及两个因素,偏斜和大小。

添加更多连接器会使每个设备上的电缆、其连接器和插座都更大且更昂贵。看看 Centronics 打印机电缆和 40 针 SCSI 电缆之类的东西有多大!您不会看到带有 Centronics 连接器的手机。因此,随着设备变得更小,使用更少电缆的更小接口面临压力。

通过更好的信号处理,这些设备也变得更快。所以现在可以有更高的比特率。但是,这对于传统的并行链接有一个缺点:倾斜。

偏斜是一组信号之间到达时间的差异。传统的并行链路对所有信号都有一个时钟。它假设时钟和信号都在大致相同的时间到达。随着信号变得更快,到达时间的微小差异变得更加重要。这意味着宽并行连接的速度受到限制:您必须足够慢,以使所有位在同一时间窗口内到达并且不会被下一个位覆盖。

Wikipedia 有一篇文章按年份列出了 x86 CPU 插槽检查一下:随着 CPU 变得更快,它们的接口插座从 1970 年代的仅 40 个引脚增长到现在的 1500 多个引脚。这不能仅用字宽来解释:如果 40 针插座足以安装 16 位 CPU,那么类似设计的 64 位 CPU 肯定应该适合 160 针插座。

事实上,重要的性能提升来自更快的 RAM 访问,这是通过添加越来越多的 RAM 数据线来实现的。带有四通道 DDR 内存接口(并行 256 条数据线)的 CPU 并不少见,而且没有人打算很快用串行接口替换这些 CPU。

话虽如此,这种大规模并行连接在传输距离和连接器可用性方面非常有限,因此它们不用于连接板外外围设备或外部设备。这是串行连接真正闪耀的地方。