现在有很多关于百亿亿次计算的讨论,以及我们是否能够在 2018 年、2019 年或其他任何时间实现这一目标。
我有什么可能是一个幼稚的问题。现在做这件事有什么问题?
具体来说,今天我们有AMD Radeon 295x2
它具有 11.5 TFLOPS 的计算能力。将 10 万个组合在一起将给我们 1.15 EFLOPS。
每张卡的功耗略低于 500 W,因此所有卡的总功耗为 50 MW(可能会有更多用于冷却等)。我只是猜测,但可以说所有其他东西(冷却和其他)都需要 20 兆瓦。假设电力价格为 60 美元/MWh,则每年略高于 3500 万美元。单块显卡的价格为1500美元,这意味着硬件将花费1.5亿美元。假设基础设施又花费了 5000 万美元。
将此与当前最快的超级计算机天河二号进行比较。它的制造成本为 3.9 亿美元,使用 17.6 MW(24 MW 冷却),处理能力为 33.86 PFLOPS。
所以:
天河二号
3.9 亿美元
24 兆瓦
33.86 PFLOPS
AMD Radeon 295x2 x 100000
2 亿美元
70 兆瓦
1.15 EFLOPS
因此,以天河二号的成本,你可以建造一台速度提高 30 倍以上且运行成本覆盖 5 年以上的计算机。我猜想 5 年后超级计算机无论如何都会过时,所以你会建造另一台 :)
我在这里想念什么?
今天的超级计算机和这些 GPU 所做的浮点运算有区别吗?
AMD 无法生产/供应 100,000 台 295x2 的问题是什么?
是否还有其他一些实际问题,例如无法将 100,000 个单元连接成有用的东西,或者无法正确冷却它们?
AMD Radeon 会因某种原因不稳定或不可靠吗?