我正在研究一些中到大规模的有限元代码。通过使用已建立和可用的工具,我能够拥有一个可以扩展到大约 10,000 个内核的算法。调查超出此范围的缩放需要调查更大的网格,这导致了我的问题。
一旦网格开始变大(从 100 GB 到 TB 的范围),只需将它们放到集群环境中就可以完全压倒解决最终系统的任何成本。按照今天的节点标准,100GB-1TB 的网格大小也不是特别大,每个节点可以有超过 64GB 的内存(在许多情况下甚至更多)
那么这通常是如何处理的?有没有常见的方法来提高将数据传输到集群的带宽?您是否只需要连接到令人难以置信的高带宽连接,或者实际运送包含您想要的所有数据的驱动器?
作为后续问题:如果我可以重新设计它,是否可以解决更多依赖自动网格细化的问题,以便我们从较小的起始网格开始并根据需要在内存中进行细化?