虽然这可能有点离题,但这个问题确实与数据科学和机器学习有关。我想从头开始在 Imagenet 上训练一个 VGG16 模型。为此,我正在考虑购买四到六台 GTX 1080 Ti 或一台 Tesla V100。我感觉四颗 GTX 1080 Ti 的性能会比单颗 V100 好得多,但有没有对此进行过实际研究?
编辑 - 每个 GTX 1080 Ti 具有 11.3 teraflops 的 FP32 性能(或四个 1080 Ti 的 45.2 teraflops,或者由于缩放不是线性的而略低),而 V100 是 100 teraflops,或者是四个 GTX 1080 性能的两倍以上蒂的。有人对这两个图像网络性能有任何基准吗?