深度学习电脑的 GTX 1660 Ti 与 RTX 2060

数据挖掘 深度学习 显卡
2021-09-28 19:04:01

在 AMD Ryzen 第三代处理器推出后,我计划为深度学习构建 PC。我的预算将允许我在 GTX 1660 Ti 和 RTX 2060 之间进行选择。我在下表列出了这两张卡的规格。

╔════════════════╦════════════╦══════════╗
║      GPU       ║ GTX-1660Ti ║ RTX-2060 ║
╠════════════════╬════════════╬══════════╣
║ GPU-cores      ║ 1536       ║ 1920     ║
║ Tensor-cores   ║ N/A        ║ 240      ║
║ RT-cores       ║ N/A        ║ 30       ║
║ Texture-units  ║ 120        ║ 120      ║
║ Render-outputs ║ 48         ║ 48       ║
║ Base-clock     ║ 1500       ║ 1365     ║
║ Boost-clock    ║ 1770       ║ 1680     ║
║ Mem-bus-width  ║ 192-bit    ║ 192-bit  ║
║ Mem-bandwidth  ║ 288GB/s    ║ 336GB/s  ║
║ Mem-capacity   ║ 6GB        ║ 6GB      ║
║ TDP            ║ 120W       ║ 160W     ║
╚════════════════╩════════════╩══════════╝ 

鉴于这种比较,我想知道哪一个对我来说是更好的选择。RTX-2060 是否值得多花 70 美元来获得更好的性能?我初步了解了张量核在深度学习应用程序中的用处,并从 Nvidia 网站上找到了以下文章片段。

关于张量核心的注意事项

与全精度 (FP32) 训练相比,Tesla V100 和 Titan V 等新型 GPU 上的 Tensor Core 专为深度学习而设计,可提供显着更高的训练和推理性能。每个 Tensor Core 以半精度 (FP16) 提供矩阵乘法,并以全精度 (FP32) 累加结果。这一关键功能使 Volta 在训练和推理方面的性能比上一代提升了 3 倍。所有样本都经过优化以利用张量核心,并且已经过准确性和收敛性测试。

1个回答

我会选择RTX。如果我要设计深度学习模型,我会更喜欢 GPU 中更多数量的内核,其中 RTX 是赢家。

让我们不要忘记 RTX 中存在的张量核心,这使其在深度学习处理中脱颖而出。(更快的张量操作)。

如果您负担得起,请选择 RTX。