我正在运行一个由 GPU 训练的深度学习神经网络。我现在想将其部署到多个主机进行推理。问题是决定我应该使用 GPU 还是 CPU 进行推理的条件是什么?
从下面的评论中添加更多详细信息。
我是新手,因此不胜感激。
内存:GPU是K80
框架:Cuda 和 cuDNN
每个工作负载的数据大小:20G
计算节点消耗:每个作业一个,虽然想考虑一个规模选项
成本:如果理由合理,我可以负担得起 GPU 选项
部署:在自己托管的裸机服务器上运行,而不是在云中。
现在我在 CPU 上运行只是因为应用程序运行正常。但除此之外,我不确定为什么还要考虑 GPU。