是否可以根据经验估计可在普通消费级 GPU 上训练的神经网络的大小?
例如,运动的出现(强化)论文使用神经元的 tanh 激活来训练网络。他们有一个 3 层的 NN,有 300,200,100 个单位用于Planar Walker。但他们不报告硬件和时间。
但是可以制定一个经验法则吗?
此外,仅基于当前的经验结果。所以,例如,使用 sigmoid 激活的单元可以运行在 1060 上每小时学习迭代次数。
或者使用激活函数代替导致性能下降倍数。
如果一个学生/研究人员/好奇的人要购买一个 GPU 来玩这些网络,你如何决定你得到什么?1060 显然是入门级的预算选项,但您如何评估仅购买一台糟糕的上网本而不是构建一个高功率台式机并将节省的美元用于按需云基础设施是否更聪明。
问题的动机:我刚刚购买了一台 1060 并且(聪明,事后问这个问题)想知道我是否应该保留 $ 并创建一个 Google Cloud 帐户。如果我可以在 GPU 上运行我的硕士论文模拟。