是否有任何 R 机器学习包可以利用 GPU 来提高训练速度(类似于 python 世界中的 theano)?
我看到有一个名为 gputools 的包允许在 gpu 上执行代码,但我正在寻找一个更完整的机器学习库。
是否有任何 R 机器学习包可以利用 GPU 来提高训练速度(类似于 python 世界中的 theano)?
我看到有一个名为 gputools 的包允许在 gpu 上执行代码,但我正在寻找一个更完整的机器学习库。
至于 GPU 上的完整机器学习包,不存在这样的包。然而,实际上有少数 R 包可以使用 GPU。您可以在CRAN 高性能计算页面上看到这些包。您应该注意,这些软件包中的大多数确实需要您拥有 NVIDIA 卡。在可用的软件包中,除非您有特殊情况,否则您最有可能使用三个软件包。
*注意- 冒着自我推销的风险,我是 gpuR 包的作者。
您可能可以使用后两个包来重现现有的机器学习算法。我实际上正在使用我的 gpuR 包来创建一个 GPU 加速的神经网络包,但这正在进行中。
总而言之,如果您确定,基本资源在 R 中可用。但是如果您在不久的将来需要某些东西,您将需要探索@YCR 指出的其他资源/方法。
这实际上是对 tensorflow、caffe、mxnet 的封装,但可能对您有用。
使用 GPU 进行机器学习的一个很好的库是mxnet。该软件包主要是深度学习,因此如果您正在寻找特定的机器学习算法,您可能不会在那里找到它们。然而,他们有一套很好的深度学习算法。
如果您使用 SVM,您可以尝试用于 GPU 的Rgtsvm包,它与 e1071 实现向后兼容。