使用 GPU 加速 R 中的神经网络训练

数据挖掘 机器学习 神经网络 r 显卡
2022-03-05 13:51:29

我目前正在 R 中训练一个神经网络模型,并希望使用 GPU 来加速这个过程。我对此进行了调查,但似乎 Mac 用户无法使用此功能,因为 Apple 不再使用 NVIDIA GPU。

谁能告诉我是否是这种情况,如果不是,我该如何使用 GPU?

1个回答

如果您能够将代码转换为 python,那么您可以使用Google colab环境或Kaggle kernels这些在线平台提供您可以使用的免费 G​​PU。

Kaggle 内核也直接支持R。