我目前正在 R 中训练一个神经网络模型,并希望使用 GPU 来加速这个过程。我对此进行了调查,但似乎 Mac 用户无法使用此功能,因为 Apple 不再使用 NVIDIA GPU。
谁能告诉我是否是这种情况,如果不是,我该如何使用 GPU?
我目前正在 R 中训练一个神经网络模型,并希望使用 GPU 来加速这个过程。我对此进行了调查,但似乎 Mac 用户无法使用此功能,因为 Apple 不再使用 NVIDIA GPU。
谁能告诉我是否是这种情况,如果不是,我该如何使用 GPU?
如果您能够将代码转换为 python,那么您可以使用Google colab环境或Kaggle kernels。这些在线平台提供您可以使用的免费 GPU。
Kaggle 内核也直接支持R。