我正在为某些应用考虑不同的神经网络拓扑。但是,我不确定这将如何影响使用 GPU/TPU/其他芯片的硬件加速效率。
如果不是完全连接的层,而是具有以其他方式连接的神经元的层(一些神经元对连接,另一些不连接),这将如何影响硬件加速?
这方面的一个例子是卷积网络。但是,仍然有一个明确的模式,可能是被加速利用了,这是否意味着如果没有这样的模式,加速就不会起作用?
这应该是一个问题吗?如果是这样,对于连接模式将如何影响硬件加速的效率,是否有一些经验法则?
我正在为某些应用考虑不同的神经网络拓扑。但是,我不确定这将如何影响使用 GPU/TPU/其他芯片的硬件加速效率。
如果不是完全连接的层,而是具有以其他方式连接的神经元的层(一些神经元对连接,另一些不连接),这将如何影响硬件加速?
这方面的一个例子是卷积网络。但是,仍然有一个明确的模式,可能是被加速利用了,这是否意味着如果没有这样的模式,加速就不会起作用?
这应该是一个问题吗?如果是这样,对于连接模式将如何影响硬件加速的效率,是否有一些经验法则?