我期待神经网络的特定输出是我训练的目标值。假设上部输出节点的目标值为 0.8,下部输出节点的目标值为 -0.3。
前两层使用的激活函数是 ReLu 或 LeakyReLu,而最后一层使用 atan 作为激活函数。
对于反向传播,而不是调整值以使网络的输出接近 0.8,-0.3。如果我使用 atan 的反函数(它本身就是 tan)来获得“输出层的理想输入乘以权重并通过偏差调整”,是否合适。
0.8 和 -0.3 的棕褐色大约为 0.01396 和 -0.00524。
然后,我的算法将调整网络的权重和偏差,以使输出层的“预激活输出”——基本上是 (sum(output_layer_weight*output_layer's inputs)+output_layer_biases)——接近 0.01396 和 -0.00524。
这个合适吗