没有隐藏层的神经网络是否表现得像回归?我们可以说没有隐藏层的NN可以说我们吗?
如果我们有例如 20 个输入和 4 个输出并且我没有真正的标签,它是否类似于回归?
如果是回归,那么它将是监督学习,但没有真正的标签!
这个澄清有什么问题?
更多说明:另外,我有一个 dqn(q-learning 方法中的深度学习结构)!不幸的是,我没有最佳答案!我正在寻找一种方法来比较我的结果,也许我可以通过使用非监督学习方法而不是 DNN 来进行比较!例如,您可以放置一个没有隐藏层的 DNN,因为它的行为类似于线性回归,那么您可以使用每个监督学习来代替它!由于没有真正的标签,我在训练部分有问题,并用监督学习估计 DNN 部分!另外,因为它是 MDP,我无法用无监督学习估计 DNN 部分!