为什么这篇论文(点击链接)声称找到了一个最小宽度在抽象?我的意思是,如果您阅读主要结果,似乎他们只能找到一个具有宽度的通用逼近器. 我错过了什么还是他们犯了错误?我并不完全理解所有的数学,但我确实认为我明白了它的要点,而且 在显示神经网络逼近的函数与实际函数之间的差异界限时甚至没有提及...
为什么这篇论文声称找到了最小宽度 d我_+ 1din+1?
数据挖掘
机器学习
深度学习
2021-10-04 15:48:32
1个回答
从论文的摘要:
具体来说,我们回答以下问题:对于一个固定的 , 什么是最小宽度 因此具有 ReLU 激活的神经网络,输入维度 , 最多隐藏层宽度 ,并且任意深度可以逼近任何连续的实值函数 在变量中任意好?
“实值函数”是指输出维度 . 他们的定理 1 更普遍,并且说对于任何 你会需要 .
其它你可能感兴趣的问题