据我所知,Kohonen 风格的 SOM 早在 2005 年左右就达到了顶峰,并且最近没有受到如此多的青睐。我还没有找到任何论文说 SOM 已被另一种方法包含,或被证明等同于其他方法(无论如何,在更高维度上)。但现在 tSNE 和其他方法似乎获得了更多的墨水,例如在 Wikipedia 或 SciKit Learn 中,并且 SOM 被更多地作为历史方法提及。
(实际上,维基百科的一篇文章似乎表明,SOM 仍然比竞争对手具有一定的优势,但它也是列表中最短的条目。编辑:根据 gung 的要求,我正在考虑的其中一篇文章是:非线性降维. 请注意,与其他方法相比,SOM 关于它的文章较少。我找不到提到 SOM 似乎比大多数其他方法保留的优势的文章。)
有什么见解吗?其他人问为什么不使用 SOM,并且从前一段时间得到了参考,我已经找到了 SOM 会议的记录,但想知道 SVM 或 tSNE 等的兴起是否刚刚使流行机器学习中的 SOM 黯然失色。
编辑 2:纯属巧合,我今晚刚刚阅读了 2008 年关于非线性降维的调查,例如它仅提及:Isomap (2000)、局部线性嵌入 (LLE) (2000)、Hessian LLE (2003)、Laplacian eigenmaps (2003) 和半定嵌入 (SDE) (2004)。