当神经网络从数据集中学习某些东西时,我们会留下一堆权重,这些权重代表了对世界知识的某种近似。尽管不同的数据集甚至相同 NN 的不同运行可能会产生完全不同的权重集,但得到的方程必须在数学上相似(线性组合、旋转等)。由于我们通常构建 NN 来对特定的具体任务(识别猫、行人、肿瘤等)进行建模,因此我们似乎对让网络继续充当黑匣子感到满意。
现在,我知道有一种对 NN、其他 ML 技术等的“可理解性”的推动。但这并不是我所要理解的。在我看来,给定一堆记录带电粒子行为的数据点,使用足够先进的神经网络可以有效地恢复麦克斯韦定律。也许这需要比我们今天拥有的更复杂的神经网络。但它说明了我感兴趣的事情:在我看来,如果我们花时间分析和简化他们给我们的公式1 ,NN 可以教我们关于世界的普遍真理。
例如,必须有数百甚至数千个神经网络接受过视觉识别任务的训练,最终学习许多相同的子技能,有点拟人化地说。我最近读到了有关Gauge CNN的文章,但情况恰恰相反:我们从我们所知道的开始,然后将其烘焙到网络中。
有没有人试图走相反的路?任何一个:
- 拿一堆相似的神经网络,分析它们的共同点,以提取关于焦点区域2的通用公式
- 仔细检查训练有素的神经网络的结构,以直接提取可能隐藏在其中的“麦克斯韦方程”?
1想象一下,如果我们建立一个神经网络来学习牛顿力学,只是为了计算一个简单的弹道轨迹。这当然可以做到,但也会浪费大量资源。我们有很好的、简洁的弹道运动方程,由“原始神经网络”提供给我们,所以我们使用它们。
2例如,所有视觉神经网络的集合肯定已经共同发现了用于边缘/线/方向检测等的接近最优算法)。这也许可以在元机器学习算法的帮助下完成(例如,在 NN 权重矩阵上进行聚类?)。