除了预测(在数学问题的情况下)之外,我们可以使用 ML 做任何其他事情吗?

人工智能 神经网络 深度学习 数据集 数学 监督学习
2021-10-26 11:48:29

(这里的数学问题只是一个例子,我的问题一般是关于这类问题的)。

给定两个Schur 多项式sμ,sν,我们知道我们可以将它们的乘积分解为其他 Schur 多项式的线性组合。

sμsν=λcμ,νλsλ

我们打电话给cμ,νλLR 系数(始终为非负整数)。

因此,一个自然的监督学习问题是在给定元组的情况下预测 LR 系数是否具有特定值<μ,ν,λ>. 这并不难。

我的问题是:我们是否可以使用 ML/RL 来做除了预测(在这种情况下)之外的任何其他事情,或者从预测结果中提取任何内容?换句话说,像“哦,我有 98% 的把握这个 LR 系数为 0”这样的陈述并不意味着任何数学上有趣的事情?

1个回答

有相当多的论文示例,他们尝试“教”神经网络“学习”如何解决数学问题。大多数时候,可悲的是,它归结为在大型数据集上进行训练,之后网络可以“解决”这类基本问题,但无法将其推广到更大的问题。也就是说,如果你训练一个神经网络来解决加法问题,它本质上会受到数据集的约束。它可能能够半充分地解决 3 位甚至 4 位数字的加法问题,具体取决于您的数据集有多大,但是抛出一个包含 2 个 10 位数字的加法问题,它几乎总是会失败。

我记得他们在哪里尝试过的最新示例是在通用语言模型 GPT-3 中,它本身并不是用来解决方程的,但在数据集中的东西上做得“不错”。Facebook AI 使用我没有研究过的特定架构制作了一个“高级数学求解器”,这可能会反驳我的观点,但你可以研究一下。

最后,这归结为“在学习什么”和“你想完成什么”。大多数人同意这些网络无法在其数据集之外进行泛化。有人可能会说,不能概括并不意味着它不是在学习。它可能只是学习速度较慢。我相信这些模型本质上仅限于数据集中呈现的内容。给定一个好的数据集,它可能能够推广到“接近和介于两者之间”的情况,但我还没有看到这种情况可以推广到数据集“远离”数据集的情况。