我试图了解机器学习是如何工作的。我读了很多书,现在我想到它可能是一种实际的误用。我也希望这个问题是这里的主题。
如果我有一些错误的假设,请纠正我:
- 所有模型都需要样本数据
- 学习过程是对其功能的某种优化,也就是中子
- 学习过程是迭代的,以找到参数的最佳值以最大化神经元的预期输出
- 为了使这个过程更快,你需要对数据进行某种缩减,这样最终中子就不需要查看输入的每个部分
- 您将训练数据分成两个桶,以发现结果对优化变得更好(我称之为验证,不知道这到底是怎么称呼的)
- 如果您的验证数据不正确或等于输入数据,则结果可能与您的输入数据一样好
如果这是真的,或者至少在大多数情况下我得到了这个想法:
当我将输入数据设置为与输出数据相同时,模型什么也不做,但是对于相同的数据,我总是得到相同的数据,对吗?
因此,当我按照表中所示训练模型时:
| 输入 | 输出 |
|---|---|
| 0 | 3 |
| 1 | 1 |
| 2 | 4 |
| 3 | 1 |
| 4 | 5 |
| 5 | 9 |
| 6 | 2 |
| 7 | 6 |
| 8 | 5 |
然后模型将根据正确的位数返回 PI(原因是非学习索引是随机的)
我绝对知道这根本没有意义,但我只是好奇我是否正确理解你可以在 ML 模型中“压缩”数据。