我正在学习深度学习书
第 5.1.4 节说:
所以从参数到预测的映射仍然是一个线性函数,但是从特征到预测的映射现在是一个仿函数
任何人都可以举一个具体的例子来详细说明机器学习linear function之间的关系吗?affine function
我正在学习深度学习书
第 5.1.4 节说:
所以从参数到预测的映射仍然是一个线性函数,但是从特征到预测的映射现在是一个仿函数
任何人都可以举一个具体的例子来详细说明机器学习linear function之间的关系吗?affine function
关于线性和仿射函数之间的区别的数学堆栈交换有一个很好的答案。
线性函数固定原点,而仿射函数不需要这样做。仿射函数是线性函数与平移的组合,因此当线性部分固定原点时,平移可以将其映射到其他位置。
在 5.1.4 节,本书介绍了线性回归:
在这个例子中,部分是一个线性函数。它必须通过原点。添加垂直平移导致成为仿射变换,因为它不再需要通过原点。
我认为作者指出了这种区别,因为从纯数学的角度来看,将描述为线性函数在技术上是不正确的参数。它实际上是一个仿射函数,因此如果您在线性代数方面有很强的背景,那么“线性回归”可能看起来是用词不当。
对于它的价值,我认为这不是非常有用的信息,不能包含在机器学习介绍性章节的正文中。如果您仍然不明白,那么请继续阅读!不要让这阻碍你读完这本书。
对于纯粹的数学讨论,这是一个很好的帖子。对于一个具体的具体示例,我使用仿射编辑距离来确定两个字符串的差异。
一个常见的编辑距离度量是Levenshtein距离,它计算将一个字符串转换为另一个字符串的最小字符编辑次数(包括插入或删除)。
相比之下,仿射距离会以较小的距离计数惩罚相邻编辑的差异。具体来说,仿射编辑距离会为两个比较字符串中的第一个差异计算一次编辑,但随后对于后续的顺序差异,它会计为少于一个完整的编辑距离计数。
例如,假设第一个比较字符串附加了 3 个字符,并且在其他方面与第二个比较字符串相同。还假设仿射距离将后续连续编辑计数为 0.5 增量而不是 1。
cat
catsup
使用 Levenshtein 编辑距离公式,我们将计算 和3之间的编辑距离,对 、 和中cat的catsup每个求和为 1 。sup
使用仿射编辑距离公式,我们将计算 和2之间的编辑距离,对第一次更改求和 1,对和cat求和0.5 。catsupsup