简短的回答是:
1, 2. 不,它们取决于不同的示例子集。
3, 4. 是的,但前提是它线性地分隔类并且你非常幸运。否则没有。
5, 6. 不,因为 SVM 和 LDA 只能找到一种解决方案,但感知器可以找到很多解决方案。
现在让我解释一下。
经典 SVM 和 LDA 的决策边界是基于整个训练样本一次离线计算的。因此,无论学习示例的顺序如何,SVM 和 LDA 确实总是会准确找到一个超平面。
但是 LDA 和 SVM 的这些超平面通常不能保证是不同的。顾名思义,SVM 解决方案仅基于支持观察,这通常构成学习样本的一小部分。然而,LDA 解决方案对所有学习示例都很敏感,因为它明确基于它们的类别平均值。因此,您可以稍微移动一个不支持点,SVM 解决方案不会改变,但 LDA 会。这意味着你不能期望 SVM 和 LDA 会找到相同的边界。
相比之下,感知器是在线更新的,因此其决策边界取决于学习示例的顺序。此外,它的解决方案取决于系数的初始化。即,如果wn是看到后的系数向量n学习例子,然后:
wn=w0+ λ∑我= 1ne一世X一世
在哪里e一世等于 1 如果一世'第一个例子是假阴性,-1 为假阳性,否则为 0,并且λ是学习率。通过改变w0和喂食顺序X一世进入感知器,可以实现很多不同的超平面。
例如,如果(运气好!)你设置w0等于 SVM 或 LDA 的解决方案,并且此解决方案线性分离您的类,那么感知器将永远不会更改此解决方案,因此它将等于 SVM 或 LDA 的解决方案。
但是,如果 SVM 或 LDA 的解决方案没有完全分离类(对于 LDA,即使类是可分离的也可能是这种情况),那么感知器将用下一个错误分类的例子改变它,因此它的解决方案将偏离支持向量机或 LDA。