显然,对于 K-means 聚类,数据点是否在聚类中的决策边界或集群是线性的。
我不太明白这个说法。为什么是线性的?K-means 聚类的每次迭代,我都会将数据点重新分配给聚类以最小化平方误差。然后,我重新分配原型(集群的中心)以再次最小化错误。
这些过程如何创建“线性决策边界”?
显然,对于 K-means 聚类,数据点是否在聚类中的决策边界或集群是线性的。
我不太明白这个说法。为什么是线性的?K-means 聚类的每次迭代,我都会将数据点重新分配给聚类以最小化平方误差。然后,我重新分配原型(集群的中心)以再次最小化错误。
这些过程如何创建“线性决策边界”?
存在线性和非线性分类问题。在线性问题中,您可以绘制线、平面或超平面(取决于问题中的维数),以便正确分类所有数据点。在非线性问题中,您不能这样做。如您所知,线、平面或超平面称为决策边界。
K-means 聚类产生一个由线性决策边界组成的Voronoi 图。例如,本演示文稿描述了集群、决策边界(幻灯片 34)并简要描述了 Voronoi 图,因此您可以看到相似之处。另一方面,依赖于隐藏层数量的神经网络能够处理非线性决策边界问题。最后,支持向量机原则上能够处理线性问题,因为它们依赖于寻找超平面。但是,使用核技巧,支持向量机可以将非线性问题转换为线性问题(在更高维空间中)