我在看书Bishop - Pattern Recognition and Machine Learning。在第 4 章的第一页中,有一句话说
在本章中,我们考虑用于分类的线性模型,我们的意思是决策面是输入向量 x 的线性函数,因此由 D 维输入空间内的 (D - 1) 维超平面定义。
如果输入向量是D维度的,那么决策边界也应该是D维度的。为什么呢D-1?例如,在二维平面中,分隔点的线也是一条二维直线。
我是不是在想什么大错特错的事情?谁能解释一下D-1决策边界的尺寸如何?
我在看书Bishop - Pattern Recognition and Machine Learning。在第 4 章的第一页中,有一句话说
在本章中,我们考虑用于分类的线性模型,我们的意思是决策面是输入向量 x 的线性函数,因此由 D 维输入空间内的 (D - 1) 维超平面定义。
如果输入向量是D维度的,那么决策边界也应该是D维度的。为什么呢D-1?例如,在二维平面中,分隔点的线也是一条二维直线。
我是不是在想什么大错特错的事情?谁能解释一下D-1决策边界的尺寸如何?
我认为@Dan 的答案已经足够了,但是对于有基本线性代数的人来说,这是另一种解释。很明显判别函数f是一个线性变换,边界决策中的向量形成零空间。已知dim(V) = dim(null-space) + dim(f(V)),其中V是输入空间。因为 dim(f(V)) = 1,所以 dim(null-space) = D - 1。