这两种技术之间的实际差异是否有一个非常简单的描述?
两者似乎都用于监督学习(尽管关联规则也可以处理无监督学习)。
两者都可以用于预测
我发现最接近“好”描述的是Statsoft Textbook。他们说关联规则用于:
...检测大型数据集中分类变量的特定值之间的关系或关联。
虽然决策树分类器被描述为用于:
...根据对一个或多个预测变量的测量来预测分类因变量类别中的案例或对象的成员资格。
但是,在 R Data Mining 中,他们给出了关联规则与目标字段一起使用的示例。
所以两者都可以用来预测组成员,决策树可以处理非分类输入数据而关联规则不能处理的关键区别是什么?还是有更根本的东西?一个站点(sqlserverdatamining.com)说关键区别是:
决策树规则基于信息增益,而关联规则基于流行度和/或置信度。
那么(可能回答我自己的问题)这是否意味着关联规则仅根据它们在数据集中出现的频率(以及它们“真实”的频率)进行评估,而决策树实际上是在试图最小化方差?
如果有人知道一个很好的描述,他们会愿意向我指出,那就太好了。