贝叶斯层次广义线性模型上的特征选择

机器算法验证 机器学习 贝叶斯 特征选择 分层贝叶斯 正则化
2022-03-14 23:14:27

我希望估计一个分层 GLM,但通过特征选择来确定哪些协变量在人口水平上是相关的。

假设我有G团体与N观察和K可能的协变量也就是说,我有协变量的设计矩阵,结果这些协变量的系数是x(NG)×Ky(NG)×1βK×1

假设 ~YBernoulli(p(x,β))

以下是具有 logit 采样模型和正态分布组系数的标准分层贝叶斯 GLM。

L(y|x,β1,...βG)g=1Gt=1N(Pr{j=1|pt,βg})yg,t(1Pr{j=1|pt,βg})1yg,t

β1,...βG|μ,ΣiidNd(μ,Σ)

μ|ΣN(μ0,a1Σ)
ΣIW(v0,V01)

我想修改这个模型(或找到一篇论文,或讨论它的工作),以便在β的维度上有一些尖锐的特征选择(如在 LASSO 中) 。

(1) 最简单最直接的方法是在总体水平上对其进行正则化,以便我们从本质上限制μ的维数,并且所有β具有相同的维数。

(2) 更细致入微的模型会在组级别出现收缩,其中β的维数取决于层次单位。

我有兴趣解决 1 和 2,但更重要的是 1。

2个回答

在分析中,特征选择并不是一个很好的目标。除非所有预测变量彼​​此不相关并且您的样本量很大,否则数据将无法可靠地告诉您答案。型号规格比型号选择更重要。详细信息在我的RMS 课程笔记中。但是没有特征选择的收缩(例如,岭或惩罚最大似然估计)可能是一个好主意。分层贝叶斯模型甚至更好,因为它们允许在收缩模型中进行统计推断,而我们在收缩后失去了常客世界中的大部分推理工具。L2

我处理(1)的方式将涉及一个尖峰和平板模型,例如:

βg,k=zkmg,k

zkBern(p)

mg,kN(μ,Σ)

μ,ΣNIWv0(μ0,V01)

这:

  • 上保留NIW 之前的灵活性。βμ,Σ
  • 一次对所有组的变量选择进行建模。
  • 通过将 group 的子索引添加到具有共同的 beta 之前,可以轻松扩展zg,kk

当然,我认为这是存在许多有效方法的问题。