好的,这是一个思想实验:
假设您有一个包含 40 个协变量的数据集。假设数据具有您可能想要的所有不错的理论属性:随机抽样、变量不相关等。假设空值对于每个 95% 水平的贝塔系数都是正确的,并且我们不知道空值在所有情况下都是正确的。
接下来,您运行模型,40 个 beta 中的 2 个似乎很重要,t 值适中,但没有什么疯狂的。当然足以拒绝这两个测试版的空值。现在,假设 null 为真,这是一个完全合理的结果。每个 beta 有大约 5% 的拒绝机会,因此在您运行模型之前,您会预期有两个 beta 会拒绝!
这让我想到了我的问题:当我们总是期望某个数字仅仅因为随机性而被拒绝时,我们在什么意义上可以说多个 beta 很重要?以及如何同时对这些 beta 进行假设检验?这不是作弊吗,有点像掷骰子直到你得到一个六?在我看来,在运行模型以获得“真实”意义之前,您只能预先指定一个要查看的 beta。
为了澄清我所说的同时的意思:我不是在谈论整体测试(例如 F-Test)或任何相关的缓解措施,如多重比较校正。我完全同意这些测试和措施是有效且有意义的。我是在个人 beta 本身及其个人 CI 的层面上问:如果两个 beta 拒绝,我是否应该忽略这一点并说:“好吧,我预计两个会拒绝。这些影响不是真实的”?这可能是我的主要观点:在这种情况下,回归系数水平的显着性是否意味着什么?或者假设有四个人拒绝了。我猜两个是偶然的错误信号,但我怎么知道哪个是真的,哪个是假的?
PS:如果您有一个开源文本可以引用并支持您的答案,我会很高兴的。