截断的幂基础如下所示:
显然,您可以很容易地将系数分成固定和随机效应,如下所示:
我在这方面找到了很多资料,但都认为这种分离是给定的,没有人解释为什么会这样。为什么必须以这种方式分离固定效应和随机效应,在这种情况下随机效应分布是什么?
截断的幂基础如下所示:
显然,您可以很容易地将系数分成固定和随机效应,如下所示:
我在这方面找到了很多资料,但都认为这种分离是给定的,没有人解释为什么会这样。为什么必须以这种方式分离固定效应和随机效应,在这种情况下随机效应分布是什么?
您在问题中讨论的模型可以写成
在哪里是列等于的矩阵和是一个矩阵,其列是通过计算截断的多项式获得的。
那么(惩罚)目标函数是:
只有 s 系数被缩小。
为了计算和,我们需要求解以下惩罚正态方程系统:
你可以比较 eqs 的系统。上面有一个,例如,这里https://en.wikipedia.org/wiki/Mixed_model(估计会话)。方差分量是和和。
为什么必须以这种方式分离固定效应和随机效应:您会注意到,在 Henderson 的混合模型方程中,随机效应也被“惩罚”(项)。
这种情况下的随机效应分布是什么:我们假设和
我希望我的回答能有所帮助,并且我的符号是正确的。
评论:为什么tpf部分需要被惩罚?
像往常一样,惩罚控制平滑度和数据拟合之间的权衡(见下图,其中我用 15 个 2 度 TPF 基和不同级别的 k 参数对相同的数据进行平滑处理)。这适用于所有惩罚平滑技术。
使混合效应模型表示法方便的是这样一个事实,即模型(包括最佳平滑量)可以使用标准 lmm 例程计算(下面我使用 nlme ...请注意,我假设您有一个计算 tpf_bases 的函数)。
# Simulate some data
n = 30
x = seq(-0, 2*pi, len = n)
ys = 2 * sin(x)
y = rnorm(n, ys, 0.5)
# Create bases
Bs = tpf_bases(x, ndx = 10, deg = 2)
X = Bs$X
Z = Bs$Z
# Organize for lme
dat = data.frame(X1 = X[, 2], X2 = X[, 3], y = y)
dat$Z = Z
dat$all = (1:n) * 0 + 1
# Fit lme
fit = lme(y ~ X1 + X2, random = list(all = pdIdent( ~ Z - 1)), data =
dat)
# Extract coefficients & get fit
beta.hat = fit$coef$fixed
b.hat = unlist(fit$coef$random)
f.hat = X %*% beta.hat + Z %*% b.hat
# Plot results
plot(x, y, main = "LME-based optimal fit")
lines(x, f.hat, col = 'red')