关于将具有不同反应量表的项目组合成复合量表的建议/文献?

机器算法验证 主成分分析 序数数据 降维 标准化
2022-04-01 02:58:10

假设我有一些以李克特 5 点量表(非常不同意到非常同意)衡量的自我报告项目和以李克特 4 点量表衡量的其他项目(从不、很少、有时、经常)。谁能指出将这些项目组合成综合量表的文献(或实用建议)?为了论证,我们假设我们有一些经验证据表明项目应该合并。

一些想法:

1. 汇总原始分数

优点:容易

缺点:5 分制(最初为 4 分)的最大响应比 4 分制(最初为 3 分)的最大响应提高了总分。

2.重新缩放和求和

将所有项目放在 0-1 的范围内并求和。所以 4 分项目 (0,1,2,3) 将乘以 (4/3)/4,5 分项目 (0,1,2,3,4) 将乘以 1/4 ,分别产生 (0,.33,.66,1) 和 (0,.25,.50,.75,1) 的可能值。这样,5 分制(最初为 4 分)的最大响应不会比 4 分制(最初为 3 分)的最大响应提高总量表分数。

优点:项目将具有相同的权重。(可能是一个骗局,取决于你的观点)。

缺点:忽略不同指标上的项目之间的可变性差异?

3.标准化和求和

一种相关的方法是标准化所有项目(z 分数)然后求和。

优点:解决不同指标上的项目之间的可变性差异

缺点:总分变得更难解释和样本特异性。后者使得很难将基准作为在其他设置/其他样本中使用的度量。

4. PCA 或其他数据缩减

4a。EFA 以获得因子载荷。将缩放项目乘以因子载荷。

4b。PCA 得到第一主成分的分数。

优点:按影响加权的项目。

缺点:与#2 相同。EFA 派生的分数可能会因轮换/提取选择而有很大差异。有些人不会就序数数据提出建议。


总体:我喜欢#2,因为比较不同样本的结果似乎更容易。想法?替代想法或对提出的想法的担忧?

1个回答

这是一个很好的问题!

我认为在尺度构建中,可解释性和心理测量考虑之间存在微妙的平衡。具体来说,比例总和或平均值比标准化或以其他方式重新缩放的项目的总和或平均值更容易掌握。

然而,在创建您的比例组合之前(即,取一个总和或平均值),可能有一些微妙的心理测量原因需要重新调整项目。如果您的项目具有完全不同的标准偏差,那么您的综合量表的可靠性将仅仅因为这些不同的标准偏差而降低。

直观地理解这一点的一种方法是认识到,正如您所指出的,具有广泛变化的标准偏差的项目在组合中被分配了不同的权重。因此,具有较大标准偏差的项目中的测量误差将倾向于在比例组合中占主导地位。实际上,具有广泛变化的标准偏差会降低您试图通过将多个项目平均在一起而获得的好处(即,通常,将多个项目平均在一起会减少任何一个组成项目的测量误差的影响)。

我在下面的一些模拟数据中创建了一个单一主导项目的影响的演示。在这里,我创建了五个相关项目并找到了结果量表的可靠性(用 Cronbach's alpha 测量)。

require(psych)

# Create data
set.seed(13105)
item1 <- round(rnorm(100, sd = 3), digits = 0)
item2 <- round(item1 + rnorm(100, sd = 1), digits = 0)
item3 <- round(item1 + rnorm(100, sd = 1), digits = 0)
item4 <- round(item1 + rnorm(100, sd = 1), digits = 0)
item5 <- round(item1 + rnorm(100, sd = 1), digits = 0)

d <- data.frame(item1, item2, item3, item4, item5)

# Cronbach's alpha
alpha(d)

Reliability analysis   
Call: alpha(x = d)

  raw_alpha std.alpha G6(smc) average_r  mean  sd
       0.97      0.97    0.97      0.87 -0.14 2.5

Reliability if an item is dropped:
      raw_alpha std.alpha G6(smc) average_r
item1      0.96      0.96    0.94      0.84
item2      0.97      0.97    0.96      0.88
item3      0.97      0.97    0.96      0.89
item4      0.97      0.97    0.96      0.88
item5      0.96      0.97    0.96      0.87

 Item statistics 
        n    r r.cor r.drop  mean  sd
item1 100 0.98  0.99   0.97 -0.10 2.5
item2 100 0.94  0.92   0.90 -0.27 2.8
item3 100 0.93  0.91   0.89 -0.09 2.7
item4 100 0.94  0.92   0.91 -0.19 2.6
item5 100 0.94  0.93   0.91 -0.06 2.7

在这里,我item2通过将项目乘以来更改标准偏差5. 请注意,由于此过程,Cronbach 的 alpha 值急剧下降。另请注意,将一个项目乘以一个正常数丝毫不会影响由这五个项目构建的相关矩阵。我所做的唯一一件事是item2乘以5是我改变了item2测量的尺度,然而改变这个尺度极大地影响了复合材料的可靠性。

# Re-scale item 2 to have a much larger standard deviation than the other items
d$item2 <- d$item2 * 5

# Cronbach's alpha
alpha(d)

Reliability analysis   
Call: alpha(x = d)

  raw_alpha std.alpha G6(smc) average_r  mean  sd
       0.74      0.97    0.97      0.87 -0.36 4.7

Reliability if an item is dropped:
      raw_alpha std.alpha G6(smc) average_r
item1      0.68      0.96    0.94      0.84
item2      0.97      0.97    0.96      0.88
item3      0.69      0.97    0.96      0.89
item4      0.68      0.97    0.96      0.88
item5      0.68      0.97    0.96      0.87

  Item statistics 
        n    r r.cor r.drop  mean   sd
item1 100 0.98  0.99   0.96 -0.10  2.5
item2 100 0.94  0.92   0.90 -1.35 13.9
item3 100 0.93  0.91   0.86 -0.09  2.7
item4 100 0.94  0.92   0.89 -0.19  2.6
item5 100 0.94  0.93   0.90 -0.06  2.7