社会及行为科学研究法(3?资料分析)
上QQ阅读APP看书,第一时间看更新

二 因素分析的原则与条件

(一)构念与因素分析

因素分析的概念来自于Spearman(1904)对于智力测验各分测验得分之间所具有的特殊相关结构的好奇。就好比先前所举出的六科成绩得分的例子类似,Spearman认为测验分数之间所存在的特殊的相关结构,是因为背后存在着看不到的潜在心理特质(亦即构念)所造成,因此提出因素分析的原始概念,后来经过许多学者专家共同投入研究而逐渐发展成熟。

所谓构念是指无法直接观测的抽象特质或行为现象,为了能够研究这些潜在的特质或现象,研究者必须尝试以不同的方法来进行测量,此时测量得到的资料能够真实有效地反映这些构念的程度称为构念效度,在各种分析策略中,因素分析是少数能够用来萃取构念的统计技术,因此因素分析得到的因素效度证据,普遍被学者接受可用来作为支持构念存在的证据之一。由此可知,因素分析在涉及构念研究的学术领域中具有重要的地位。

(二)因素分析的基本原则

因素分析的特性之一,即可以处理测量误差,使测量数据能够有效反映构念的内涵。由于构念具有抽象、无法直接观察的特性,利用单一测量得分无法全然观察到抽象构念,而必须以多重测量分数来抽取出潜在的构念。此一原则称为多重指标原则。每一个指标(或题目)仅能“部分反映”构念的内涵,干扰构念测量的额外因素则被定义成测量误差,是受到构念以外的随机因素所造成的。相对之下,各指标的共同部分则反映了构念的程度高低,亦即真分数(true score)。测量误差与真分数变异两者构成了实际测量分数的变异,此一观点即为古典测量理论(Lord & Novick, 1968)。因素分析的运算原则,即在排除多重指标背后的误差部分来估计共同部分,将之称为因素,借以反映构念的内涵。

从统计的原理来看,潜在变项估计背后存在一个局部独立原则(principle of local independence)。亦即如果一组观察变项背后确实存在潜在变项,那么观察变项之间所具有的相关,会在对潜在变项加以估计的条件下消失,换言之,当统计模型中正确设定了潜在变项后,各观察变项即应不具有相关,具有统计独立性;相对的,如果测量变项的剩余变异量中仍带有关联,那么局部独立性即不成立,此时因素分析得到的结果并不适切。

最后,因素分析的运用有一个重要的方法学原则,称为简效原则(principle of parsimony)。在因素分析当中,简效性有双重意涵:结构简效与模型简效,前者系基于局部独立性原则,指观察变项与潜在变项之间的结构关系具有简单结构(simple structure)(Mulaik, 1972);后者则是基于未定性原则,对于因素模型的组成有多种不同方式,在能符合观察数据的前提下,最简单的模型应被视为最佳模型。也因此,因素分析当中所存在的各种转轴方法,目的即在寻求因素结构的最简单原则,进而定义出最符合真实的潜在变项结构,作为构念存在的证据。

(三)因素分析的资料特性

到底一组测量变项适不适合进行因素分析,测量变项背后是否具有潜在构念,除了从理论层次与题目内容两个角度来推导之外,更直接的方式是检视测量变项的相关情形。如果变项间的相关太低,显然不容易找出有意义的因素。因此,相关矩阵的检视即成为判断是否适宜进行因素分析的重要程序。一般有下列几种方法可以用来判断相关矩阵的适切性。

第一种方法是Bartlett的球形检定。如果球形检定达到统计显著水准,表示测量变项的两两相关系数中,具有一定程度的同质性相关。当某一群题目两两之间有一致性的高相关时,显示可能存有一个因素,多个群落代表多个因素。如果相关系数都偏低且异质,则因素的抽取愈不容易。

第二种方法是利用净相关矩阵来判断变项之间是否具有高度关联,当测量变项的两两相关在控制其他观察变项所求得的净相关(partial correlation)(净相关矩阵称为反映像矩阵),表示各题之间具有明显的共同因素;相对的,若净相关矩阵有多数系数偏高,表示变项间的关系不大,不容易找到有意义的因素。反映像矩阵的对角线称为取样适切性量数(measures of sampling adequacy, MSA),为该测量变项有关的所有相关系数与净相关系数的比较值,该系数愈大,表示相关情形良好,各测量变项的MSA系数取平均之后即为KMO量数(Kaiser-Meyer-Olkin measure of sampling adequacy),执行因素分析的KMO大小判准如表1-2(Kaiser, 1974)所示。

表1-2 KMO统计量的判断原理

第三种方法是共同性(communality)。共同性为测量变项与各因素相关系数的平方和,表示该变项的变异量被因素解释的比例,其计算方式为在一变项上各因素负荷量平方值的总和。变项的共同性愈高,因素分析的结果就愈理想。关于共同性的概念与应用将在后续的章节中介绍。

(四)样本数的决定

在因素分析当中,样本的选取与规模是一个重要的议题。如果样本太小,最直接的问题是样本欠缺代表性,得到不稳定的结果。从检定力的观点来看,因素分析的样本规模当然是愈大愈好,但是到底要多大,到底不能多小,学者们之间存在不同甚至对立的意见(参见MacCallum, Widaman,Zhang & Hong, 1999的整理),甚至于过大的样本也可能造成过度拒绝虚无假设的情形,而有不同的处理方法(例如切割样本进行交叉复核检验)。

一般而言,对于样本数的判断,可以从绝对规模与相对规模两个角度来分析。早期研究者所关注的主要是整个因素分析的样本规模,亦即绝对样本规模。综合过去的文献,多数学者主张200是一个重要的下限,Comrey与Lee(1992)指出一个较为明确的标准是100为差,200还好,300为佳,500以上是非常好,1000以上则是优异。

相对规模则是取每个测量变项所需要的样本规模(每个变项,个案数比例)来判断,最常听到的原则是10∶1(Nunnally, 1978),也有学者建议20∶1(Hair, Anderson, Tatham & Black, 1979)。一般而言,愈高的比例所进行的因素分析稳定度愈高,但不论在哪一种因素分析模式下,每个因素至少要有三个测量变项是获得稳定结果的最起码标准。

近年来,研究者采用模拟研究发现,理想的样本规模并没有一个最小值,而是取决于几个参数条件的综合考虑,包括共同性、负荷量、每个因素的题数、因素的数目等。例如最近的一项模拟研究,de Winter, Dodou与Wieringa(2009)指出,在一般研究情境中,如果负荷量与共同性偏低而因素数目偏多时,大规模的样本仍有需要;但是如果因素负荷量很高,因素数目少,而且每一个因素的题目多时,在50以下的样本数仍可以获得稳定的因素结构。例如在因素负荷量达到0.80, 24个题目且只有一个因素的情况下,6笔资料即可以得到理想的因素侦测。

当因素结构趋向复杂时,样本规模的需求也会提高。过去研究者习惯以每因素题数比例(p/f;p为题数,f为因素数目)的经验法则来决定因素结构的复杂度,当每一个因素的题目愈多时,样本数也就需要愈多。但de Winter, Dodou与Wieringa(2009)的研究发现,p/f比例本身并非重要的指标,而是这两个条件分别变动的影响。当此一比例固定时,题数与因素数目的变动所造成的样本量需求必须分开检视,例如当因素负荷量为0.8,且在每一个因素有6题的此一比率下(p/f=6),能够稳定侦测因素的最低样本数,在二因子(12/2)时为每一题需要11笔观察值,但在48/8时则需要47笔观察值。这显示愈复杂的因素结构需要愈高的样本数,而非仅受限于特定的因素、题数比例。