社会及行为科学研究法(3?资料分析)
上QQ阅读APP看书,第一时间看更新

四 因素萃取与数目决定

(一)因素的萃取

将一组测量变项进行简化的方法很多,但能够萃取出共同因素、排除测量误差的方法才被称为因素分析。在一般统计软件中所提供的主成分分析法,系利用变项的线性整合来化简变项成为几个主成分,并不合适用来进行构念估计。常用的构念估计方法是共同因素法(即主轴因素法)或最大概似法。

主轴因素法与主成分分析法的不同,在于主轴因素法是试图解释测量变项间的共变数而非全体变异量。其计算方式与主成分分析的差异,是主轴因素法是将相关矩阵R取代,以排除各测量变项的独特性。换言之,主轴因素法是萃取出具有共同变异的部分。第一个抽取出的因素解释了测量变项间共同变异的最大部分;第二个因素则试图解释第一个因素萃取后所剩余的测量变项共同变异的最大部分;其余因素依序解释剩余的共变数中的最大部分,直到共同变异无法被有效解释为止。

此法符合古典测量理论对于潜在构念估计的概念,亦即因素萃取系针对变项间的共同变异,而非分析变项的总变异。若以测量变项的总变异进行因素估计,其中包含着测量误差,混杂在因素估计的过程中,主轴因素萃取法借由将共同性代入观察矩阵中,虽然减低了因素的总解释变异,但是有效排除无关的变异的估计,在概念上符合理论的需求,因素的内容较易了解(Snock & Gorsuch, 1989)。此外,主轴因素法的因子抽取以迭代程序来进行,能够产生最理想的重制矩阵,得到最理想的适配性,得到较小的残差。但是,也正因为主轴因素法是以共同性作为观察矩阵的对角线数值,因此比主成分因素分析估计更多的参数,模式的简效性较低。但一般在进行抽象构念的估计时,理论检验的目的性较强,而非单纯化简变项,因此宜采用主轴因素法,以获得更接近潜在构念的估计结果。

另一种也常被用来萃取因素的技术是最大概似法,在常态机率函数的假定下,进行参数估计。由于因素分析最重要的目的是希望能够从样本资料中,估算出一个最能代表母体的因素模式,因此,若个别的测量分数呈常态分配,一组测量变项的联合分配也为多元常态分配,基于此一统计分配的假定下,我们可以针对不同的假设模型来适配观察资料,借以获得最可能的参数估计数,作为模型的参数解,并进而得以计算模式适合度,检视理论模式与观察资料的适配程度。换言之,从样本估计的得到的参数愈理想,所得到的重制相关会愈接近观察相关。由于样本的估计系来自于多元常态分配的母体,因此我们可以利用常态分配函数以迭代程序求出最可能性的一组估计数作为因素负荷值。重制相关与观察相关的差异以透过损失函数(lose function)来估计,并可利用显著性考验(卡方检定)来进行检定,提供了因素结构好坏的客观标准。可惜的是,最大概似法比起各种因素分析策略不容易收敛获得数学解,需要较大的样本数来进行参数估计,且对资料要求常态假设,是其必须加以考虑的因素。

另一个与最大概似法有类似程序的技术称为最小平方法,两者主要差异在于损失函数的计算方法不同。最小平方法在计算损失函数时,是利用最小差距原理导出因素形态矩阵后,取原始相关矩阵与重制矩阵的残差的最小平方值,称为未加权最小平方法,表示所抽离的因素与原始相关模式最接近。若相关系数事先乘以变项的残差,使残差大的变项(可解释变异量少者)的比重降低,共同变异较大者被加权放大,进而得到原始相关系数/新因素负荷系数差异的最小平方距离,此时称为加权最小平方法。在计算损失函数时,只有非对角线上的数据被纳入分析。而共同性是分析完成之后才进行计算。

还有一种萃取方法称为映像因素萃取(image factor extraction),其原理是取各测量变项的变异量为其他变项的投射。每一个变项的映像分数系以多元回归的方法来计算,映像分数的共变矩阵系以PCA进行对角化。此一方法虽类似PCA能够产生单一数学解,但对角线以替代,因此得以视为因素分析的一种。但是值得注意的是,此法所得到的因素负荷量不是相关系数,而是变项与因素的共变项。至于SPSS当中提供的α法(alpha factoring),则是以因素信度最大化为目标,以提高因素结构的类化到不同测验情境的适应能力。

(二)因素数目的决定

1.直观判断法

(1)特征值大于1.0

传统上,因素数目的决定常以特征值大于1者为共同因素(Guttman, 1954; Kaiser, 1960, 1970),也就是共同因素的变异数至少要等于单一测量变项的标准化变异数(亦即1.00),又称为Kaiser 1 rule(K-1法)或EV-1法则。虽然K-1法简单明确,普遍为统计软件作为默认的标准,但是却有诸多缺点,一般建议此原则仅作参考或快速筛选之用。主要的问题之一是此法并没有考虑到样本规模与特性的差异。此外,当测量变项愈多,愈少的共同变异即可被视为一个因素。例如在10个测量变项时,1个单位的共同变异占全体变异的10%,但是在20个测量变项时,1个单位的共同变异仅占全体变异的5%,仍可被视为一个有意义的因素。

(2)陡坡检定

由于共同因素的抽取系以迭代的方式从最大变异的特征值开始抽取,直到无法抽取出任何共同变异为止,因此特征值的递减状况可以利用陡坡图(scree plot)来表示,如图1-3中的折线所示。当因素不明显或没有保留必要时,其特征值应成随机数值,但是对于明显存在的因素,其特征值会明显提升。透过特征值的递增状况,将特征值数值转折陡增时作为合理的因素数目,称为陡坡检定(scree test)(Cattell, 1966)。

图1-3 陡坡检验图示

∗实线为实际估计的特征值变化折线,趋于水准的折线为平行分析所估计的特征值变化折线。

如果前述的Kaiser-Guttman法则是一种特征值的绝对数量(大于1.0)的比较,那么陡坡图的使用就是一种相对数量的比较。当重要且显著的因素存在时,从测量变项所逐一抽取的共同变异量会有明显的递变;但是当没有重要且显著的因素存在时,共同变异的抽取只是一种随机的变动,在陡坡图上展现出平坦的趋势线。Cattell(1966)指出陡坡图的使用可以判断出重要的因素是否存在,但是由于何时可以视为平坦趋势线并无客观的标准,因此陡坡图多作为因素数目决定的参考资讯。

2.统计决策法

(1)显著性考验法

Bartlett(1950)利用变异数同质检定原理,以卡方检定来检验尚未选取的因素特征值是否有所不同的假设是否成立,作为是否需增加因素的判断依据。当各剩余特征值的变异差异量达到0.05显著水准,表示至少有一个特征值显著与其他不同,因而需加以保留。各特征值逐一检验,直到没有任何特征值达到显著差异水准为止。

卡方检定或概似比检定(likelihood ratio test)所遭遇的一个问题是容易受到模型中样本规模与变项多寡的影响,同时测量变项必须服从常态分配,因此亦有学者采取其他适配指标来判断最理想的因素数目模型,例如Akaike(1987)所提出的AIC指标,或是改良型的BIC指标(Kass & Raftery, 1995)。

(2)平行分析

Horn(1965)提出了平行分析来决定因素分析所萃取的合理因素数目,具体方法是利用资料模拟技术建立随机矩阵,或是以实际观测到的资料作为母体,另行随机抽取样本来计算随机化的资料矩阵并计算萃取后的特征值,此时随机矩阵与母体矩阵具有一样的结构(序),但是数据是随机分布,此时据以进行的萃取结果,所得到的特征值反映的是一种随机(抽样误差)效果。在完全随机情况下,各测量变项彼此独立,相关为0,所获得的矩阵数值应为单位矩阵(identity matrix),特征值为以1.0为平均数的随机波动;反之,如果分数不是随机次序,所获得的特征值矩阵则是非单位矩阵,特征值则为呈现一般陡坡图所呈现的递减趋近1.0的函数模式。借由母体(非单位矩阵)与随机样本(单位矩阵)所得到的两组特征值的比较,可决定有多少个因素应该保留。由于平行分析法系基于随机分配原理所计算,抽样标准误的资讯可以纳入考虑,借以获得95%信心区间估计数;当母体矩阵得到的特征值大于随机样本矩阵的平均特征值(或高于95%信心区间),该特征值显著有其保留必要,反之则这些特征值小于期望水准,该因素是随机效果的作用而不宜抽取(Turner, 1998)。

(3)MAP法

最小均净相关法(minimum average partial correlation)由Velicer(1976)所提出的一种统计决策法则。MAP的原理类似于回归分析的调整后R2的修正式,计算在增加了因素数目的情况下,萃取后(各因素的变异被排除)的测量变项SMC的调整后平均值最小者,表示所保留的因素能够获得最佳的局部独立性,当因素数目增加无助于提高SMC时即没有必要再进行更多因素的萃取。

3.统计模拟运算技术

1980年代统计运算技术发展快速,因此一些重复取样的统计模拟技术也被应用在因素保留决策的议题上。例如自助重抽法(bootstrap method)针对特征成分进行反复取样,估计其出现分配计量特征,再以假设考验或区间估计法,配合K-1法则或Horn的平行分析标准来进行决策判断。不论是以常态分配或其他形式的机率分配为基础,拔靴法所计算得出的估计分配可被应用于特征值是否保留的依据(Daudin, Duby, & Trecourt, 1988;Lambert, Widlt & Durand, 1990)。

另一种策略是以交叉验证(cross-validation)技术,在观察数据下建立子集样本(subsample)来进行特征值变动检验(Wold, 1978; Krzanowski, 1987),例如将全体观察值切割成五组,以其他四个子样本进行因素分析获得估计数后导入最后一个样本进行估计,借以建立估计矩阵与实际观察矩阵的残差平均值(prediction error sum of square, PRESS)指标来评估因素结构的稳定性,判断合理的因素数目。近年来,由于资讯科技技术发达,研究者得以利用功能强大的统计软件(例如SAS、SPSS)的内建选项快速执行拔靴估计,了解参数的抽样分配特征。或进行参数复核效化的跨样本稳定性,使得这些模拟技术逐渐广为采用。

前述各种策略各有其优劣,主观判断法执行简便,例如K-1与陡坡检定法,在没有临界1.0的特征值时,是很便捷的判断方法,所得到的结果与其他复杂的统计检测方法结果类似(Coste, et al. 2005)。但文献指出,最广泛为各界采用的K-1原则却是表现最不理想的一种方法,容易过度保留因素,得到不正确的结果(Linn, 1968; Zwick & Velicer, 1986; Velicer, Eaton & Fava, 2000)。因此Zwick与Velicer(1986: 441)具体主张废除此一策略。但是K-1法则仍然是许多统计软件预设的因素保留策略(如SPSS),也正因如此,此一方法仍大行其道(Thompson & Daniel, 1996)。

最近一些文献指出,平行分析法普遍优于其他策略(Velicer, Eaton &Fava, 2000; Hayton et al., 2004; Coste et al., 2005), MAP也被认为具有相当的正确性(Zwick & Velicer, 1986; Coste, et al., 2005)。相对之下,以最大概似显著性考验与Bartlett检验容易受到样本大小与题目多寡的影响产生不稳定的结果(Zwick&Velicer, 1986; Fabrigar et al., 1999),不论哪种策略,因素结构的决定仍须检视理论上的合理性,寻求文献的支持,如此才能提供因素模式最具说服力的结论。