En estadística multivariante , el análisis factorial exploratorio ( AFE ) es un método estadístico utilizado para descubrir la estructura subyacente de un conjunto relativamente grande de variables . El AFE es una técnica dentro del análisis factorial cuyo objetivo general es identificar las relaciones subyacentes entre las variables medidas. [1] Los investigadores lo utilizan comúnmente al desarrollar una escala (una escala es una colección de preguntas utilizadas para medir un tema de investigación en particular) y sirve para identificar un conjunto de constructos latentes subyacentes a una batería de variables medidas. [2] Debe utilizarse cuando el investigador no tiene una hipótesis a priori sobre los factores o patrones de las variables medidas. [3] Las variables medidas son cualquiera de los varios atributos de las personas que se pueden observar y medir. Ejemplos de variables medidas podrían ser la altura física, el peso y la frecuencia cardíaca de un ser humano. Por lo general, los investigadores tendrían una gran cantidad de variables medidas, que se supone que están relacionadas con una cantidad menor de factores "no observados". Los investigadores deben considerar cuidadosamente la cantidad de variables medidas que se incluirán en el análisis. [2] Los procedimientos de AFE son más precisos cuando cada factor está representado por múltiples variables medidas en el análisis.
El EFA se basa en el modelo de factores comunes. [1] En este modelo, las variables manifiestas se expresan como una función de factores comunes, factores únicos y errores de medición. Cada factor único influye solo en una variable manifiesta y no explica las correlaciones entre variables manifiestas. Los factores comunes influyen en más de una variable manifiesta y las "cargas factoriales" son medidas de la influencia de un factor común en una variable manifiesta. [1] Para el procedimiento EFA, estamos más interesados en identificar los factores comunes y las variables manifiestas relacionadas.
El AFE presupone que cualquier indicador o variable medida puede estar asociada a cualquier factor. Al desarrollar una escala, los investigadores deben utilizar primero el AFE antes de pasar al análisis factorial confirmatorio (AFC). [4] El AFE es esencial para determinar los factores o constructos subyacentes de un conjunto de variables medidas, mientras que el AFC permite al investigador probar la hipótesis de que existe una relación entre las variables observadas y sus factores o constructos latentes subyacentes. [5] El AFE requiere que el investigador tome una serie de decisiones importantes sobre cómo llevar a cabo el análisis, ya que no existe un método único.
Los procedimientos de ajuste se utilizan para estimar las cargas factoriales y las varianzas únicas del modelo ( las cargas factoriales son los coeficientes de regresión entre los elementos y los factores y miden la influencia de un factor común en una variable medida). Hay varios métodos de ajuste de análisis factorial para elegir, sin embargo, hay poca información sobre todas sus fortalezas y debilidades y muchos ni siquiera tienen un nombre exacto que se use de manera consistente. La factorización del eje principal (PAF) y la máxima verosimilitud (ML) son dos métodos de extracción que generalmente se recomiendan. En general, ML o PAF brindan los mejores resultados, dependiendo de si los datos se distribuyen normalmente o si se ha violado el supuesto de normalidad. [2]
El método de máxima verosimilitud tiene muchas ventajas, ya que permite a los investigadores calcular una amplia gama de índices de bondad de ajuste del modelo, permite a los investigadores probar la significancia estadística de las cargas factoriales, calcular correlaciones entre factores y calcular intervalos de confianza para estos parámetros. [6] ML es la mejor opción cuando los datos se distribuyen normalmente porque "permite el cálculo de una amplia gama de índices de bondad de ajuste del modelo [y] permite la prueba de significancia estadística de las cargas factoriales y las correlaciones entre factores y el cálculo de intervalos de confianza". [2]
Se denomina factorización de ejes “principales” porque el primer factor explica la mayor cantidad posible de varianza común, luego el segundo factor es el que tiene la mayor varianza, y así sucesivamente. La factorización de ejes principales es un procedimiento descriptivo, por lo que es mejor utilizarla cuando el enfoque está solo en la muestra y no se planea generalizar los resultados más allá de la muestra. Una desventaja de la factorización de ejes principales es que proporciona un rango limitado de índices de bondad de ajuste en comparación con el ML y no permite el cálculo de intervalos de confianza y pruebas de significancia.
A la hora de seleccionar cuántos factores incluir en un modelo, los investigadores deben intentar equilibrar la parsimonia (un modelo con relativamente pocos factores) y la plausibilidad (que haya suficientes factores para tener en cuenta adecuadamente las correlaciones entre las variables medidas). [7]
La sobrefactorización se produce cuando se incluyen demasiados factores en un modelo y puede llevar a los investigadores a proponer constructos con poco valor teórico.
La subfactorización se produce cuando se incluyen muy pocos factores en un modelo. Si no se incluyen suficientes factores en un modelo, es probable que haya un error sustancial. Las variables medidas que se cargan en un factor no incluido en el modelo pueden cargar falsamente en factores que sí están incluidos, alterando las cargas factoriales reales. Esto puede dar lugar a soluciones rotadas en las que se combinan dos factores en un solo factor, ocultando la estructura factorial real.
Hay una serie de procedimientos diseñados para determinar el número óptimo de factores a retener en EFA. Estos incluyen la regla de valor propio mayor que uno (o regla K1) de Kaiser (1960), [8] el diagrama de sedimentación de Cattell (1966) , [9] el criterio de estructura muy simple de Revelle y Rocklin (1979), [10] las técnicas de comparación de modelos, [11] el factor de aceleración y las coordenadas óptimas de Raiche, Roipel y Blais (2006), [12] el parcial promedio mínimo de Velicer (1976), [13] el análisis paralelo de Horn (1965) y los datos de comparación de Ruscio y Roche (2012). [14] Estudios de simulación recientes que evalúan la solidez de dichas técnicas sugieren que las últimas cinco pueden ayudar mejor a los profesionales a modelar los datos de manera juiciosa. [14] Estas cinco técnicas modernas son ahora fácilmente accesibles a través del uso integrado del software IBM SPSS Statistics (SPSS) y R (R Development Core Team, 2011). Consulte Courtney (2013) [15] para obtener orientación sobre cómo llevar a cabo estos procedimientos para datos continuos, ordinales y heterogéneos (continuos y ordinales).
Con excepción del criterio de estructura muy simple de Revelle y Rocklin (1979), las técnicas de comparación de modelos y el parcial de promedio mínimo de Velicer (1976), todos los demás procedimientos se basan en el análisis de valores propios. El valor propio de un factor representa la cantidad de varianza de las variables explicadas por ese factor. Cuanto menor sea el valor propio, menos contribuye ese factor a explicar la varianza de las variables. [1]
A continuación se proporciona una breve descripción de cada uno de los nueve procedimientos mencionados anteriormente.
Calcular los valores propios para la matriz de correlación y determinar cuántos de estos valores propios son mayores que 1. Este número es el número de factores a incluir en el modelo. Una desventaja de este procedimiento es que es bastante arbitrario (por ejemplo, se incluye un valor propio de 1,01, mientras que no se incluye un valor propio de 0,99). Este procedimiento a menudo conduce a una sobrefactorización y, a veces, a una subfactorización. Por lo tanto, no se debe utilizar este procedimiento. [2] Se ha creado una variación del criterio K1 para reducir la gravedad de los problemas del criterio, en la que un investigador calcula intervalos de confianza para cada valor propio y retiene solo los factores que tienen el intervalo de confianza completo mayor que 1,0. [16] [17]
Calcular los valores propios para la matriz de correlación y representar gráficamente los valores de mayor a menor. Examinar el gráfico para determinar la última caída sustancial en la magnitud de los valores propios. La cantidad de puntos representados gráficamente antes de la última caída es la cantidad de factores que se deben incluir en el modelo. [9] Este método ha sido criticado debido a su naturaleza subjetiva (es decir, no existe una definición objetiva clara de lo que constituye una caída sustancial). [18] Como este procedimiento es subjetivo, Courtney (2013) no lo recomienda. [15]
El criterio VSS de Revelle y Rocklin (1979) operacionaliza esta tendencia al evaluar el grado en que la matriz de correlación original se reproduce mediante una matriz de patrón simplificada, en la que solo se conserva la carga más alta para cada elemento, y todas las demás cargas se establecen en cero. El criterio VSS para evaluar el grado de replicación puede tomar valores entre 0 y 1, y es una medida de la bondad de ajuste de la solución factorial. El criterio VSS se obtiene de soluciones factoriales que involucran un factor (k = 1) a un número máximo teórico de factores especificado por el usuario. A partir de allí, la solución factorial que proporciona el criterio VSS más alto determina el número óptimo de factores interpretables en la matriz. En un intento de dar cabida a conjuntos de datos donde los elementos covarían con más de un factor (es decir, datos factorialmente más complejos), el criterio también se puede llevar a cabo con matrices de patrón simplificadas en las que se conservan las dos cargas más altas, y el resto se establece en cero (complejidad máxima de VSS 2). Courtney tampoco recomienda VSS debido a la falta de investigación de simulación sólida sobre el desempeño del criterio VSS. [15]
Elegir el mejor modelo de una serie de modelos que difieren en complejidad. Los investigadores utilizan medidas de bondad de ajuste para ajustar los modelos comenzando con un modelo con cero factores y aumentando gradualmente el número de factores. El objetivo es elegir finalmente un modelo que explique los datos significativamente mejor que los modelos más simples (con menos factores) y que explique los datos tan bien como los modelos más complejos (con más factores).
Existen diferentes métodos que se pueden utilizar para evaluar el ajuste del modelo: [2]
En un intento de superar la debilidad subjetiva de la prueba de scree de Cattell (1966), [9] [28] presentó dos familias de soluciones no gráficas. El primer método, denominado coordenada óptima (OC), intenta determinar la ubicación del scree midiendo los gradientes asociados con los valores propios y sus coordenadas precedentes. El segundo método, denominado factor de aceleración (AF), pertenece a una solución numérica para determinar la coordenada donde la pendiente de la curva cambia más abruptamente. Ambos métodos han superado al método K1 en la simulación. [14] En el estudio de Ruscio y Roche (2012), [14] el método OC fue correcto el 74,03% del tiempo rivalizando con la técnica PA (76,42%). El método AF fue correcto el 45,91% del tiempo con una tendencia hacia la subestimación. Tanto el método OC como el AF, generados con el uso de coeficientes de correlación de Pearson, fueron revisados en el estudio de simulación de Ruscio y Roche (2012). Los resultados sugirieron que ambas técnicas funcionaron bastante bien en situaciones de categorías de respuesta ordinales de dos a siete (C = 2-7) y cuasi-continuas (C = 10 o 20). Dada la precisión de estos procedimientos en simulación, son altamente recomendados [ ¿por quién? ] para determinar el número de factores a retener en el AFE. Es uno de los 5 procedimientos modernos recomendados por Courtney. [15]
La prueba MAP de Velicer (1976) [13] “implica un análisis completo de los componentes principales seguido del examen de una serie de matrices de correlaciones parciales” (p. 397). La correlación al cuadrado para el Paso “0” (ver Figura 4) es la correlación al cuadrado promedio fuera de la diagonal para la matriz de correlación no parcializada. En el Paso 1, se eliminan parcialmente el primer componente principal y sus elementos asociados. A continuación, se calcula la correlación al cuadrado promedio fuera de la diagonal para la matriz de correlación posterior para el Paso 1. En el Paso 2, se eliminan parcialmente los dos primeros componentes principales y se calcula nuevamente la correlación al cuadrado promedio fuera de la diagonal resultante. Los cálculos se llevan a cabo para k menos uno pasos (k representa el número total de variables en la matriz). Finalmente, se alinean las correlaciones al cuadrado promedio para todos los pasos y el número de paso que resultó en la correlación parcial al cuadrado promedio más baja determina el número de componentes o factores a retener (Velicer, 1976). Mediante este método, los componentes se mantienen siempre que la varianza en la matriz de correlación represente la varianza sistemática, en oposición a la varianza residual o de error. Aunque metodológicamente es similar al análisis de componentes principales, se ha demostrado que la técnica MAP funciona bastante bien para determinar la cantidad de factores que se deben retener en estudios de simulación múltiple. [14] [29] Sin embargo, en una minoría muy pequeña de casos, MAP puede sobrestimar enormemente la cantidad de factores en un conjunto de datos por razones desconocidas. [30] Este procedimiento está disponible a través de la interfaz de usuario de SPSS. Consulte Courtney (2013) [15] para obtener orientación. Este es uno de sus cinco procedimientos modernos recomendados.
Para llevar a cabo la prueba PA, los usuarios calculan los valores propios para la matriz de correlación y trazan los valores del mayor al menor y luego trazan un conjunto de valores propios aleatorios. El número de valores propios antes de los puntos de intersección indica cuántos factores incluir en su modelo. [20] [31] [32] Este procedimiento puede ser algo arbitrario (es decir, se incluirá un factor que apenas cumpla con el límite y uno justo por debajo no). [2] Además, el método es muy sensible al tamaño de la muestra, y PA sugiere más factores en conjuntos de datos con tamaños de muestra más grandes. [33] A pesar de sus deficiencias, este procedimiento funciona muy bien en estudios de simulación y es uno de los procedimientos recomendados por Courtney. [15] PA se ha implementado en varios programas de estadística de uso común, como R y SPSS.
En 2012, Ruscio y Roche [14] introdujeron el procedimiento de datos comparativos (CD) en un intento de mejorar el método PA. Los autores afirman que "en lugar de generar conjuntos de datos aleatorios, que solo tienen en cuenta el error de muestreo, se analizan múltiples conjuntos de datos con estructuras factoriales conocidas para determinar cuál reproduce mejor el perfil de valores propios de los datos reales" (p. 258). La fortaleza del procedimiento es su capacidad de no solo incorporar el error de muestreo, sino también la estructura factorial y la distribución multivariada de los elementos. El estudio de simulación de Ruscio y Roche (2012) [14] determinó que el procedimiento CD superó a muchos otros métodos destinados a determinar el número correcto de factores a retener. En ese estudio, la técnica CD, haciendo uso de correlaciones de Pearson, predijo con precisión el número correcto de factores el 87,14% del tiempo. Sin embargo, el estudio simulado nunca involucró más de cinco factores. Por lo tanto, la aplicabilidad del procedimiento CD para estimar estructuras factoriales más allá de cinco factores aún debe probarse. Courtney incluye este procedimiento en su lista recomendada y ofrece pautas que muestran cómo se puede llevar a cabo fácilmente desde la interfaz de usuario de SPSS. [15]
En 2023, Goretzko y Ruscio propusieron el Bosque de Datos de Comparación como una extensión del enfoque de CD. [34]
Una revisión de 60 artículos de revistas por Henson y Roberts (2006) encontró que ninguno utilizó múltiples técnicas modernas en un intento de encontrar convergencia, como PA y los procedimientos de promedio parcial mínimo (MAP) de Velicer (1976). El estudio de simulación de Ruscio y Roche (2012) demostró la ventaja empírica de buscar la convergencia. Cuando los procedimientos CD y PA coincidieron, la precisión del número estimado de factores fue correcta el 92,2% del tiempo. Ruscio y Roche (2012) demostraron que cuando las pruebas posteriores coincidieron, la precisión de la estimación podría aumentar aún más. [15]
Estudios recientes de simulación en el campo de la psicometría sugieren que las técnicas de análisis paralelo, de promedio mínimo parcial y de datos comparativos pueden mejorarse para diferentes situaciones de datos. Por ejemplo, en estudios de simulación, el rendimiento de la prueba de promedio mínimo parcial, cuando se trata de datos ordinales, puede mejorarse utilizando correlaciones policóricas, en lugar de correlaciones de Pearson. Courtney (2013) [15] detalla cómo cada uno de estos tres procedimientos puede optimizarse y llevarse a cabo simultáneamente desde la interfaz de SPSS.
La rotación de factores es un paso comúnmente empleado en EFA, utilizado para ayudar a la interpretación de matrices factoriales. [35] [36] [37] Para cualquier solución con dos o más factores hay un número infinito de orientaciones de los factores que explicarán los datos igualmente bien. Debido a que no hay una solución única, un investigador debe seleccionar una única solución de las infinitas posibilidades. El objetivo de la rotación de factores es rotar factores en un espacio multidimensional para llegar a una solución con la mejor estructura simple. Hay dos tipos principales de rotación de factores: rotación ortogonal y oblicua .
Las rotaciones ortogonales obligan a los factores a ser perpendiculares entre sí y, por lo tanto, no correlacionados . Una ventaja de la rotación ortogonal es su simplicidad y claridad conceptual, aunque existen varias desventajas. En las ciencias sociales, a menudo hay una base teórica para esperar que los constructos estén correlacionados, por lo tanto, las rotaciones ortogonales pueden no ser muy realistas porque no lo permiten. Además, debido a que las rotaciones ortogonales requieren que los factores no estén correlacionados, es menos probable que produzcan soluciones con una estructura simple. [2]
La rotación varimax es una rotación ortogonal de los ejes factoriales para maximizar la varianza de las cargas al cuadrado de un factor (columna) en todas las variables (filas) en una matriz factorial, lo que tiene el efecto de diferenciar las variables originales por el factor extraído. Cada factor tenderá a tener cargas grandes o pequeñas de cualquier variable en particular. Una solución varimax produce resultados que facilitan al máximo la identificación de cada variable con un solo factor. Esta es la opción de rotación ortogonal más común. [2]
La rotación de Quartimax es una rotación ortogonal que maximiza las cargas al cuadrado de cada variable en lugar de cada factor. Esto minimiza la cantidad de factores necesarios para explicar cada variable. Este tipo de rotación a menudo genera un factor general en el que la mayoría de las variables tienen una carga alta o media. [38]
La rotación Equimax es un compromiso entre los criterios varimax y quartimax.
Las rotaciones oblicuas permiten correlacionar factores. Una ventaja de la rotación oblicua es que produce soluciones con una estructura más simple cuando se espera que los factores se correlacionen, y produce estimaciones de correlaciones entre factores. [2] Estas rotaciones pueden producir soluciones similares a la rotación ortogonal si los factores no se correlacionan entre sí.
Se utilizan habitualmente varios procedimientos de rotación oblicua. La rotación oblicua directa es el método de rotación oblicua estándar. La rotación Promax se suele ver en la literatura más antigua porque es más fácil de calcular que la oblimin. Otros métodos oblicuos incluyen la rotación cuatrimin directa y la rotación ortoblica de Harris-Kaiser. [2]
El software de análisis de factores comunes es capaz de producir una solución no rotada. Esto se refiere al resultado de una factorización de ejes principales sin rotación adicional. La llamada solución no rotada es de hecho una rotación ortogonal que maximiza la varianza de los primeros factores. La solución no rotada tiende a dar un factor general con cargas para la mayoría de las variables. Esto puede ser útil si muchas variables están correlacionadas entre sí, como lo revela uno o unos pocos valores propios dominantes en un diagrama de sedimentación .
La utilidad de una solución no rotada fue enfatizada por un metaanálisis de estudios de diferencias culturales. Este reveló que muchos estudios publicados de diferencias culturales han dado resultados de análisis factorial similares, pero rotados de manera diferente. La rotación factorial ha oscurecido la similitud entre los resultados de diferentes estudios y la existencia de un factor general fuerte, mientras que las soluciones no rotadas fueron mucho más similares. [39] [40]
Las cargas factoriales son valores numéricos que indican la fuerza y la dirección de un factor en una variable medida. Las cargas factoriales indican con qué fuerza el factor influye en la variable medida. Para etiquetar los factores en el modelo, los investigadores deben examinar el patrón factorial para ver qué elementos tienen una carga alta en qué factores y luego determinar qué tienen en común esos elementos. [2] Lo que tengan en común los elementos indicará el significado del factor.
{{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link)