stringtranslate.com

Análisis factorial exploratorio

Modelo de análisis factorial exploratorio

En estadística multivariante , el análisis factorial exploratorio ( AFE ) es un método estadístico utilizado para descubrir la estructura subyacente de un conjunto relativamente grande de variables . El AFE es una técnica dentro del análisis factorial cuyo objetivo general es identificar las relaciones subyacentes entre las variables medidas. [1] Los investigadores lo utilizan comúnmente al desarrollar una escala (una escala es una colección de preguntas utilizadas para medir un tema de investigación en particular) y sirve para identificar un conjunto de constructos latentes subyacentes a una batería de variables medidas. [2] Debe utilizarse cuando el investigador no tiene una hipótesis a priori sobre los factores o patrones de las variables medidas. [3] Las variables medidas son cualquiera de los varios atributos de las personas que se pueden observar y medir. Ejemplos de variables medidas podrían ser la altura física, el peso y la frecuencia cardíaca de un ser humano. Por lo general, los investigadores tendrían una gran cantidad de variables medidas, que se supone que están relacionadas con una cantidad menor de factores "no observados". Los investigadores deben considerar cuidadosamente la cantidad de variables medidas que se incluirán en el análisis. [2] Los procedimientos de AFE son más precisos cuando cada factor está representado por múltiples variables medidas en el análisis.

El EFA se basa en el modelo de factores comunes. [1] En este modelo, las variables manifiestas se expresan como una función de factores comunes, factores únicos y errores de medición. Cada factor único influye solo en una variable manifiesta y no explica las correlaciones entre variables manifiestas. Los factores comunes influyen en más de una variable manifiesta y las "cargas factoriales" son medidas de la influencia de un factor común en una variable manifiesta. [1] Para el procedimiento EFA, estamos más interesados ​​en identificar los factores comunes y las variables manifiestas relacionadas.

El AFE presupone que cualquier indicador o variable medida puede estar asociada a cualquier factor. Al desarrollar una escala, los investigadores deben utilizar primero el AFE antes de pasar al análisis factorial confirmatorio (AFC). [4] El AFE es esencial para determinar los factores o constructos subyacentes de un conjunto de variables medidas, mientras que el AFC permite al investigador probar la hipótesis de que existe una relación entre las variables observadas y sus factores o constructos latentes subyacentes. [5] El AFE requiere que el investigador tome una serie de decisiones importantes sobre cómo llevar a cabo el análisis, ya que no existe un método único.

Procedimientos de montaje

Los procedimientos de ajuste se utilizan para estimar las cargas factoriales y las varianzas únicas del modelo ( las cargas factoriales son los coeficientes de regresión entre los elementos y los factores y miden la influencia de un factor común en una variable medida). Hay varios métodos de ajuste de análisis factorial para elegir, sin embargo, hay poca información sobre todas sus fortalezas y debilidades y muchos ni siquiera tienen un nombre exacto que se use de manera consistente. La factorización del eje principal (PAF) y la máxima verosimilitud (ML) son dos métodos de extracción que generalmente se recomiendan. En general, ML o PAF brindan los mejores resultados, dependiendo de si los datos se distribuyen normalmente o si se ha violado el supuesto de normalidad. [2]

Máxima verosimilitud (MV)

El método de máxima verosimilitud tiene muchas ventajas, ya que permite a los investigadores calcular una amplia gama de índices de bondad de ajuste del modelo, permite a los investigadores probar la significancia estadística de las cargas factoriales, calcular correlaciones entre factores y calcular intervalos de confianza para estos parámetros. [6] ML es la mejor opción cuando los datos se distribuyen normalmente porque "permite el cálculo de una amplia gama de índices de bondad de ajuste del modelo [y] permite la prueba de significancia estadística de las cargas factoriales y las correlaciones entre factores y el cálculo de intervalos de confianza". [2]

Factorización de ejes principales (PAF)

Se denomina factorización de ejes “principales” porque el primer factor explica la mayor cantidad posible de varianza común, luego el segundo factor es el que tiene la mayor varianza, y así sucesivamente. La factorización de ejes principales es un procedimiento descriptivo, por lo que es mejor utilizarla cuando el enfoque está solo en la muestra y no se planea generalizar los resultados más allá de la muestra. Una desventaja de la factorización de ejes principales es que proporciona un rango limitado de índices de bondad de ajuste en comparación con el ML y no permite el cálculo de intervalos de confianza y pruebas de significancia.

Seleccionar el número apropiado de factores

A la hora de seleccionar cuántos factores incluir en un modelo, los investigadores deben intentar equilibrar la parsimonia (un modelo con relativamente pocos factores) y la plausibilidad (que haya suficientes factores para tener en cuenta adecuadamente las correlaciones entre las variables medidas). [7]

La sobrefactorización se produce cuando se incluyen demasiados factores en un modelo y puede llevar a los investigadores a proponer constructos con poco valor teórico.

La subfactorización se produce cuando se incluyen muy pocos factores en un modelo. Si no se incluyen suficientes factores en un modelo, es probable que haya un error sustancial. Las variables medidas que se cargan en un factor no incluido en el modelo pueden cargar falsamente en factores que sí están incluidos, alterando las cargas factoriales reales. Esto puede dar lugar a soluciones rotadas en las que se combinan dos factores en un solo factor, ocultando la estructura factorial real.

Hay una serie de procedimientos diseñados para determinar el número óptimo de factores a retener en EFA. Estos incluyen la regla de valor propio mayor que uno (o regla K1) de Kaiser (1960), [8] el diagrama de sedimentación de Cattell (1966) , [9] el criterio de estructura muy simple de Revelle y Rocklin (1979), [10] las técnicas de comparación de modelos, [11] el factor de aceleración y las coordenadas óptimas de Raiche, Roipel y Blais (2006), [12] el parcial promedio mínimo de Velicer (1976), [13] el análisis paralelo de Horn (1965) y los datos de comparación de Ruscio y Roche (2012). [14] Estudios de simulación recientes que evalúan la solidez de dichas técnicas sugieren que las últimas cinco pueden ayudar mejor a los profesionales a modelar los datos de manera juiciosa. [14] Estas cinco técnicas modernas son ahora fácilmente accesibles a través del uso integrado del software IBM SPSS Statistics (SPSS) y R (R Development Core Team, 2011). Consulte Courtney (2013) [15] para obtener orientación sobre cómo llevar a cabo estos procedimientos para datos continuos, ordinales y heterogéneos (continuos y ordinales).

Con excepción del criterio de estructura muy simple de Revelle y Rocklin (1979), las técnicas de comparación de modelos y el parcial de promedio mínimo de Velicer (1976), todos los demás procedimientos se basan en el análisis de valores propios. El valor propio de un factor representa la cantidad de varianza de las variables explicadas por ese factor. Cuanto menor sea el valor propio, menos contribuye ese factor a explicar la varianza de las variables. [1]

A continuación se proporciona una breve descripción de cada uno de los nueve procedimientos mencionados anteriormente.

Regla de valores propios mayores que uno de Kaiser (1960) (K1 o criterio de Kaiser)

Calcular los valores propios para la matriz de correlación y determinar cuántos de estos valores propios son mayores que 1. Este número es el número de factores a incluir en el modelo. Una desventaja de este procedimiento es que es bastante arbitrario (por ejemplo, se incluye un valor propio de 1,01, mientras que no se incluye un valor propio de 0,99). Este procedimiento a menudo conduce a una sobrefactorización y, a veces, a una subfactorización. Por lo tanto, no se debe utilizar este procedimiento. [2] Se ha creado una variación del criterio K1 para reducir la gravedad de los problemas del criterio, en la que un investigador calcula intervalos de confianza para cada valor propio y retiene solo los factores que tienen el intervalo de confianza completo mayor que 1,0. [16] [17]

El argumento de Cattell (1966)

Salida de SPSS de Scree Plot

Calcular los valores propios para la matriz de correlación y representar gráficamente los valores de mayor a menor. Examinar el gráfico para determinar la última caída sustancial en la magnitud de los valores propios. La cantidad de puntos representados gráficamente antes de la última caída es la cantidad de factores que se deben incluir en el modelo. [9] Este método ha sido criticado debido a su naturaleza subjetiva (es decir, no existe una definición objetiva clara de lo que constituye una caída sustancial). [18] Como este procedimiento es subjetivo, Courtney (2013) no lo recomienda. [15]

Revelle y Rocklin (1979) estructura muy simple

El criterio VSS de Revelle y Rocklin (1979) operacionaliza esta tendencia al evaluar el grado en que la matriz de correlación original se reproduce mediante una matriz de patrón simplificada, en la que solo se conserva la carga más alta para cada elemento, y todas las demás cargas se establecen en cero. El criterio VSS para evaluar el grado de replicación puede tomar valores entre 0 y 1, y es una medida de la bondad de ajuste de la solución factorial. El criterio VSS se obtiene de soluciones factoriales que involucran un factor (k = 1) a un número máximo teórico de factores especificado por el usuario. A partir de allí, la solución factorial que proporciona el criterio VSS más alto determina el número óptimo de factores interpretables en la matriz. En un intento de dar cabida a conjuntos de datos donde los elementos covarían con más de un factor (es decir, datos factorialmente más complejos), el criterio también se puede llevar a cabo con matrices de patrón simplificadas en las que se conservan las dos cargas más altas, y el resto se establece en cero (complejidad máxima de VSS 2). Courtney tampoco recomienda VSS debido a la falta de investigación de simulación sólida sobre el desempeño del criterio VSS. [15]

Técnicas de comparación de modelos

Elegir el mejor modelo de una serie de modelos que difieren en complejidad. Los investigadores utilizan medidas de bondad de ajuste para ajustar los modelos comenzando con un modelo con cero factores y aumentando gradualmente el número de factores. El objetivo es elegir finalmente un modelo que explique los datos significativamente mejor que los modelos más simples (con menos factores) y que explique los datos tan bien como los modelos más complejos (con más factores).

Existen diferentes métodos que se pueden utilizar para evaluar el ajuste del modelo: [2]

Coordenadas óptimas y factor de aceleración

En un intento de superar la debilidad subjetiva de la prueba de scree de Cattell (1966), [9] [28] presentó dos familias de soluciones no gráficas. El primer método, denominado coordenada óptima (OC), intenta determinar la ubicación del scree midiendo los gradientes asociados con los valores propios y sus coordenadas precedentes. El segundo método, denominado factor de aceleración (AF), pertenece a una solución numérica para determinar la coordenada donde la pendiente de la curva cambia más abruptamente. Ambos métodos han superado al método K1 en la simulación. [14] En el estudio de Ruscio y Roche (2012), [14] el método OC fue correcto el 74,03% del tiempo rivalizando con la técnica PA (76,42%). El método AF fue correcto el 45,91% del tiempo con una tendencia hacia la subestimación. Tanto el método OC como el AF, generados con el uso de coeficientes de correlación de Pearson, fueron revisados ​​en el estudio de simulación de Ruscio y Roche (2012). Los resultados sugirieron que ambas técnicas funcionaron bastante bien en situaciones de categorías de respuesta ordinales de dos a siete (C = 2-7) y cuasi-continuas (C = 10 o 20). Dada la precisión de estos procedimientos en simulación, son altamente recomendados [ ¿por quién? ] para determinar el número de factores a retener en el AFE. Es uno de los 5 procedimientos modernos recomendados por Courtney. [15]

Prueba parcial promedio mínima de Velicer (MAP)

La prueba MAP de Velicer (1976) [13] “implica un análisis completo de los componentes principales seguido del examen de una serie de matrices de correlaciones parciales” (p. 397). La correlación al cuadrado para el Paso “0” (ver Figura 4) es la correlación al cuadrado promedio fuera de la diagonal para la matriz de correlación no parcializada. En el Paso 1, se eliminan parcialmente el primer componente principal y sus elementos asociados. A continuación, se calcula la correlación al cuadrado promedio fuera de la diagonal para la matriz de correlación posterior para el Paso 1. En el Paso 2, se eliminan parcialmente los dos primeros componentes principales y se calcula nuevamente la correlación al cuadrado promedio fuera de la diagonal resultante. Los cálculos se llevan a cabo para k menos uno pasos (k representa el número total de variables en la matriz). Finalmente, se alinean las correlaciones al cuadrado promedio para todos los pasos y el número de paso que resultó en la correlación parcial al cuadrado promedio más baja determina el número de componentes o factores a retener (Velicer, 1976). Mediante este método, los componentes se mantienen siempre que la varianza en la matriz de correlación represente la varianza sistemática, en oposición a la varianza residual o de error. Aunque metodológicamente es similar al análisis de componentes principales, se ha demostrado que la técnica MAP funciona bastante bien para determinar la cantidad de factores que se deben retener en estudios de simulación múltiple. [14] [29] Sin embargo, en una minoría muy pequeña de casos, MAP puede sobrestimar enormemente la cantidad de factores en un conjunto de datos por razones desconocidas. [30] Este procedimiento está disponible a través de la interfaz de usuario de SPSS. Consulte Courtney (2013) [15] para obtener orientación. Este es uno de sus cinco procedimientos modernos recomendados.

Análisis paralelo

Para llevar a cabo la prueba PA, los usuarios calculan los valores propios para la matriz de correlación y trazan los valores del mayor al menor y luego trazan un conjunto de valores propios aleatorios. El número de valores propios antes de los puntos de intersección indica cuántos factores incluir en su modelo. [20] [31] [32] Este procedimiento puede ser algo arbitrario (es decir, se incluirá un factor que apenas cumpla con el límite y uno justo por debajo no). [2] Además, el método es muy sensible al tamaño de la muestra, y PA sugiere más factores en conjuntos de datos con tamaños de muestra más grandes. [33] A pesar de sus deficiencias, este procedimiento funciona muy bien en estudios de simulación y es uno de los procedimientos recomendados por Courtney. [15] PA se ha implementado en varios programas de estadística de uso común, como R y SPSS.

Datos comparativos de Ruscio y Roche

En 2012, Ruscio y Roche [14] introdujeron el procedimiento de datos comparativos (CD) en un intento de mejorar el método PA. Los autores afirman que "en lugar de generar conjuntos de datos aleatorios, que solo tienen en cuenta el error de muestreo, se analizan múltiples conjuntos de datos con estructuras factoriales conocidas para determinar cuál reproduce mejor el perfil de valores propios de los datos reales" (p. 258). La fortaleza del procedimiento es su capacidad de no solo incorporar el error de muestreo, sino también la estructura factorial y la distribución multivariada de los elementos. El estudio de simulación de Ruscio y Roche (2012) [14] determinó que el procedimiento CD superó a muchos otros métodos destinados a determinar el número correcto de factores a retener. En ese estudio, la técnica CD, haciendo uso de correlaciones de Pearson, predijo con precisión el número correcto de factores el 87,14% del tiempo. Sin embargo, el estudio simulado nunca involucró más de cinco factores. Por lo tanto, la aplicabilidad del procedimiento CD para estimar estructuras factoriales más allá de cinco factores aún debe probarse. Courtney incluye este procedimiento en su lista recomendada y ofrece pautas que muestran cómo se puede llevar a cabo fácilmente desde la interfaz de usuario de SPSS. [15]

En 2023, Goretzko y Ruscio propusieron el Bosque de Datos de Comparación como una extensión del enfoque de CD. [34]

Convergencia de múltiples pruebas

Una revisión de 60 artículos de revistas por Henson y Roberts (2006) encontró que ninguno utilizó múltiples técnicas modernas en un intento de encontrar convergencia, como PA y los procedimientos de promedio parcial mínimo (MAP) de Velicer (1976). El estudio de simulación de Ruscio y Roche (2012) demostró la ventaja empírica de buscar la convergencia. Cuando los procedimientos CD y PA coincidieron, la precisión del número estimado de factores fue correcta el 92,2% del tiempo. Ruscio y Roche (2012) demostraron que cuando las pruebas posteriores coincidieron, la precisión de la estimación podría aumentar aún más. [15]

Adaptación de los procedimientos recomendados por Courtney para datos ordinales y continuos

Estudios recientes de simulación en el campo de la psicometría sugieren que las técnicas de análisis paralelo, de promedio mínimo parcial y de datos comparativos pueden mejorarse para diferentes situaciones de datos. Por ejemplo, en estudios de simulación, el rendimiento de la prueba de promedio mínimo parcial, cuando se trata de datos ordinales, puede mejorarse utilizando correlaciones policóricas, en lugar de correlaciones de Pearson. Courtney (2013) [15] detalla cómo cada uno de estos tres procedimientos puede optimizarse y llevarse a cabo simultáneamente desde la interfaz de SPSS.

Rotación de factores

La rotación de factores es un paso comúnmente empleado en EFA, utilizado para ayudar a la interpretación de matrices factoriales. [35] [36] [37] Para cualquier solución con dos o más factores hay un número infinito de orientaciones de los factores que explicarán los datos igualmente bien. Debido a que no hay una solución única, un investigador debe seleccionar una única solución de las infinitas posibilidades. El objetivo de la rotación de factores es rotar factores en un espacio multidimensional para llegar a una solución con la mejor estructura simple. Hay dos tipos principales de rotación de factores: rotación ortogonal y oblicua .

Rotación ortogonal

Las rotaciones ortogonales obligan a los factores a ser perpendiculares entre sí y, por lo tanto, no correlacionados . Una ventaja de la rotación ortogonal es su simplicidad y claridad conceptual, aunque existen varias desventajas. En las ciencias sociales, a menudo hay una base teórica para esperar que los constructos estén correlacionados, por lo tanto, las rotaciones ortogonales pueden no ser muy realistas porque no lo permiten. Además, debido a que las rotaciones ortogonales requieren que los factores no estén correlacionados, es menos probable que produzcan soluciones con una estructura simple. [2]

La rotación varimax es una rotación ortogonal de los ejes factoriales para maximizar la varianza de las cargas al cuadrado de un factor (columna) en todas las variables (filas) en una matriz factorial, lo que tiene el efecto de diferenciar las variables originales por el factor extraído. Cada factor tenderá a tener cargas grandes o pequeñas de cualquier variable en particular. Una solución varimax produce resultados que facilitan al máximo la identificación de cada variable con un solo factor. Esta es la opción de rotación ortogonal más común. [2]

La rotación de Quartimax es una rotación ortogonal que maximiza las cargas al cuadrado de cada variable en lugar de cada factor. Esto minimiza la cantidad de factores necesarios para explicar cada variable. Este tipo de rotación a menudo genera un factor general en el que la mayoría de las variables tienen una carga alta o media. [38]

La rotación Equimax es un compromiso entre los criterios varimax y quartimax.

Rotación oblicua

Las rotaciones oblicuas permiten correlacionar factores. Una ventaja de la rotación oblicua es que produce soluciones con una estructura más simple cuando se espera que los factores se correlacionen, y produce estimaciones de correlaciones entre factores. [2] Estas rotaciones pueden producir soluciones similares a la rotación ortogonal si los factores no se correlacionan entre sí.

Se utilizan habitualmente varios procedimientos de rotación oblicua. La rotación oblicua directa es el método de rotación oblicua estándar. La rotación Promax se suele ver en la literatura más antigua porque es más fácil de calcular que la oblimin. Otros métodos oblicuos incluyen la rotación cuatrimin directa y la rotación ortoblica de Harris-Kaiser. [2]

Solución no rotada

El software de análisis de factores comunes es capaz de producir una solución no rotada. Esto se refiere al resultado de una factorización de ejes principales sin rotación adicional. La llamada solución no rotada es de hecho una rotación ortogonal que maximiza la varianza de los primeros factores. La solución no rotada tiende a dar un factor general con cargas para la mayoría de las variables. Esto puede ser útil si muchas variables están correlacionadas entre sí, como lo revela uno o unos pocos valores propios dominantes en un diagrama de sedimentación .

La utilidad de una solución no rotada fue enfatizada por un metaanálisis de estudios de diferencias culturales. Este reveló que muchos estudios publicados de diferencias culturales han dado resultados de análisis factorial similares, pero rotados de manera diferente. La rotación factorial ha oscurecido la similitud entre los resultados de diferentes estudios y la existencia de un factor general fuerte, mientras que las soluciones no rotadas fueron mucho más similares. [39] [40]

Interpretación de factores

Las cargas factoriales son valores numéricos que indican la fuerza y ​​la dirección de un factor en una variable medida. Las cargas factoriales indican con qué fuerza el factor influye en la variable medida. Para etiquetar los factores en el modelo, los investigadores deben examinar el patrón factorial para ver qué elementos tienen una carga alta en qué factores y luego determinar qué tienen en común esos elementos. [2] Lo que tengan en común los elementos indicará el significado del factor.

Véase también

Referencias

  1. ^ abcd Norris, Megan; Lecavalier, Luc (17 de julio de 2009). "Evaluación del uso del análisis factorial exploratorio en la investigación psicológica sobre discapacidades del desarrollo". Revista de autismo y trastornos del desarrollo . 40 (1): 8–20. doi :10.1007/s10803-009-0816-2. PMID  19609833. S2CID  45751299.
  2. ^ abcdefghijkl Fabrigar, Leandre R.; Wegener, Duane T.; MacCallum, Robert C.; Strahan, Erin J. (1 de enero de 1999). "Evaluación del uso del análisis factorial exploratorio en la investigación psicológica" (PDF) . Métodos psicológicos . 4 (3): 272–299. doi :10.1037/1082-989X.4.3.272.
  3. ^ Finch, JF; West, SG (1997). "La investigación de la estructura de la personalidad: modelos estadísticos". Revista de investigación en personalidad . 31 (4): 439–485. doi :10.1006/jrpe.1997.2194.
  4. ^ Worthington, Roger L.; Whittaker, Tiffany A J. (1 de enero de 2006). "Investigación sobre el desarrollo de escalas: un análisis de contenido y recomendaciones para las mejores prácticas". The Counseling Psychologist . 34 (6): 806–838. doi :10.1177/0011000006288127. S2CID  146284440.
  5. ^ Suhr, DD (2006). ¿Análisis factorial exploratorio o confirmatorio? (pp. 1-17). Cary: SAS Institute.
  6. ^ Cudeck, R.; O'Dell, LL (1994). "Aplicaciones de las estimaciones de error estándar en el análisis factorial sin restricciones: pruebas de significancia para cargas factoriales y correlaciones". Psychological Bulletin . 115 (3): 475–487. doi :10.1037/0033-2909.115.3.475. PMID  8016288.
  7. ^ Fabrigar, Leandre R.; Wegener, Duane T. (12 de enero de 2012). Análisis factorial exploratorio . Oxford: Oxford University Press. ISBN 978-0-19-973417-7.
  8. ^ Kaiser, HF (1960). "La aplicación de las computadoras electrónicas al análisis factorial". Medición educativa y psicológica . 20 : 141–151. doi :10.1177/001316446002000116. S2CID  146138712.
  9. ^ abc Cattell, RB (1966). La prueba de detección del número de factores. Investigación conductual multivariada, I, 245-276.
  10. ^ Revelle, W.; Rocklin, T. (1979). "Procedimiento alternativo de estructura muy simple para estimar el número óptimo de factores interpretables". Investigación conductual multivariable . 14 (4): 403–414. doi :10.1207/s15327906mbr1404_2. PMID  26804437.
  11. ^ Fabrigar, Leandre R.; Wegener, Duane T.; MacCallum, Robert C.; Strahan, Erin J. (1999). "Evaluación del uso del análisis factorial exploratorio en la investigación psicológica". Psychological Methods . 4 (3): 272–299. doi :10.1037/1082-989X.4.3.272.
  12. ^ Raiche, G., Roipel, M., & Blais, JG|Soluciones no gráficas para el test de Cattell. Trabajo presentado en la Reunión Anual Internacional de la Sociedad Psicométrica, Montreal|fecha=2006|Recuperado el 10 de diciembre de 2012 de «Copia archivada» (PDF) . Archivado (PDF) desde el original el 21 de octubre de 2013 . Consultado el 3 de mayo de 2013 .{{cite web}}: CS1 maint: archived copy as title (link)
  13. ^ ab Velicer, WF (1976). "Determinación del número de componentes de la matriz de correlaciones parciales". Psychometrika . 41 (3): 321–327. doi :10.1007/bf02293557. S2CID  122907389.
  14. ^ abcdefg Ruscio, J.; Roche, B. (2012). "Determinación del número de factores a retener en un análisis factorial exploratorio utilizando datos de comparación de una estructura factorial conocida". Psychological Assessment . 24 (2): 282–292. doi :10.1037/a0025697. PMID  21966933.
  15. ^ abcdefghi Courtney, MGR (2013). Determinación del número de factores a retener en EFA: uso de SPSS R-Menu v2.0 para realizar estimaciones más juiciosas. Practical Assessment, Research and Evaluation , 18(8). Disponible en línea: «Copia archivada». Archivado desde el original el 17 de marzo de 2015. Consultado el 8 de junio de 2014 .{{cite web}}: CS1 maint: archived copy as title (link)
  16. ^ Larsen, R.; Warne, RT (2010). "Estimación de intervalos de confianza para valores propios en análisis factorial exploratorio". Métodos de investigación del comportamiento . 42 (3): 871–876. doi : 10.3758/BRM.42.3.871 . PMID  20805609.
  17. ^ Warne, RT; Larsen, R. (2014). "Evaluación de una modificación propuesta de la regla de Guttman para determinar el número de factores en un análisis factorial exploratorio". Modelado de pruebas y evaluaciones psicológicas . 56 : 104–123.
  18. ^ Kaiser, HF (1970). "Un pequeño santiamén de segunda generación". Psychometrika . 35 (4): 401–415. doi :10.1007/bf02291817. S2CID  121850294.
  19. ^ Lawley, DN (1940). La estimación de las cargas factoriales mediante el método de máxima verosimilitud. Actas de la Royal Society of Edimburgo, 60A, 64-82.
  20. ^ abc Humphreys, LG; Montanelli, RG Jr (1975). "Una investigación del criterio de análisis paralelo para determinar el número de factores comunes". Investigación conductual multivariante . 10 (2): 193–205. doi :10.1207/s15327906mbr1002_5.
  21. ^ Hakstian, AR; Rogers, WT; Cattell, RB (1982). "El comportamiento de las reglas de número de factores con datos simulados". Investigación conductual multivariante . 17 (2): 193–219. doi :10.1207/s15327906mbr1702_3. PMID  26810948.
  22. ^ Harris, ML; Harris, CW (1 de octubre de 1971). "Una estrategia de interpretación analítica factorial". Medición educativa y psicológica . 31 (3): 589–606. doi :10.1177/001316447103100301. S2CID  143515527.
  23. ^ Maccallum, RC (1990). "La necesidad de medidas alternativas de ajuste en el modelado de la estructura de covarianza". Investigación conductual multivariante . 25 (2): 157–162. doi :10.1207/s15327906mbr2502_2. PMID  26794477.
  24. ^ ab Browne, MW; Cudeck, R. (1992). "Formas alternativas de evaluar el ajuste del modelo". Métodos sociológicos e investigación . 21 (2): 230–258. doi :10.1177/0049124192021002005. S2CID  120166447.
  25. ^ Steiger, JH (1989). EzPATH: un módulo complementario para SYSTAT y sygraph. Evanston, IL: SYSTAT
  26. ^ Neath, AA y Cavanaugh, JE (2012). El criterio de información bayesiano: antecedentes, derivación y aplicaciones. Wiley Interdisciplinary Reviews: Computational Statistics, 4(2), 199-203.
  27. ^ Haslbeck, J., y van Bork, R. (2022). Estimación del número de factores en el análisis factorial exploratorio mediante errores de predicción fuera de la muestra. Métodos psicológicos.
  28. ^ Raiche, Roipel y Blais (2006)
  29. ^ Garrido, LE, y Abad, FJ, y Ponsoda, V. (2012). Una nueva mirada al análisis paralelo de Horn con variables ordinales. Psychological Methods. Publicación anticipada en línea. doi :10.1037/a0030005
  30. ^ Warne, RT; Larsen, R. (2014). "Evaluación de una modificación propuesta de la regla de Guttman para determinar el número de factores en un análisis factorial exploratorio". Modelado de pruebas y evaluaciones psicológicas . 56 : 104–123.
  31. ^ Horn, John L. (1 de junio de 1965). "Una justificación y prueba para el número de factores en el análisis factorial". Psychometrika . 30 (2): 179–185. doi :10.1007/BF02289447. PMID  14306381. S2CID  19663974.
  32. ^ Humphreys, LG; Ilgen, DR (1 de octubre de 1969). "Nota sobre un criterio para el número de factores comunes". Medición educativa y psicológica . 29 (3): 571–578. doi :10.1177/001316446902900303. S2CID  145258601.
  33. ^ Warne, RG; Larsen, R. (2014). "Evaluación de una modificación propuesta de la regla de Guttman para determinar el número de factores en un análisis factorial exploratorio". Modelado de pruebas y evaluaciones psicológicas . 56 : 104–123.
  34. ^ Goretzko, David; Ruscio, John (15 de junio de 2023). "El bosque de datos de comparación: un nuevo enfoque de datos de comparación para determinar el número de factores en el análisis factorial exploratorio". Métodos de investigación del comportamiento . 56 (3): 1838–1851. doi :10.3758/s13428-023-02122-4. ISSN  1554-3528. PMC 10991039 . PMID  37382813. 
  35. ^ Browne, Michael W. (enero de 2001). "Una visión general de la rotación analítica en el análisis factorial exploratorio". Investigación conductual multivariante . 36 (1): 111–150. doi :10.1207/S15327906MBR3601_05. S2CID  9598774.
  36. ^ Sass, Daniel A.; Schmitt, Thomas A. (29 de enero de 2010). "Una investigación comparativa de los criterios de rotación en el análisis factorial exploratorio". Investigación conductual multivariante . 45 (1): 73–103. doi :10.1080/00273170903504810. PMID  26789085. S2CID  6458980.
  37. ^ Schmitt, Thomas A.; Sass, Daniel A. (febrero de 2011). "Criterios de rotación y prueba de hipótesis para el análisis factorial exploratorio: implicaciones para las cargas de patrones factoriales y las correlaciones interfactoriales". Educational and Psychological Measurement . 71 (1): 95–113. doi :10.1177/0013164410387348. S2CID  120709021.
  38. ^ Neuhaus, Jack O; Wrigley, C. (1954). "El método Quartimax". Revista británica de psicología estadística . 7 (2): 81–91. doi :10.1111/j.2044-8317.1954.tb00147.x.
  39. ^ Fog, A. (2020). "Una prueba de la reproducibilidad de la agrupación de variables culturales". Investigación transcultural . 55 : 29–57. doi :10.1177/1069397120956948. S2CID  224909443.
  40. ^ "Examen de los factores en el cuestionario TIMSS 2015 para estudiantes australianos de cuarto grado en relación con las actitudes hacia la ciencia mediante el análisis factorial exploratorio (EFA)". Investigación académica de América del Norte . 3 .

Enlaces externos