El análisis factorial es un método estadístico utilizado para describir la variabilidad entre variables observadas y correlacionadas en términos de un número potencialmente menor de variables no observadas llamadas factores . Por ejemplo, es posible que las variaciones en seis variables observadas reflejen principalmente las variaciones en dos variables no observadas (subyacentes). El análisis factorial busca tales variaciones conjuntas en respuesta a variables latentes no observadas . Las variables observadas se modelan como combinaciones lineales de los factores potenciales más términos de " error ", por lo que el análisis factorial puede considerarse como un caso especial de modelos de errores en variables . [1]
En pocas palabras, la carga factorial de una variable cuantifica el grado en que la variable está relacionada con un factor determinado. [2]
Una razón común detrás de los métodos de análisis factorial es que la información obtenida sobre las interdependencias entre las variables observadas se puede utilizar más adelante para reducir el conjunto de variables en un conjunto de datos. El análisis factorial se utiliza comúnmente en psicometría , psicología de la personalidad , biología, marketing , gestión de productos , investigación de operaciones , finanzas y aprendizaje automático . Puede resultar útil tratar con conjuntos de datos en los que hay un gran número de variables observadas que se cree que reflejan un número menor de variables subyacentes/latentes. Es una de las técnicas de interdependencia más utilizadas y se utiliza cuando el conjunto relevante de variables muestra una interdependencia sistemática y el objetivo es descubrir los factores latentes que crean una comunidad.
El modelo intenta explicar un conjunto de observaciones en cada uno de los individuos con un conjunto de factores comunes ( ) donde hay menos factores por unidad que observaciones por unidad ( ). Cada individuo tiene sus propios factores comunes, y estos se relacionan con las observaciones a través de la matriz de carga factorial ( ), para una sola observación, según
dónde
En notación matricial
donde matriz de observación , matriz de carga , matriz de factores , matriz de términos de error y matriz de medias donde el ésimo elemento es simplemente .
También impondremos los siguientes supuestos sobre :
Suponer . Entonces
y por lo tanto, de las condiciones 1 y 2 impuestas anteriormente , y , dando
o, estableciendo ,
Tenga en cuenta que para cualquier matriz ortogonal , si establecemos y , los criterios para ser factores y cargas factoriales aún se mantienen. Por lo tanto, un conjunto de factores y cargas factoriales es único sólo hasta una transformación ortogonal .
Supongamos que un psicólogo tiene la hipótesis de que existen dos tipos de inteligencia , la "inteligencia verbal" y la "inteligencia matemática", ninguna de las cuales se observa directamente. [nota 1] La evidencia de la hipótesis se busca en los puntajes de los exámenes de cada uno de los 10 campos académicos diferentes de 1000 estudiantes. Si cada estudiante se elige al azar de una población grande , entonces las 10 puntuaciones de cada estudiante son variables aleatorias. La hipótesis del psicólogo puede decir que para cada uno de los 10 campos académicos, la puntuación promedio del grupo de todos los estudiantes que comparten algún par común de valores para las "inteligencias" verbales y matemáticas es una constante multiplicada por su nivel de inteligencia verbal más otra constante multiplicada por su nivel de inteligencia matemática, es decir, es una combinación lineal de esos dos "factores". La hipótesis postula que los números para un sujeto en particular, por los cuales se multiplican los dos tipos de inteligencia para obtener la puntuación esperada, son los mismos para todos los pares de niveles de inteligencia, y se denominan "carga factorial" para este sujeto. [ se necesita aclaración ] Por ejemplo, la hipótesis puede sostener que la aptitud promedio prevista del estudiante en el campo de la astronomía es
Los números 10 y 6 son las cargas factoriales asociadas con la astronomía. Otras materias académicas pueden tener cargas factoriales diferentes.
Dos estudiantes que se supone tienen grados idénticos de inteligencia verbal y matemática pueden tener diferentes aptitudes medidas en astronomía porque las aptitudes individuales difieren de las aptitudes promedio (predichas anteriormente) y debido al error de medición en sí. Tales diferencias constituyen lo que colectivamente se llama "error", un término estadístico que significa la cantidad en la que un individuo, según se mide, difiere de lo que es promedio o predicho por sus niveles de inteligencia (ver errores y residuos en estadísticas). ).
Los datos observables que entran en el análisis factorial serían 10 puntuaciones de cada uno de los 1.000 estudiantes, un total de 10.000 números. De los datos se deben inferir las cargas factoriales y los niveles de los dos tipos de inteligencia de cada estudiante.
A continuación, las matrices se indicarán mediante variables indexadas. Los índices de "Asunto" se indicarán mediante las letras , y , con valores que van desde hasta y que son iguales a en el ejemplo anterior. Los índices de "factor" se indicarán mediante las letras , y , con valores que van desde hasta y que son iguales a en el ejemplo anterior. Los índices de "instancia" o "muestra" se indicarán mediante las letras , y , con valores que van desde hasta . En el ejemplo anterior, si una muestra de estudiantes participó en los exámenes, la puntuación del décimo estudiante para el décimo examen viene dada por . El propósito del análisis factorial es caracterizar las correlaciones entre las variables de las cuales son un caso particular o un conjunto de observaciones. Para que las variables estén en igualdad de condiciones, se normalizan en puntuaciones estándar :
donde la media muestral es:
y la varianza muestral está dada por:
El modelo de análisis factorial para esta muestra en particular es entonces:
o, más sucintamente:
dónde
En notación matricial , tenemos
Observe que duplicar la escala en la que se mide la "inteligencia verbal" (el primer componente de cada columna) y simultáneamente reducir a la mitad las cargas factoriales para la inteligencia verbal no supone ninguna diferencia para el modelo. Por tanto, no se pierde generalidad al suponer que la desviación estándar de los factores de inteligencia verbal es . Lo mismo ocurre con la inteligencia matemática. Además, por razones similares, no se pierde generalidad al suponer que los dos factores no están correlacionados entre sí. En otras palabras:
¿Dónde está el delta de Kronecker ( cuándo y cuándo )? Se supone que los errores son independientes de los factores:
Tenga en cuenta que, dado que cualquier rotación de una solución también es una solución, esto dificulta la interpretación de los factores. Vea las desventajas a continuación. En este ejemplo particular, si no sabemos de antemano que los dos tipos de inteligencia no están correlacionados, entonces no podemos interpretar los dos factores como dos tipos diferentes de inteligencia. Incluso si no están correlacionados, no podemos decir qué factor corresponde a la inteligencia verbal y cuál corresponde a la inteligencia matemática sin un argumento externo.
Los valores de las cargas , los promedios y las varianzas de los "errores" deben estimarse dados los datos observados y (el supuesto sobre los niveles de los factores es fijo para un determinado ). El "teorema fundamental" puede derivarse de las condiciones anteriores:
El término de la izquierda es el término de la matriz de correlación (una matriz derivada como el producto de la matriz de observaciones estandarizadas con su transpuesta) de los datos observados, y sus elementos diagonales serán s. El segundo término de la derecha será una matriz diagonal con términos menores que la unidad. El primer término de la derecha es la "matriz de correlación reducida" y será igual a la matriz de correlación excepto por sus valores diagonales que serán menores que la unidad. Estos elementos diagonales de la matriz de correlación reducida se denominan "comunalidades" (que representan la fracción de la varianza en la variable observada que se explica por los factores):
Los datos de muestra no obedecerán exactamente a la ecuación fundamental dada anteriormente debido a errores de muestreo, insuficiencia del modelo, etc. El objetivo de cualquier análisis del modelo anterior es encontrar los factores y cargas que den un "mejor ajuste" a los datos. . En el análisis factorial, el mejor ajuste se define como el mínimo del error cuadrático medio en los residuos fuera de la diagonal de la matriz de correlación: [3]
Esto equivale a minimizar los componentes fuera de la diagonal de la covarianza del error que, en las ecuaciones del modelo, tienen valores esperados de cero. Esto debe contrastarse con el análisis de componentes principales que busca minimizar el error cuadrático medio de todos los residuos. [3] Antes de la llegada de las computadoras de alta velocidad, se dedicó un esfuerzo considerable a encontrar soluciones aproximadas al problema, particularmente en la estimación de las comunalidades por otros medios, lo que luego simplifica considerablemente el problema al producir una matriz de correlación reducida conocida. Luego se utilizó para estimar los factores y las cargas. Con la llegada de las computadoras de alta velocidad, el problema de minimización se puede resolver de forma iterativa con la velocidad adecuada, y las comunalidades se calculan en el proceso, en lugar de ser necesarias de antemano. El algoritmo MinRes es especialmente adecuado para este problema, pero no es el único medio iterativo para encontrar una solución.
Si se permite que los factores de solución estén correlacionados (como en la rotación 'oblimin', por ejemplo), entonces el modelo matemático correspondiente utiliza coordenadas sesgadas en lugar de coordenadas ortogonales.
A los parámetros y variables del análisis factorial se les puede dar una interpretación geométrica. Los datos ( ), los factores ( ) y los errores ( ) pueden verse como vectores en un espacio euclidiano de dimensiones (espacio muestral), representados como , y respectivamente. Dado que los datos están estandarizados, los vectores de datos tienen una longitud unitaria ( ). Los vectores de factores definen un subespacio lineal de dimensiones (es decir, un hiperplano) en este espacio, sobre el cual los vectores de datos se proyectan ortogonalmente. Esto se desprende de la ecuación del modelo.
y la independencia de los factores y los errores: . En el ejemplo anterior, el hiperplano es simplemente un plano bidimensional definido por los dos vectores de factores. La proyección de los vectores de datos en el hiperplano viene dada por
y los errores son vectores desde ese punto proyectado hasta el punto de datos y son perpendiculares al hiperplano. El objetivo del análisis factorial es encontrar un hiperplano que "se ajuste mejor" a los datos en algún sentido, por lo que no importa cómo se elijan los vectores factoriales que definen este hiperplano, siempre que sean independientes y se encuentren en el hiperplano. Somos libres de especificarlos como ortogonales y normales ( ) sin pérdida de generalidad. Después de encontrar un conjunto adecuado de factores, también se pueden rotar arbitrariamente dentro del hiperplano, de modo que cualquier rotación de los vectores de factores definirá el mismo hiperplano y también será una solución. Como resultado, en el ejemplo anterior, en el que el hiperplano de ajuste es bidimensional, si no sabemos de antemano que los dos tipos de inteligencia no están correlacionados, entonces no podemos interpretar los dos factores como dos tipos diferentes de inteligencia. Incluso si no están correlacionados, no podemos decir qué factor corresponde a la inteligencia verbal y cuál corresponde a la inteligencia matemática, o si los factores son combinaciones lineales de ambos, sin un argumento externo.
Los vectores de datos tienen longitud unitaria. Las entradas de la matriz de correlación para los datos vienen dadas por . La matriz de correlación se puede interpretar geométricamente como el coseno del ángulo entre los dos vectores de datos y . Los elementos diagonales serán claramente s y los elementos fuera de la diagonal tendrán valores absolutos menores o iguales a la unidad. La "matriz de correlación reducida" se define como
El objetivo del análisis factorial es elegir el hiperplano de ajuste de modo que la matriz de correlación reducida reproduzca la matriz de correlación lo más cerca posible, excepto los elementos diagonales de la matriz de correlación que se sabe que tienen valor unitario. En otras palabras, el objetivo es reproducir con la mayor precisión posible las correlaciones cruzadas de los datos. Específicamente, para el hiperplano de ajuste, el error cuadrático medio en los componentes fuera de la diagonal
debe minimizarse, y esto se logra minimizándolo con respecto a un conjunto de vectores de factores ortonormales. Puede observarse que
El término de la derecha es simplemente la covarianza de los errores. En el modelo, la covarianza del error se establece como una matriz diagonal y, por lo tanto, el problema de minimización anterior producirá de hecho un "mejor ajuste" al modelo: producirá una estimación muestral de la covarianza del error que tiene sus componentes fuera de la diagonal. minimizado en el sentido del cuadrado medio. Se puede ver que dado que son proyecciones ortogonales de los vectores de datos, su longitud será menor o igual a la longitud del vector de datos proyectado, que es la unidad. El cuadrado de estas longitudes son solo los elementos diagonales de la matriz de correlación reducida. Estos elementos diagonales de la matriz de correlación reducida se conocen como "comunalidades":
Los valores grandes de las comunalidades indicarán que el hiperplano de ajuste reproduce con bastante precisión la matriz de correlación. Los valores medios de los factores también deben limitarse a cero, de lo que se deduce que los valores medios de los errores también serán cero.
El análisis factorial exploratorio (AFE) se utiliza para identificar interrelaciones complejas entre elementos y elementos de grupo que forman parte de conceptos unificados. [4] El investigador no hace suposiciones a priori sobre las relaciones entre factores. [4]
El análisis factorial confirmatorio (AFC) es un enfoque más complejo que prueba la hipótesis de que los elementos están asociados con factores específicos. [4] CFA utiliza modelos de ecuaciones estructurales para probar un modelo de medición mediante el cual la carga de los factores permite la evaluación de las relaciones entre las variables observadas y las no observadas. [4] Los enfoques de modelado de ecuaciones estructurales pueden adaptarse al error de medición y son menos restrictivos que la estimación de mínimos cuadrados . [4] Los modelos hipotéticos se prueban con datos reales, y el análisis demostraría cargas de variables observadas en las variables latentes (factores), así como la correlación entre las variables latentes. [4]
El análisis de componentes principales (PCA) es un método ampliamente utilizado para la extracción de factores, que es la primera fase de la EFA. [4] Las ponderaciones de los factores se calculan para extraer la máxima varianza posible, y la factorización sucesiva continúa hasta que no queda más varianza significativa. [4] Luego, el modelo factorial debe rotarse para su análisis. [4]
El análisis factorial canónico, también llamado factorización canónica de Rao, es un método diferente para calcular el mismo modelo que el PCA, que utiliza el método del eje principal. El análisis factorial canónico busca factores que tengan la mayor correlación canónica con las variables observadas. El análisis factorial canónico no se ve afectado por el cambio de escala arbitrario de los datos.
El análisis de factores comunes, también llamado análisis de factores principales (PFA) o factorización del eje principal (PAF), busca la menor cantidad de factores que puedan explicar la varianza común (correlación) de un conjunto de variables.
La factorización de imágenes se basa en la matriz de correlación de variables predichas en lugar de variables reales, donde cada variable se predice a partir de las demás mediante regresión múltiple .
La factorización alfa se basa en maximizar la confiabilidad de los factores, asumiendo que las variables se muestrean aleatoriamente de un universo de variables. Todos los demás métodos suponen que se muestrearán los casos y se fijarán las variables.
El modelo de regresión factorial es un modelo combinatorio de modelo factorial y modelo de regresión; o alternativamente, puede verse como el modelo de factores híbridos, [5] cuyos factores se conocen parcialmente.
Las puntuaciones de cada caso (fila) en cada factor (columna). Para calcular la puntuación factorial de un caso determinado para un factor determinado, se toma la puntuación estandarizada del caso en cada variable, se multiplica por las cargas correspondientes de la variable para el factor dado y se suman estos productos. Calcular las puntuaciones de los factores permite buscar factores atípicos. Además, las puntuaciones de los factores se pueden utilizar como variables en modelos posteriores.
Los investigadores desean evitar criterios tan subjetivos o arbitrarios para la retención de factores como "para mí tenía sentido". Se han desarrollado varios métodos objetivos para resolver este problema, lo que permite a los usuarios determinar una gama adecuada de soluciones para investigar. [7] Sin embargo, estos diferentes métodos a menudo no están de acuerdo entre sí en cuanto al número de factores que deben conservarse. Por ejemplo, el análisis paralelo puede sugerir cinco factores, mientras que el MAP de Velicer sugiere seis, por lo que el investigador puede solicitar soluciones de cinco y seis factores y discutir cada una en términos de su relación con la teoría y los datos externos.
Análisis paralelo de Horn (PA): [8] Un método de simulación basado en Montecarlo que compara los valores propios observados con los obtenidos a partir de variables normales no correlacionadas. Un factor o componente se retiene si el valor propio asociado es mayor que el percentil 95 de la distribución de valores propios derivados de los datos aleatorios. PA se encuentra entre las reglas más comúnmente recomendadas para determinar la cantidad de componentes a retener, [7] [9] pero muchos programas no incluyen esta opción (una excepción notable es R ). [10] Sin embargo, Formann proporcionó evidencia tanto teórica como empírica de que su aplicación podría no ser apropiada en muchos casos, ya que su desempeño está considerablemente influenciado por el tamaño de la muestra , la discriminación de ítems y el tipo de coeficiente de correlación . [11]
La prueba MAP de Velicer (1976) [12] , tal como la describe Courtney (2013) [13] “implica un análisis completo de componentes principales seguido del examen de una serie de matrices de correlaciones parciales” (p. 397 (aunque tenga en cuenta que esta cita no no ocurre en Velicer (1976) y el número de página citado está fuera de las páginas de la cita). La correlación al cuadrado para el Paso “0” (ver Figura 4) es la correlación cuadrada promedio fuera de la diagonal para la matriz de correlación no parcial. 1, se parcializan el primer componente principal y sus elementos asociados. A continuación, se calcula la correlación fuera de la diagonal al cuadrado promedio para la matriz de correlación posterior para el Paso 1. En el Paso 2, se parcializan los dos primeros componentes principales y el resultado Se calcula nuevamente la correlación fuera de la diagonal al cuadrado promedio. Los cálculos se llevan a cabo para k menos un paso (k representa el número total de variables en la matriz). A partir de entonces, todas las correlaciones al cuadrado promedio para cada paso se alinean y el paso El número en los análisis que dieron como resultado la correlación parcial al cuadrado promedio más baja determina el número de componentes o factores a retener. [12] Mediante este método, los componentes se mantienen siempre que la varianza en la matriz de correlación represente una varianza sistemática, a diferencia de una varianza residual o de error. Aunque metodológicamente similar al análisis de componentes principales, se ha demostrado que la técnica MAP funciona bastante bien para determinar la cantidad de factores a retener en múltiples estudios de simulación. [7] [14] [15] [16] Este procedimiento está disponible a través de la interfaz de usuario de SPSS, [ 13] así como el paquete psych para el lenguaje de programación R. [17] [18]
Criterio de Kaiser: La regla de Kaiser consiste en eliminar todos los componentes con valores propios inferiores a 1,0, siendo este el valor propio igual a la información contabilizada por un elemento individual promedio. [19] El criterio de Kaiser es el predeterminado en SPSS y en la mayoría de los programas estadísticos , pero no se recomienda cuando se utiliza como único criterio de corte para estimar el número de factores, ya que tiende a extraer factores en exceso. [20] Se ha creado una variación de este método en la que un investigador calcula intervalos de confianza para cada valor propio y retiene solo los factores que tienen el intervalo de confianza completo mayor que 1,0. [14] [21]
Gráfico de scree : [22] La prueba de scree de Cattell traza los componentes como el eje X y los valores propios correspondientes como el eje Y. A medida que uno se mueve hacia la derecha, hacia componentes posteriores, los valores propios caen. Cuando la caída cesa y la curva forma un codo hacia una caída menos pronunciada, la prueba de scree de Cattell dice que se deben dejar caer todos los componentes posteriores al que comienza en el codo. Esta regla a veces es criticada por ser susceptible de "modificación" controlada por los investigadores. Es decir, como elegir el "codo" puede ser subjetivo porque la curva tiene múltiples codos o es una curva suave, el investigador puede verse tentado a establecer el límite en el número de factores deseados por su agenda de investigación. [ cita necesaria ]
Criterios explicados por la varianza: algunos investigadores simplemente usan la regla de mantener suficientes factores para representar el 90% (a veces el 80%) de la variación. Cuando el objetivo del investigador enfatiza la parsimonia (explicar la varianza con la menor cantidad de factores posible), el criterio podría ser tan bajo como el 50%.
Al colocar una distribución previa sobre el número de factores latentes y luego aplicar el teorema de Bayes, los modelos bayesianos pueden devolver una distribución de probabilidad sobre el número de factores latentes. Esto se ha modelado utilizando el proceso buffet indio , [23] pero se puede modelar de forma más sencilla colocando cualquier prioridad discreta (por ejemplo, una distribución binomial negativa ) en el número de componentes.
El resultado del PCA maximiza la varianza representada primero por el primer factor, luego por el segundo, etc. Una desventaja de este procedimiento es que la mayoría de los ítems se cargan en los factores iniciales, mientras que muy pocos ítems se cargan en las variables posteriores. Esto dificulta la interpretación de los factores leyendo una lista de preguntas y cargas, ya que cada pregunta está fuertemente correlacionada con los primeros componentes, mientras que muy pocas preguntas están fuertemente correlacionadas con los últimos componentes.
La rotación sirve para hacer que el resultado sea más fácil de interpretar. Al elegir una base diferente para los mismos componentes principales (es decir, elegir diferentes factores para expresar la misma estructura de correlación) es posible crear variables que sean más fácilmente interpretables.
Las rotaciones pueden ser ortogonales u oblicuas; Las rotaciones oblicuas permiten que los factores se correlacionen. [24] Esta mayor flexibilidad significa que son posibles más rotaciones, algunas de las cuales pueden ser mejores para lograr un objetivo específico. Sin embargo, esto también puede hacer que los factores sean más difíciles de interpretar, ya que parte de la información se "cuenta dos veces" y se incluye varias veces en diferentes componentes; algunos factores pueden incluso parecer casi duplicados entre sí.
Existen dos clases amplias de rotaciones ortogonales: las que buscan filas dispersas (donde cada fila es un caso, es decir, un tema) y las que buscan columnas dispersas (donde cada columna es una variable).
Puede resultar difícil interpretar una estructura factorial cuando cada variable influye en múltiples factores. A veces, pequeños cambios en los datos pueden inclinar el equilibrio en el criterio de rotación de factores, de modo que se produzca una rotación de factores completamente diferente. Esto puede dificultar la comparación de los resultados de diferentes experimentos. Este problema se ilustra mediante una comparación de diferentes estudios sobre las diferencias culturales mundiales. Cada estudio ha utilizado diferentes medidas de variables culturales y produjo un resultado de análisis factorial rotado de manera diferente. Los autores de cada estudio creyeron que habían descubierto algo nuevo e inventaron nuevos nombres para los factores que encontraron. Una comparación posterior de los estudios encontró que los resultados eran bastante similares cuando se compararon los resultados no rotados. La práctica común de rotación de factores ha oscurecido la similitud entre los resultados de los diferentes estudios. [25]
El análisis factorial de orden superior es un método estadístico que consiste en repetir pasos de análisis factorial – rotación oblicua – análisis factorial de factores rotados. Su mérito es permitir al investigador ver la estructura jerárquica de los fenómenos estudiados. Para interpretar los resultados, se procede ya sea multiplicando posteriormente la matriz del patrón de factores primarios por las matrices de patrones de factores de orden superior (Gorsuch, 1983) y tal vez aplicando una rotación Varimax al resultado (Thompson, 1990) o usando una ecuación de Schmid- Solución de Leiman (SLS, Schmid & Leiman, 1957, también conocida como transformación de Schmid-Leiman) que atribuye la variación de los factores primarios a los factores de segundo orden.
El análisis factorial está relacionado con el análisis de componentes principales (PCA), pero los dos no son idénticos. [26] Ha habido una controversia significativa en el campo sobre las diferencias entre las dos técnicas. El PCA puede considerarse como una versión más básica del análisis factorial exploratorio (EFA) que se desarrolló en los primeros días previos a la llegada de las computadoras de alta velocidad. Tanto el PCA como el análisis factorial tienen como objetivo reducir la dimensionalidad de un conjunto de datos, pero los enfoques adoptados para hacerlo son diferentes para las dos técnicas. El análisis factorial está claramente diseñado con el objetivo de identificar ciertos factores no observables a partir de las variables observadas, mientras que el PCA no aborda directamente este objetivo; en el mejor de los casos, PCA proporciona una aproximación a los factores requeridos. [27] Desde el punto de vista del análisis exploratorio, los valores propios de PCA son cargas de componentes infladas, es decir, contaminadas con varianza de error. [28] [29] [30] [31] [32] [33]
Si bien EFA y PCA se tratan como técnicas sinónimas en algunos campos de la estadística, esto ha sido criticado. [34] [35] El análisis factorial "se ocupa del supuesto de una estructura causal subyacente : [se] supone que la covariación en las variables observadas se debe a la presencia de una o más variables (factores) latentes que ejercen una influencia causal sobre estas variables observadas". [36] Por el contrario, la PCA no supone ni depende de dicha relación causal subyacente. Los investigadores han argumentado que las distinciones entre las dos técnicas pueden significar que existen beneficios objetivos al preferir una sobre la otra en función del objetivo analítico. Si el modelo factorial está formulado incorrectamente o no se cumplen los supuestos, el análisis factorial dará resultados erróneos. El análisis factorial se ha utilizado con éxito cuando una comprensión adecuada del sistema permite buenas formulaciones iniciales del modelo. PCA emplea una transformación matemática de los datos originales sin suposiciones sobre la forma de la matriz de covarianza. El objetivo de PCA es determinar combinaciones lineales de las variables originales y seleccionar algunas que puedan usarse para resumir el conjunto de datos sin perder mucha información. [37]
Fabrigar et al. (1999) [34] abordan una serie de razones utilizadas para sugerir que el PCA no es equivalente al análisis factorial:
El análisis factorial tiene en cuenta el error aleatorio inherente a la medición, mientras que el PCA no lo hace. Este punto lo ejemplifica Brown (2009), [38] quien indicó que, con respecto a las matrices de correlación involucradas en los cálculos:
"En PCA, los 1,00 se colocan en la diagonal, lo que significa que se debe contabilizar toda la varianza en la matriz (incluida la varianza única de cada variable, la varianza común entre variables y la varianza del error). Por lo tanto, eso sería, por definición , incluyen toda la varianza de las variables. En contraste, en EFA, las comunalidades se colocan en diagonal, lo que significa que solo se debe contabilizar la varianza compartida con otras variables (excluyendo la varianza única de cada variable y la varianza del error). Por lo tanto, por definición, incluiría sólo la varianza que es común entre las variables".
— Brown (2009), Análisis de componentes principales y análisis factorial exploratorio – Definiciones, diferencias y opciones
Por esta razón, Brown (2009) recomienda utilizar el análisis factorial cuando existen ideas teóricas sobre las relaciones entre variables, mientras que el PCA debe utilizarse si el objetivo del investigador es explorar patrones en sus datos.
Las diferencias entre PCA y análisis factorial (FA) se ilustran con más detalle en Suhr (2009): [35]
Charles Spearman fue el primer psicólogo en analizar el análisis de factores comunes [39] y lo hizo en su artículo de 1904. [40] Proporcionó pocos detalles sobre sus métodos y se centró en modelos de un solo factor. [41] Descubrió que las puntuaciones de los escolares en una amplia variedad de temas aparentemente no relacionados estaban positivamente correlacionados, lo que le llevó a postular que una única capacidad mental general, og , subyace y da forma al rendimiento cognitivo humano.
El desarrollo inicial del análisis de factores comunes con factores múltiples fue presentado por Louis Thurstone en dos artículos a principios de la década de 1930, [42] [43] resumidos en su libro de 1935, The Vector of Mind . [44] Thurstone introdujo varios conceptos importantes de análisis factorial, incluida la comunalidad, la unicidad y la rotación. [45] Abogó por una "estructura simple" y desarrolló métodos de rotación que podrían usarse como una forma de lograr dicha estructura. [39]
En metodología Q , William Stephenson , alumno de Spearman, distingue entre análisis factorial R , orientado al estudio de las diferencias interindividuales, y análisis factorial Q orientado a las diferencias subjetivas intraindividuales. [46] [47]
Raymond Cattell fue un firme defensor del análisis factorial y la psicometría y utilizó la teoría multifactorial de Thurstone para explicar la inteligencia. Cattell también desarrolló la prueba de pedregal y los coeficientes de similitud.
El análisis factorial se utiliza para identificar "factores" que explican una variedad de resultados en diferentes pruebas. Por ejemplo, la investigación sobre inteligencia encontró que las personas que obtienen una puntuación alta en una prueba de capacidad verbal también son buenas en otras pruebas que requieren habilidades verbales. Los investigadores explicaron esto mediante el uso de análisis factorial para aislar un factor, a menudo llamado inteligencia verbal, que representa el grado en que alguien es capaz de resolver problemas que involucran habilidades verbales. [ cita necesaria ]
El análisis factorial en psicología se asocia con mayor frecuencia con la investigación de la inteligencia. Sin embargo, también se ha utilizado para encontrar factores en una amplia gama de dominios como personalidad, actitudes, creencias, etc. Está vinculado a la psicometría , ya que puede evaluar la validez de un instrumento al determinar si el instrumento realmente mide los valores postulados. factores. [ cita necesaria ]
El análisis factorial es una técnica de uso frecuente en la investigación transcultural. Sirve para extraer dimensiones culturales . Los modelos de dimensiones culturales más conocidos son los elaborados por Geert Hofstede , Ronald Inglehart , Christian Welzel , Shalom Schwartz y Michael Minkov. Una visualización popular es el mapa cultural del mundo de Inglehart y Welzel . [25]
En un estudio de principios de 1965, los sistemas políticos de todo el mundo se examinan mediante análisis factorial para construir investigaciones y modelos teóricos relacionados, comparar sistemas políticos y crear categorías tipológicas. [50] Para estos propósitos, en este estudio se identifican siete dimensiones políticas básicas, que se relacionan con una amplia variedad de comportamiento político: estas dimensiones son Acceso, Diferenciación, Consenso, Seccionalismo, Legitimación, Interés y Teoría e Investigación del Liderazgo.
Otros politólogos exploran la medición de la eficacia política interna utilizando cuatro nuevas preguntas agregadas al Estudio Electoral Nacional de 1988. Aquí se utiliza el análisis factorial para encontrar que estos ítems miden un concepto único distinto de la eficacia externa y la confianza política, y que estas cuatro preguntas proporcionaron la mejor medida de la eficacia política interna hasta ese momento. [51]
Los pasos básicos son:
La etapa de recopilación de datos suele ser realizada por profesionales de la investigación de mercados. Las preguntas de la encuesta piden al encuestado que califique una muestra de producto o descripciones de conceptos de producto según una variedad de atributos. Se eligen entre cinco y veinte atributos. Podrían incluir cosas como: facilidad de uso, peso, precisión, durabilidad, colorido, precio o tamaño. Los atributos elegidos variarán según el producto que se estudie. Se hace la misma pregunta sobre todos los productos del estudio. Los datos de múltiples productos se codifican y se ingresan en un programa estadístico como R , SPSS , SAS , Stata , STATISTICA , JMP y SYSTAT.
El análisis aislará los factores subyacentes que explican los datos utilizando una matriz de asociaciones. [52] El análisis factorial es una técnica de interdependencia. Se examina el conjunto completo de relaciones interdependientes. No hay especificación de variables dependientes, variables independientes o causalidad. El análisis factorial supone que todos los datos de calificación sobre diferentes atributos se pueden reducir a unas pocas dimensiones importantes. Esta reducción es posible porque algunos atributos pueden estar relacionados entre sí. La calificación otorgada a cualquier atributo es en parte el resultado de la influencia de otros atributos. El algoritmo estadístico deconstruye la calificación (llamada puntuación bruta) en sus diversos componentes y reconstruye las puntuaciones parciales en puntuaciones de los factores subyacentes. El grado de correlación entre la puntuación bruta inicial y la puntuación factorial final se denomina carga factorial .
El análisis factorial también ha sido ampliamente utilizado en ciencias físicas como la geoquímica , la hidroquímica , [53] astrofísica y la cosmología , así como en las ciencias biológicas, como la ecología , la biología molecular , la neurociencia y la bioquímica .
En la gestión de la calidad del agua subterránea, es importante relacionar la distribución espacial de diferentes parámetros químicos con diferentes fuentes posibles, que tienen diferentes firmas químicas. Por ejemplo, es probable que una mina de sulfuros esté asociada con altos niveles de acidez, sulfatos disueltos y metales de transición. Estas firmas se pueden identificar como factores mediante el análisis factorial en modo R, y la ubicación de posibles fuentes se puede sugerir al contornear las puntuaciones de los factores. [54]
En geoquímica , diferentes factores pueden corresponder a diferentes asociaciones minerales y, por tanto, a la mineralización. [55]
El análisis factorial se puede utilizar para resumir datos de micromatrices de ADN de oligonucleótidos de alta densidad a nivel de sonda para Affymetrix GeneChips. En este caso, la variable latente corresponde a la concentración de ARN en una muestra. [56]
El análisis factorial se ha implementado en varios programas de análisis estadístico desde la década de 1980:
{{cite journal}}
: Citar diario requiere |journal=
( ayuda )