Analisi fattoriale - Factor analysis

L'analisi fattoriale è una statistica metodo utilizzato per descrivere la variabilità tra osservati, correlate variabili in termini di un numero potenzialmente inferiore di variabili inosservate chiamati fattori . Ad esempio, è possibile che le variazioni in sei variabili osservate riflettano principalmente le variazioni in due variabili (sottostanti) non osservate. L'analisi fattoriale ricerca tali variazioni congiunte in risposta a variabili latenti non osservate . Le variabili osservate sono modellate come combinazioni lineari dei fattori potenziali, più termini di " errore ".

In parole povere, il caricamento del fattore di una variabile quantifica la misura in cui la variabile è correlata a un dato fattore.

Una logica comune alla base dei metodi di analisi fattoriale è che le informazioni ottenute sulle interdipendenze tra le variabili osservate possono essere utilizzate in seguito per ridurre l'insieme di variabili in un insieme di dati. L'analisi fattoriale è comunemente usata in psicometria , teorie della personalità , biologia, marketing , gestione del prodotto , ricerca operativa , finanza e apprendimento automatico . Può essere utile trattare set di dati in cui è presente un numero elevato di variabili osservate che si ritiene riflettano un numero inferiore di variabili sottostanti/latenti. È una delle tecniche di interdipendenza più comunemente utilizzate e viene utilizzata quando l'insieme di variabili rilevanti mostra un'interdipendenza sistematica e l'obiettivo è scoprire i fattori latenti che creano una comunanza.

Modello statistico

Definizione

Il modello tenta di spiegare un insieme di osservazioni in ciascuno degli individui con un insieme di fattori comuni ( ) dove ci sono meno fattori per unità rispetto alle osservazioni per unità ( ). Ogni individuo ha i propri fattori comuni, e questi sono legati alle osservazioni tramite la matrice di caricamento dei fattori ( ), per una singola osservazione, secondo

per cui

  • è il valore della esima osservazione del esimo individuo,
  • è la media di osservazione per la esima osservazione,
  • è il caricamento per l' osservazione th del fattore th,
  • è il valore del fattore- esimo dell'individuo-esimo, e
  • è il esimo termine di errore stocastico non osservato con media nulla e varianza finita.


In notazione matriciale

dove matrice di osservazione , matrice di fattori, matrice di termini di errore e matrice di media per cui l' elemento esimo è semplicemente .

Inoltre imporremo le seguenti ipotesi su :

  1. e sono indipendenti.
  2. ; dove è Aspettative
  3. dove è la matrice di covarianza , per assicurarsi che i fattori non siano correlati, ed è la matrice identità .

Supponiamo . Quindi

e quindi, dalle condizioni sopra poste ,

o, impostazione ,

Nota che per qualsiasi matrice ortogonale , se impostiamo e , i criteri per essere fattori e carichi fattoriali valgono ancora. Quindi un insieme di fattori e carichi fattoriali è unico solo fino a una trasformazione ortogonale .

Esempio

Supponiamo che uno psicologo abbia l'ipotesi che ci siano due tipi di intelligenza , "intelligenza verbale" e "intelligenza matematica", nessuna delle quali è direttamente osservabile. La prova dell'ipotesi è ricercata nei punteggi degli esami di ciascuno dei 10 diversi campi accademici di 1000 studenti. Se ogni studente viene scelto casualmente da un'ampia popolazione , i 10 punteggi di ogni studente sono variabili casuali. L'ipotesi dello psicologo potrebbe dire che per ciascuno dei 10 campi accademici, il punteggio medio sul gruppo di tutti gli studenti che condividono una coppia comune di valori per le "intelligenze" verbali e matematiche è una costante per il loro livello di intelligenza verbale più un'altra costante per il loro livello di intelligenza matematica, cioè è una combinazione lineare di questi due "fattori". I numeri per un particolare soggetto, per i quali i due tipi di intelligenza vengono moltiplicati per ottenere il punteggio atteso, sono postulati dall'ipotesi come gli stessi per tutte le coppie di livelli di intelligenza e sono chiamati "fattori di carico" per questo soggetto. Ad esempio, l'ipotesi può sostenere che l'attitudine media prevista dello studente nel campo dell'astronomia sia

{10 × l'intelligenza verbale dello studente} + {6 × l'intelligenza matematica dello studente}.

I numeri 10 e 6 sono i fattori di carico associati all'astronomia. Altre materie accademiche possono avere carichi di fattori diversi.

Due studenti che si presume abbiano gradi identici di intelligenza verbale e matematica possono avere diverse attitudini misurate in astronomia perché le attitudini individuali differiscono dalle attitudini medie (previste sopra) ea causa dell'errore di misurazione stesso. Tali differenze costituiscono ciò che viene chiamato collettivamente "errore" - un termine statistico che indica la quantità di cui un individuo, misurato, differisce da ciò che è medio o previsto dai suoi livelli di intelligenza (vedi errori e residui nelle statistiche ).

I dati osservabili che entrano nell'analisi fattoriale sarebbero 10 punteggi di ciascuno dei 1000 studenti, per un totale di 10.000 numeri. Dai dati devono essere dedotti i fattori di carico ei livelli dei due tipi di intelligenza di ogni studente.

Modello matematico dello stesso esempio

Nel seguito, le matrici saranno indicate da variabili indicizzate. Gli indici "Oggetto" saranno indicati con le lettere , e , con valori che vanno da a cui è uguale a nell'esempio precedente. Gli indici "fattori" saranno indicati con le lettere , e , con valori che vanno da a cui è uguale a nell'esempio precedente. Gli indici "istanza" o "campione" saranno indicati con le lettere , e , con valori che vanno da a . Nell'esempio sopra, se un campione di studenti ha partecipato agli esami, il punteggio dello studente esimo per l' esame è dato da . Lo scopo dell'analisi fattoriale è di caratterizzare le correlazioni tra le variabili di cui sono un'istanza particolare, o un insieme di osservazioni. Affinché le variabili siano su un piano di parità, sono normalizzate in punteggi standard :

dove la media campionaria è:

e la varianza campionaria è data da:

Il modello di analisi fattoriale per questo particolare campione è quindi:

oppure, più sinteticamente:

dove

  • è l '"intelligenza verbale" dello studente esimo,
  • è l '"intelligenza matematica" dello studente esimo,
  • sono i coefficienti di carico per il soggetto esimo, per .

In notazione matriciale , abbiamo

Si osservi che raddoppiando la scala su cui viene misurata l' "intelligenza verbale" - il primo componente in ciascuna colonna di - e contemporaneamente dimezzando i fattori di carico per l'intelligenza verbale non fa alcuna differenza per il modello. Pertanto, nessuna generalità viene persa assumendo che la deviazione standard dei fattori per l'intelligenza verbale sia . Allo stesso modo per l'intelligenza matematica. Inoltre, per ragioni analoghe, non si perde alcuna generalità assumendo che i due fattori non siano correlati tra loro. In altre parole:

dove è il delta di Kronecker ( quando e quando ). Si presume che gli errori siano indipendenti dai fattori:

Si noti che, poiché qualsiasi rotazione di una soluzione è anche una soluzione, ciò rende difficile l'interpretazione dei fattori. Vedi gli svantaggi di seguito. In questo particolare esempio, se non sappiamo in anticipo che i due tipi di intelligenza non sono correlati, allora non possiamo interpretare i due fattori come i due diversi tipi di intelligenza. Anche se non sono correlati, non possiamo dire quale fattore corrisponda all'intelligenza verbale e quale corrisponda all'intelligenza matematica senza un argomento esterno.

I valori dei caricamenti , delle medie e delle varianze degli "errori" devono essere stimati alla luce dei dati osservati e (l'ipotesi sui livelli dei fattori è fissata per un dato ). Il "teorema fondamentale" può essere derivato dalle condizioni di cui sopra:

Il termine a sinistra è il -termine della matrice di correlazione (una matrice derivata come prodotto della matrice delle osservazioni standardizzate con la sua trasposta) dei dati osservati, ei suoi elementi diagonali saranno s. Il secondo termine a destra sarà una matrice diagonale con termini inferiori all'unità. Il primo termine a destra è la "matrice di correlazione ridotta" e sarà uguale alla matrice di correlazione ad eccezione dei suoi valori diagonali che saranno inferiori all'unità. Questi elementi diagonali della matrice di correlazione ridotta sono chiamati "comunità" (che rappresentano la frazione della varianza nella variabile osservata che è spiegata dai fattori):

I dati del campione , ovviamente, non obbediranno esattamente all'equazione fondamentale sopra indicata a causa di errori di campionamento, inadeguatezza del modello, ecc. L'obiettivo di qualsiasi analisi del modello di cui sopra è trovare i fattori e i carichi che, in un certo senso, dare un "miglior adattamento" ai dati. Nell'analisi fattoriale, il miglior adattamento è definito come il minimo dell'errore quadratico medio nei residui fuori diagonale della matrice di correlazione:

Ciò equivale a minimizzare le componenti fuori diagonale della covarianza dell'errore che, nelle equazioni del modello, hanno valori attesi pari a zero. Questo deve essere contrastato con l'analisi della componente principale che cerca di minimizzare l'errore quadratico medio di tutti i residui. Prima dell'avvento dei computer ad alta velocità, un notevole sforzo è stato dedicato alla ricerca di soluzioni approssimate al problema, in particolare nella stima delle comunanze con altri mezzi, che poi semplifica notevolmente il problema producendo una nota matrice di correlazione ridotta. Questo è stato poi utilizzato per stimare i fattori ei carichi. Con l'avvento dei computer ad alta velocità, il problema della minimizzazione può essere risolto iterativamente con una velocità adeguata e le comunanze vengono calcolate nel processo, piuttosto che essere necessarie in anticipo. L' algoritmo MinRes è particolarmente adatto a questo problema, ma non è certo l'unico mezzo iterativo per trovare una soluzione.

Se i fattori di soluzione possono essere correlati (come nella rotazione 'oblimin', ad esempio), il modello matematico corrispondente utilizza coordinate asimmetriche anziché coordinate ortogonali.

Interpretazione geometrica

Interpretazione geometrica dei parametri dell'Analisi Fattoriale per 3 rispondenti alla domanda "a". La "risposta" è rappresentata dal vettore unitario , che è proiettato su un piano definito da due vettori ortonormali e . Il vettore di proiezione è e l'errore è perpendicolare al piano, quindi . Il vettore di proiezione può essere rappresentato in termini di vettori fattore come . Il quadrato della lunghezza del vettore di proiezione è la comunanza: . Se fosse tracciato un altro vettore di dati , il coseno dell'angolo tra e sarebbe  : la -entry nella matrice di correlazione. (Adattato da Harman Fig. 4.3)

I parametri e le variabili dell'analisi fattoriale possono essere interpretati geometricamente. I dati ( ), i fattori ( ) e gli errori ( ) possono essere visualizzati come vettori in uno spazio euclideo a dimensione (spazio dei campioni), rappresentati rispettivamente come , e . Poiché i dati sono standardizzati, i vettori dei dati sono di lunghezza unitaria ( ). I vettori fattore definiscono un sottospazio lineare -dimensionale (cioè un iperpiano) in questo spazio, sul quale i vettori dati sono proiettati ortogonalmente. Questo segue dall'equazione del modello

e l'indipendenza dei fattori e degli errori: . Nell'esempio sopra, l'iperpiano è solo un piano bidimensionale definito dai due vettori dei fattori. La proiezione dei vettori di dati sull'iperpiano è data da

e gli errori sono vettori da quel punto proiettato al punto dati e sono perpendicolari all'iperpiano. L'obiettivo dell'analisi fattoriale è trovare un iperpiano che in un certo senso sia il "miglior adattamento" ai dati, quindi non importa come vengono scelti i vettori fattoriali che definiscono questo iperpiano, purché siano indipendenti e si trovino in l'iperpiano. Siamo liberi di specificarli sia come ortogonali che normali ( ) senza perdita di generalità. Dopo aver trovato un insieme adatto di fattori, possono anche essere ruotati arbitrariamente all'interno dell'iperpiano, in modo che qualsiasi rotazione dei vettori dei fattori definisca lo stesso iperpiano e sia anche una soluzione. Di conseguenza, nell'esempio sopra, in cui l'iperpiano di raccordo è bidimensionale, se non sappiamo in anticipo che i due tipi di intelligenza non sono correlati, allora non possiamo interpretare i due fattori come i due diversi tipi di intelligenza. Anche se non sono correlati, non possiamo dire quale fattore corrisponda all'intelligenza verbale e quale corrisponda all'intelligenza matematica, o se i fattori siano combinazioni lineari di entrambi, senza un argomento esterno.

I vettori di dati hanno lunghezza unitaria. Le voci della matrice di correlazione per i dati sono date da . La matrice di correlazione può essere interpretata geometricamente come il coseno dell'angolo tra i due vettori di dati e . Gli elementi diagonali saranno chiaramente s e gli elementi fuori diagonale avranno valori assoluti inferiori o uguali all'unità. La "matrice di correlazione ridotta" è definita come

.

L'obiettivo dell'analisi fattoriale è scegliere l'iperpiano di raccordo in modo tale che la matrice di correlazione ridotta riproduca la matrice di correlazione il più fedelmente possibile, ad eccezione degli elementi diagonali della matrice di correlazione che sono noti per avere valore unitario. In altre parole, l'obiettivo è riprodurre nel modo più accurato possibile le correlazioni incrociate nei dati. In particolare, per l'iperpiano di adattamento, l'errore quadratico medio nelle componenti fuori diagonale

deve essere minimizzato, e ciò si ottiene minimizzandolo rispetto a un insieme di vettori fattoriali ortonormali. Si vede che

Il termine a destra è solo la covarianza degli errori. Nel modello, la covarianza dell'errore è indicata come una matrice diagonale e quindi il problema di minimizzazione di cui sopra produrrà in effetti un "miglior adattamento" al modello: fornirà una stima campionaria della covarianza dell'errore che ha le sue componenti fuori diagonale minimizzato in senso quadratico medio. Si può vedere che poiché sono proiezioni ortogonali dei vettori di dati, la loro lunghezza sarà minore o uguale alla lunghezza del vettore di dati proiettato, che è l'unità. I quadrati di queste lunghezze sono solo gli elementi diagonali della matrice di correlazione ridotta. Questi elementi diagonali della matrice di correlazione ridotta sono noti come "comunità":

Grandi valori delle comunanze indicheranno che l'iperpiano di raccordo riproduce in modo piuttosto accurato la matrice di correlazione. Anche i valori medi dei fattori devono essere vincolati a zero, da cui ne consegue che anche i valori medi degli errori saranno zero.

Implementazione pratica

Tipi di analisi fattoriale

Analisi fattoriale esplorativa

L'analisi fattoriale esplorativa (EFA) viene utilizzata per identificare interrelazioni complesse tra elementi e elementi di gruppo che fanno parte di concetti unificati. Il ricercatore non fa ipotesi a priori sulle relazioni tra i fattori.

Analisi fattoriale di conferma

L'analisi fattoriale confermativa (CFA) è un approccio più complesso che verifica l'ipotesi che gli elementi siano associati a fattori specifici. CFA utilizza la modellazione delle equazioni strutturali per testare un modello di misurazione in base al quale il caricamento sui fattori consente la valutazione delle relazioni tra le variabili osservate e le variabili non osservate. Gli approcci di modellazione delle equazioni strutturali possono adattarsi all'errore di misurazione e sono meno restrittivi della stima dei minimi quadrati . I modelli ipotizzati vengono testati rispetto ai dati reali e l'analisi dimostrerebbe i carichi delle variabili osservate sulle variabili latenti (fattori), nonché la correlazione tra le variabili latenti.

Tipi di estrazione dei fattori

L'analisi delle componenti principali (PCA) è un metodo ampiamente utilizzato per l'estrazione dei fattori, che è la prima fase dell'EFA. I pesi dei fattori vengono calcolati per estrarre la massima varianza possibile, con la successiva fattorizzazione che continua fino a quando non rimane più alcuna varianza significativa. Il modello fattoriale deve quindi essere ruotato per l'analisi.

L'analisi fattoriale canonica, chiamata anche fattorizzazione canonica di Rao, è un metodo diverso per calcolare lo stesso modello della PCA, che utilizza il metodo dell'asse principale. L'analisi fattoriale canonica cerca i fattori che hanno la più alta correlazione canonica con le variabili osservate. L'analisi fattoriale canonica non è influenzata dal ridimensionamento arbitrario dei dati.

L'analisi dei fattori comuni, chiamata anche analisi dei fattori principali (PFA) o fattorizzazione dell'asse principale (PAF), cerca il minor numero di fattori che possono spiegare la varianza comune (correlazione) di un insieme di variabili.

La fattorizzazione dell'immagine si basa sulla matrice di correlazione delle variabili previste piuttosto che sulle variabili effettive, in cui ogni variabile è prevista dalle altre utilizzando la regressione multipla .

Il factoring alfa si basa sulla massimizzazione dell'affidabilità dei fattori, assumendo che le variabili siano campionate casualmente da un universo di variabili. Tutti gli altri metodi presuppongono il campionamento dei casi e la correzione delle variabili.

Il modello di regressione fattoriale è un modello combinatorio del modello fattoriale e del modello di regressione; o in alternativa, può essere visto come il modello a fattori ibridi, i cui fattori sono parzialmente noti.

Terminologia

Caricamenti dei fattori: la comunità è il quadrato del caricamento esterno standardizzato di un articolo. Analogamente all'r-quadrato di Pearson , il carico del fattore al quadrato è la percentuale di varianza in quella variabile indicatore spiegata dal fattore. Per ottenere la percentuale di varianza in tutte le variabili contabilizzate da ciascun fattore, aggiungere la somma dei coefficienti quadratici dei fattori per quel fattore (colonna) e dividere per il numero di variabili. (Notare che il numero di variabili è uguale alla somma delle loro varianze poiché la varianza di una variabile standardizzata è 1.) Ciò equivale a dividere l' autovalore del fattore per il numero di variabili.

Interpretazione dei carichi fattoriali: secondo una regola pratica nell'analisi fattoriale di conferma, i carichi dovrebbero essere .7 o superiori per confermare che le variabili indipendenti identificate a priori sono rappresentate da un particolare fattore, sulla base della logica che il livello .7 corrisponde a circa la metà del varianza dell'indicatore spiegata dal fattore. Tuttavia, lo standard .7 è elevato e i dati della vita reale potrebbero non soddisfare questo criterio, motivo per cui alcuni ricercatori, in particolare per scopi esplorativi, utilizzeranno un livello inferiore come .4 per il fattore centrale e .25 per altri fattori. In ogni caso, i carichi dei fattori devono essere interpretati alla luce della teoria, non da livelli di cutoff arbitrari.

Nella rotazione obliqua , si possono esaminare sia una matrice di pattern che una matrice di struttura. La matrice della struttura è semplicemente la matrice di carico dei fattori come nella rotazione ortogonale, che rappresenta la varianza in una variabile misurata spiegata da un fattore sulla base di contributi sia unici che comuni. La matrice del modello, al contrario, contiene coefficienti che rappresentano solo contributi univoci. Maggiore è il numero di fattori, più bassi sono i coefficienti del modello di regola poiché ci saranno più contributi comuni alla varianza spiegati. Per la rotazione obliqua, il ricercatore esamina sia la struttura che i coefficienti del modello quando attribuisce un'etichetta a un fattore. I principi della rotazione obliqua possono essere derivati ​​sia dall'entropia incrociata che dalla sua doppia entropia.

Comunità: la somma dei coefficienti quadratici dei fattori per tutti i fattori per una data variabile (riga) è la varianza in quella variabile considerata da tutti i fattori. La comunanza misura la percentuale di varianza in una data variabile spiegata da tutti i fattori congiuntamente e può essere interpretata come l'affidabilità dell'indicatore nel contesto dei fattori posti.

Soluzioni spurie: se la comunanza supera 1.0, c'è una soluzione spuria, che può riflettere un campione troppo piccolo o la scelta di estrarre troppi o troppo pochi fattori.

Unicità di una variabile: la variabilità di una variabile meno la sua comunanza.

Autovalori/radici caratteristiche: Gli autovalori misurano la quantità di variazione nel campione totale rappresentata da ciascun fattore. Il rapporto degli autovalori è il rapporto di importanza esplicativa dei fattori rispetto alle variabili. Se un fattore ha un autovalore basso, allora contribuisce poco alla spiegazione delle varianze nelle variabili e può essere ignorato come meno importante dei fattori con autovalori più alti.

Somme di estrazione dei carichi quadrati: gli autovalori iniziali e gli autovalori dopo l'estrazione (elencati da SPSS come "Somme di estrazione dei carichi quadrati") sono gli stessi per l'estrazione PCA, ma per altri metodi di estrazione, gli autovalori dopo l'estrazione saranno inferiori alle loro controparti iniziali. SPSS stampa anche "Somme di rotazione dei carichi quadrati" e anche per PCA, questi autovalori differiranno dagli autovalori iniziali e di estrazione, sebbene il loro totale sarà lo stesso.

Punteggi dei fattori (chiamati anche punteggi dei componenti in PCA): sono i punteggi di ciascun caso (riga) su ciascun fattore (colonna). Per calcolare il punteggio del fattore per un dato caso per un dato fattore, si prende il punteggio standardizzato del caso su ciascuna variabile, lo si moltiplica per i corrispondenti caricamenti della variabile per il dato fattore e si sommano questi prodotti. Il calcolo dei punteggi dei fattori consente di cercare i fattori anomali. Inoltre, i punteggi dei fattori possono essere utilizzati come variabili nella modellazione successiva. (Spiegato dalla PCA non dal punto di vista dell'analisi fattoriale).

Criteri per determinare il numero di fattori

I ricercatori desiderano evitare tali criteri soggettivi o arbitrari per la conservazione dei fattori in quanto "per me aveva senso". Sono stati sviluppati numerosi metodi oggettivi per risolvere questo problema, consentendo agli utenti di determinare una gamma appropriata di soluzioni da indagare. I metodi potrebbero non essere d'accordo. Ad esempio, l' analisi parallela può suggerire 5 fattori mentre il MAP di Velicer suggerisce 6, quindi il ricercatore può richiedere soluzioni a 5 e 6 fattori e discutere ciascuna in termini di relazione con dati esterni e teoria.

Criteri moderni

Analisi parallela di Horn (PA): un metodo di simulazione basato su Monte-Carlo che confronta gli autovalori osservati con quelli ottenuti da variabili normali non correlate. Un fattore o un componente viene mantenuto se l'autovalore associato è maggiore del 95esimo percentile della distribuzione degli autovalori derivati ​​dai dati casuali. PA è tra le regole più comunemente consigliate per determinare il numero di componenti da conservare, ma molti programmi non includono questa opzione (un'eccezione degna di nota è R ). Tuttavia, Formann ha fornito prove sia teoriche che empiriche che la sua applicazione potrebbe non essere appropriata in molti casi poiché le sue prestazioni sono notevolmente influenzate dalla dimensione del campione , dalla discriminazione degli elementi e dal tipo di coefficiente di correlazione .

Il test MAP di Velicer (1976) come descritto da Courtney (2013) "comporta un'analisi completa delle componenti principali seguita dall'esame di una serie di matrici di correlazioni parziali" (p. 397 (sebbene si noti che questa citazione non si verifica in Velicer (1976) ) e il numero di pagina citata è al di fuori delle pagine della citazione). La correlazione al quadrato per il passaggio "0" (vedi Figura 4) è la correlazione media al quadrato fuori diagonale per la matrice di correlazione non parziale. Al passaggio 1, il primo componente principale e gli elementi associati vengono parzializzati. Successivamente, la correlazione media al quadrato fuori diagonale per la matrice di correlazione successiva viene quindi calcolata per il passaggio 1. Nel passaggio 2, i primi due componenti principali vengono parzializzati e la correlazione media fuori dalla diagonale al quadrato risultante viene nuovamente calcolato. I calcoli vengono eseguiti per k meno un passo (k rappresenta il numero totale di variabili nella matrice). Successivamente, tutte le correlazioni quadratiche medie per ogni passo sono li ned up e il numero di passaggi nelle analisi che hanno portato alla correlazione parziale quadratica media più bassa determina il numero di componenti o fattori da conservare. Con questo metodo, i componenti vengono mantenuti finché la varianza nella matrice di correlazione rappresenta una varianza sistematica, in contrapposizione alla varianza residua o di errore. Sebbene metodologicamente simile all'analisi dei componenti principali, la tecnica MAP ha dimostrato di funzionare abbastanza bene nel determinare il numero di fattori da conservare in più studi di simulazione. Questa procedura viene resa disponibile attraverso l'interfaccia utente di SPSS, nonché la psych pacchetto per il linguaggio di programmazione R .

Metodi precedenti

Criterio di Kaiser: la regola di Kaiser consiste nell'eliminare tutti i componenti con autovalori inferiori a 1.0, ovvero l'autovalore pari all'informazione rappresentata da un singolo elemento medio. Il criterio Kaiser è l'impostazione predefinita in SPSS e nella maggior parte dei software statistici, ma non è raccomandato se utilizzato come unico criterio di cut-off per stimare il numero di fattori poiché tende a sovraestrarre i fattori. È stata creata una variazione di questo metodo in cui un ricercatore calcola gli intervalli di confidenza per ciascun autovalore e conserva solo i fattori che hanno l'intero intervallo di confidenza maggiore di 1.0.

Grafico decrescente : Cattell detriti campi prova i componenti come l'asse X e le corrispondenti autovalori come l' asse Y . Man mano che ci si sposta a destra, verso i componenti successivi, gli autovalori diminuiscono. Quando la caduta cessa e la curva fa un gomito verso un declino meno ripido, lo scree test di Cattell dice di abbandonare tutti i componenti successivi a quello che inizia dal gomito. Questa regola è a volte criticata per essere suscettibile di " frodi " controllati dai ricercatori . Cioè, poiché la scelta del "gomito" può essere soggettiva perché la curva ha più gomiti o è una curva liscia, il ricercatore può essere tentato di impostare il limite al numero di fattori desiderati dalla loro agenda di ricerca.

Criteri spiegati dalla varianza: alcuni ricercatori usano semplicemente la regola di mantenere un numero sufficiente di fattori per rappresentare il 90% (a volte l'80%) della variazione. Laddove l'obiettivo del ricercatore enfatizza la parsimonia (spiegando la varianza con il minor numero di fattori possibile), il criterio potrebbe essere inferiore al 50%.

metodo bayesiano

Un approccio bayesiano basato sul processo del buffet indiano restituisce una distribuzione di probabilità sul numero plausibile di fattori latenti.

Metodi di rotazione

L'output non ruotato massimizza la varianza spiegata dal primo e dai successivi fattori e obbliga i fattori ad essere ortogonali . Questa compressione dei dati ha il costo di caricare la maggior parte degli elementi sui primi fattori e, di solito, di caricare molti elementi sostanzialmente su più di un fattore. La rotazione serve a rendere più comprensibile l'output, cercando la cosiddetta "Struttura Semplice": uno schema di caricamenti in cui ogni articolo carica fortemente solo uno dei fattori e molto più debolmente sugli altri fattori. Le rotazioni possono essere ortogonali o oblique (permettendo ai fattori di correlare).

La rotazione Varimax è una rotazione ortogonale degli assi fattoriali per massimizzare la varianza dei carichi quadrati di un fattore (colonna) su tutte le variabili (righe) in una matrice fattoriale, che ha l'effetto di differenziare le variabili originali per fattore estratto. Ogni fattore tenderà ad avere carichi grandi o piccoli di una particolare variabile. Una soluzione varimax produce risultati che rendono il più semplice possibile identificare ogni variabile con un singolo fattore. Questa è l'opzione di rotazione più comune. Tuttavia, l'ortogonalità (cioè l'indipendenza) dei fattori è spesso un'assunzione irrealistica. Le rotazioni oblique includono la rotazione ortogonale e, per questo motivo, le rotazioni oblique sono un metodo preferito. Ammettere fattori che sono correlati tra loro è particolarmente applicabile nella ricerca psicometrica, poiché atteggiamenti, opinioni e capacità intellettuali tendono ad essere correlati e poiché sarebbe irrealistico in molte situazioni assumere il contrario.

La rotazione Quartimax è un'alternativa ortogonale che riduce al minimo il numero di fattori necessari per spiegare ciascuna variabile. Questo tipo di rotazione genera spesso un fattore generale su cui la maggior parte delle variabili viene caricata in misura alta o media. Una tale struttura di fattori di solito non è utile allo scopo della ricerca.

La rotazione Equimax è un compromesso tra i criteri varimax e quartimax.

La rotazione diretta dell'oblimin è il metodo standard quando si desidera una soluzione non ortogonale (obliqua), ovvero una in cui i fattori possono essere correlati. Ciò si tradurrà in autovalori più elevati ma in una minore interpretabilità dei fattori. Vedi sotto.

La rotazione Promax è un metodo di rotazione alternativo non ortogonale (obliquo) che è computazionalmente più veloce del metodo oblimin diretto e pertanto viene talvolta utilizzato per set di dati molto grandi .

Analisi fattoriale di ordine superiore

L'analisi fattoriale di ordine superiore è un metodo statistico che consiste nell'analisi fattoriale a passaggi ripetuti – rotazione obliqua – analisi fattoriale dei fattori ruotati. Il suo merito è quello di consentire al ricercatore di vedere la struttura gerarchica dei fenomeni studiati. Per interpretare i risultati, si procede post-moltiplicando la matrice del pattern fattoriale primario per le matrici del pattern fattoriale di ordine superiore (Gorsuch, 1983) e magari applicando una rotazione Varimax al risultato (Thompson, 1990) o usando un metodo Schmid- Soluzione di Leiman (SLS, Schmid & Leiman, 1957, nota anche come trasformazione di Schmid-Leiman) che attribuisce la variazione dai fattori primari ai fattori del secondo ordine.

In psicometria

Storia

Charles Spearman è stato il primo psicologo a discutere l'analisi dei fattori comuni e lo ha fatto nel suo articolo del 1904. Forniva pochi dettagli sui suoi metodi e riguardava i modelli a fattore singolo. Ha scoperto che i punteggi dei bambini in età scolare su un'ampia varietà di argomenti apparentemente non correlati erano correlati positivamente, il che lo ha portato a postulare che una singola capacità mentale generale, og , è alla base e modella le prestazioni cognitive umane.

Lo sviluppo iniziale dell'analisi fattoriale comune con fattori multipli è stato fornito da Louis Thurstone in due articoli nei primi anni '30, riassunti nel suo libro del 1935, The Vector of Mind . Thurstone ha introdotto diversi importanti concetti di analisi fattoriale, tra cui comunanza, unicità e rotazione. Ha sostenuto la "struttura semplice" e ha sviluppato metodi di rotazione che potrebbero essere utilizzati come un modo per ottenere tale struttura.

Nella metodologia Q , Stephenson, uno studente di Spearman, distingue tra analisi fattoriale R , orientata allo studio delle differenze interindividuali, e analisi fattoriale Q orientata verso differenze intra-individuali soggettive.

Raymond Cattell era un forte sostenitore dell'analisi fattoriale e della psicometria e usava la teoria multifattoriale di Thurstone per spiegare l'intelligenza. Cattell ha anche sviluppato il test "scree" e i coefficienti di somiglianza.

Applicazioni in psicologia

L'analisi fattoriale viene utilizzata per identificare "fattori" che spiegano una varietà di risultati su test diversi. Ad esempio, la ricerca sull'intelligenza ha scoperto che le persone che ottengono un punteggio elevato in un test di abilità verbale sono anche brave in altri test che richiedono abilità verbali. I ricercatori hanno spiegato questo utilizzando l'analisi fattoriale per isolare un fattore, spesso chiamato intelligenza verbale, che rappresenta il grado in cui qualcuno è in grado di risolvere problemi che coinvolgono abilità verbali.

L'analisi fattoriale in psicologia è più spesso associata alla ricerca sull'intelligenza. Tuttavia, è stato anche utilizzato per trovare fattori in un'ampia gamma di domini come personalità, atteggiamenti, credenze, ecc. È collegato alla psicometria , poiché può valutare la validità di uno strumento trovando se lo strumento misura effettivamente il postulato fattori.

L'analisi fattoriale è una tecnica frequentemente utilizzata nella ricerca interculturale. Serve allo scopo di estrarre dimensioni culturali . I modelli di dimensione culturale più conosciuti sono quelli elaborati da Geert Hofstede , Ronald Inglehart , Christian Welzel , Shalom Schwartz e Michael Minkov.

Vantaggi

  • Riduzione del numero di variabili, combinando due o più variabili in un unico fattore. Ad esempio, le prestazioni nella corsa, nel lancio della palla, nella battuta, nel salto e nel sollevamento pesi potrebbero essere combinate in un unico fattore come l'abilità atletica generale. Di solito, in una matrice elemento per persone, i fattori vengono selezionati raggruppando elementi correlati. Nella tecnica dell'analisi fattoriale Q la matrice viene trasposta e i fattori vengono creati raggruppando persone correlate. Ad esempio, liberali, libertari, conservatori e socialisti potrebbero formare gruppi separati.
  • Identificazione di gruppi di variabili interconnesse, per vedere come sono correlate tra loro. Ad esempio, Carroll ha utilizzato l'analisi fattoriale per costruire la sua teoria dei tre strati . Ha scoperto che un fattore chiamato "ampia percezione visiva" si riferisce a quanto un individuo è bravo nei compiti visivi. Ha anche trovato un fattore di "ampia percezione uditiva", relativo alla capacità del compito uditivo. Inoltre, ha trovato un fattore globale, chiamato "g" o intelligenza generale, che si riferisce sia alla "ampia percezione visiva" che alla "ampia percezione uditiva". Ciò significa che qualcuno con una "g" alta è probabile che abbia sia un'alta capacità di "percezione visiva" che un'alta capacità di "percezione uditiva", e che la "g" spiega quindi una buona parte del motivo per cui qualcuno è buono o cattivo in entrambi quei domini.

Svantaggi

  • "...ogni orientamento è ugualmente accettabile matematicamente. Ma diverse teorie fattoriali si sono dimostrate diverse tanto in termini di orientamenti degli assi fattoriali per una data soluzione quanto in termini di qualsiasi altra cosa, così che l'adattamento del modello non si è rivelato utile in distinzione tra teorie». (Sternberg, 1977). Ciò significa che tutte le rotazioni rappresentano diversi processi sottostanti, ma tutte le rotazioni sono risultati ugualmente validi dell'ottimizzazione dell'analisi fattoriale standard. Pertanto, è impossibile scegliere la rotazione corretta utilizzando solo l'analisi fattoriale.
  • L'analisi fattoriale può essere valida solo se i dati lo consentono. In psicologia, dove i ricercatori devono spesso fare affidamento su misure meno valide e affidabili come le autovalutazioni, questo può essere problematico.
  • L'interpretazione dell'analisi fattoriale si basa sull'utilizzo di una "euristica", che è una soluzione "conveniente anche se non assolutamente vera". È possibile fare più di un'interpretazione degli stessi dati fattorizzati allo stesso modo e l'analisi fattoriale non può identificare la causalità.

Analisi fattoriale esplorativa (EFA) rispetto all'analisi delle componenti principali (PCA)

L'analisi fattoriale è correlata all'analisi delle componenti principali (PCA), ma le due non sono identiche. C'è stata una controversia significativa nel campo sulle differenze tra le due tecniche. La PCA può essere considerata come una versione più elementare dell'analisi fattoriale esplorativa (EFA) sviluppata nei primi giorni prima dell'avvento dei computer ad alta velocità. Sia la PCA che l'analisi fattoriale mirano a ridurre la dimensionalità di un insieme di dati, ma gli approcci adottati per farlo sono diversi per le due tecniche. L'analisi fattoriale è chiaramente progettata con l'obiettivo di identificare alcuni fattori non osservabili dalle variabili osservate, mentre la PCA non affronta direttamente questo obiettivo; nella migliore delle ipotesi, la PCA fornisce un'approssimazione dei fattori richiesti. Dal punto di vista dell'analisi esplorativa, gli autovalori della PCA sono carichi di componenti gonfiati, cioè contaminati da varianza di errore.

Sebbene EFA e PCA siano trattati come tecniche sinonimi in alcuni campi della statistica, ciò è stato criticato. L'analisi fattoriale "si occupa dell'assunzione di una struttura causale sottostante : [essa] presuppone che la covarianza nelle variabili osservate sia dovuta alla presenza di una o più variabili latenti (fattori) che esercitano un'influenza causale su queste variabili osservate". Al contrario, la PCA non presuppone né dipende da tale relazione causale sottostante. I ricercatori hanno sostenuto che le distinzioni tra le due tecniche possono significare che ci sono vantaggi oggettivi nel preferire l'una all'altra in base all'obiettivo analitico. Se il modello fattoriale è formulato in modo errato o le ipotesi non sono soddisfatte, l'analisi fattoriale darà risultati errati. L'analisi fattoriale è stata utilizzata con successo laddove un'adeguata comprensione del sistema consente buone formulazioni del modello iniziale. PCA utilizza una trasformazione matematica dei dati originali senza ipotesi sulla forma della matrice di covarianza. L'obiettivo della PCA è determinare combinazioni lineari delle variabili originali e selezionarne alcune che possono essere utilizzate per riassumere il set di dati senza perdere molte informazioni.

Argomenti in contrasto tra PCA ed EFA

Fabrigare et al. (1999) affrontano una serie di ragioni utilizzate per suggerire che la PCA non è equivalente all'analisi fattoriale:

  1. A volte si suggerisce che la PCA sia computazionalmente più veloce e richieda meno risorse rispetto all'analisi fattoriale. Fabrigare et al. suggeriscono che le risorse informatiche facilmente disponibili hanno reso irrilevante questa preoccupazione pratica.
  2. La PCA e l'analisi fattoriale possono produrre risultati simili. Questo punto è affrontato anche da Fabrigar et al.; in alcuni casi, in cui le comunanze sono basse (es. 0,4), le due tecniche producono risultati divergenti. Infatti, Fabrigar et al. sostengono che nei casi in cui i dati corrispondono alle ipotesi del modello a fattori comuni, i risultati della PCA sono risultati imprecisi.
  3. Ci sono alcuni casi in cui l'analisi fattoriale porta a "casi Heywood". Questi comprendono situazioni in cui si stima che il 100% o più della varianza in una variabile misurata sia contabilizzata dal modello. Fabrigare et al. suggeriscono che questi casi sono effettivamente informativi per il ricercatore, indicando un modello specificato in modo errato o una violazione del modello a fattori comuni. La mancanza di casi Heywood nell'approccio PCA può significare che tali problemi passano inosservati.
  4. I ricercatori ottengono informazioni aggiuntive da un approccio PCA, come il punteggio di un individuo su un determinato componente; tali informazioni non sono ricavate dall'analisi fattoriale. Tuttavia, come Fabrigar et al. sostengono, lo scopo tipico dell'analisi fattoriale – cioè determinare i fattori che spiegano la struttura delle correlazioni tra le variabili misurate – non richiede la conoscenza dei punteggi fattoriali e quindi questo vantaggio è negato. È anche possibile calcolare i punteggi fattoriali da un'analisi fattoriale.

Varianza contro covarianza

L'analisi fattoriale tiene conto dell'errore casuale inerente alla misurazione, mentre la PCA non lo fa. Questo punto è esemplificato da Brown (2009), il quale ha indicato che, rispetto alle matrici di correlazione coinvolte nei calcoli:

"Nella PCA, gli 1.00 vengono inseriti nella diagonale, il che significa che deve essere presa in considerazione tutta la varianza nella matrice (inclusa la varianza unica per ciascuna variabile, la varianza comune tra le variabili e la varianza dell'errore). Ciò sarebbe, quindi, per definizione , includere tutta la varianza nelle variabili. Al contrario, in EFA, le comunanze sono messe nella diagonale, il che significa che deve essere considerata solo la varianza condivisa con altre variabili (escludendo la varianza unica per ciascuna variabile e la varianza dell'errore). dovrebbe, quindi, per definizione, includere solo la varianza comune tra le variabili."

—  Brown (2009), Analisi delle componenti principali e analisi fattoriale esplorativa – Definizioni, differenze e scelte

Per questo motivo, Brown (2009) raccomanda di utilizzare l'analisi fattoriale quando esistono idee teoriche sulle relazioni tra le variabili, mentre la PCA dovrebbe essere utilizzata se l'obiettivo del ricercatore è esplorare i modelli nei propri dati.

Differenze nella procedura e nei risultati

Le differenze tra PCA e analisi fattoriale (FA) sono ulteriormente illustrate da Suhr (2009):

  • La PCA si traduce in componenti principali che rappresentano una quantità massima di varianza per le variabili osservate; FA tiene conto della varianza comune nei dati.
  • PCA ne inserisce quelli sulle diagonali della matrice di correlazione; FA regola le diagonali della matrice di correlazione con i fattori unici.
  • PCA riduce al minimo la somma della distanza perpendicolare al quadrato rispetto all'asse del componente; FA stima i fattori che influenzano le risposte sulle variabili osservate.
  • I punteggi dei componenti in PCA rappresentano una combinazione lineare delle variabili osservate pesate dagli autovettori ; le variabili osservate in FA sono combinazioni lineari dei fattori sottostanti e unici.
  • In PCA, i componenti prodotti non sono interpretabili, cioè non rappresentano 'costrutti' sottostanti; in FA, i costrutti sottostanti possono essere etichettati e facilmente interpretati, data una precisa specificazione del modello.


Nel marketing

I passaggi fondamentali sono:

  • Identificare gli attributi salienti utilizzati dai consumatori per valutare i prodotti in questa categoria.
  • Utilizza tecniche di ricerca di marketing quantitative (come i sondaggi ) per raccogliere dati da un campione di potenziali clienti in merito alle loro valutazioni di tutti gli attributi del prodotto.
  • Immettere i dati in un programma statistico ed eseguire la procedura di analisi fattoriale. Il computer produrrà una serie di attributi (o fattori) sottostanti.
  • Usa questi fattori per costruire mappe percettive e altri dispositivi di posizionamento del prodotto .

Raccolta di informazioni

La fase di raccolta dei dati viene solitamente eseguita da professionisti delle ricerche di mercato. Le domande del sondaggio chiedono al rispondente di valutare un campione di prodotto o descrizioni di concetti di prodotto in base a una serie di attributi. Ovunque vengono scelti da cinque a venti attributi. Potrebbero includere cose come: facilità d'uso, peso, precisione, durata, colore, prezzo o dimensioni. Gli attributi scelti varieranno a seconda del prodotto oggetto di studio. La stessa domanda viene posta per tutti i prodotti dello studio. I dati per più prodotti vengono codificati e inseriti in un programma statistico come R , SPSS , SAS , Stata , STATISTICA , JMP e SYSTAT.

Analisi

L'analisi isolerà i fattori sottostanti che spiegano i dati utilizzando una matrice di associazioni. L'analisi fattoriale è una tecnica di interdipendenza. Viene esaminato l'insieme completo delle relazioni interdipendenti. Non ci sono specifiche di variabili dipendenti, variabili indipendenti o causalità. L'analisi fattoriale presuppone che tutti i dati di valutazione sui diversi attributi possano essere ridotti a poche dimensioni importanti. Questa riduzione è possibile perché alcuni attributi possono essere correlati tra loro. La valutazione data a un attributo è in parte il risultato dell'influenza di altri attributi. L'algoritmo statistico decostruisce il punteggio (chiamato punteggio grezzo) nelle sue varie componenti e ricostruisce i punteggi parziali in punteggi fattoriali sottostanti. Il grado di correlazione tra il punteggio grezzo iniziale e il punteggio fattoriale finale è chiamato caricamento fattoriale .

Vantaggi

  • Possono essere utilizzati sia attributi oggettivi che soggettivi, a condizione che gli attributi soggettivi possano essere convertiti in punteggi.
  • L'analisi fattoriale può identificare dimensioni o costrutti latenti che l'analisi diretta potrebbe non identificare.
  • È facile ed economico.

Svantaggi

  • L'utilità dipende dalla capacità dei ricercatori di raccogliere un insieme sufficiente di attributi del prodotto. Se si escludono o si trascurano attributi importanti, il valore della procedura viene ridotto.
  • Se gli insiemi di variabili osservate sono molto simili tra loro e distinti dagli altri elementi, l'analisi fattoriale assegnerà loro un singolo fattore. Questo può oscurare fattori che rappresentano relazioni più interessanti.
  • I fattori di denominazione possono richiedere la conoscenza della teoria perché attributi apparentemente dissimili possono correlarsi fortemente per ragioni sconosciute.

Nelle scienze fisiche e biologiche

L'analisi fattoriale è stata anche ampiamente utilizzata nelle scienze fisiche come la geochimica , l' idrochimica , l' astrofisica e la cosmologia , nonché nelle scienze biologiche, come l' ecologia , la biologia molecolare , le neuroscienze e la biochimica .

Nella gestione della qualità delle acque sotterranee, è importante mettere in relazione la distribuzione spaziale dei diversi parametri chimici a diverse possibili fonti, che hanno firme chimiche diverse. Ad esempio, è probabile che una miniera di solfuri sia associata a livelli elevati di acidità, solfati disciolti e metalli di transizione. Queste firme possono essere identificate come fattori attraverso l'analisi fattoriale in modalità R e la posizione di possibili fonti può essere suggerita modellando i punteggi dei fattori.

In geochimica , fattori diversi possono corrispondere a diverse associazioni di minerali, e quindi alla mineralizzazione.

Nell'analisi dei microarray

L'analisi fattoriale può essere utilizzata per riassumere i dati dei microarray di DNA di oligonucleotidi ad alta densità a livello di sonda per Affymetrix GeneChips. In questo caso, la variabile latente corrisponde alla concentrazione di RNA in un campione.

Implementazione

L'analisi fattoriale è stata implementata in diversi programmi di analisi statistica dagli anni '80:

Guarda anche

Riferimenti

Ulteriori letture

link esterno