Faktorová analýza - Factor analysis

Faktorová analýza je statistická metoda používaná k popisu variability mezi pozorovanými, korelovanými proměnnými z hlediska potenciálně nižšího počtu nepozorovaných proměnných nazývaných faktory . Například je možné, že variace v šesti pozorovaných proměnných odrážejí hlavně variace ve dvou nepozorovaných (podkladových) proměnných. Faktorová analýza hledá takovéto společné variace v reakci na nepozorované latentní proměnné . Pozorované proměnné jsou modelovány jako lineární kombinace potenciálních faktorů plus termíny „ chyba “.

Zjednodušeně řečeno, faktorové zatížení proměnné kvantifikuje rozsah, v jakém proměnná souvisí s daným faktorem.

Běžným důvodem faktorových analytických metod je, že informace získané o vzájemných závislostech mezi pozorovanými proměnnými lze později použít ke snížení sady proměnných v datové sadě. Faktorová analýza se běžně používá v psychometrii , teoriích osobnosti , biologii, marketingu , produktovém managementu , operačním výzkumu , financích a strojovém učení . Může pomoci vypořádat se se soubory dat, kde existuje velký počet pozorovaných proměnných, u nichž se předpokládá, že odrážejí menší počet podkladových/latentních proměnných. Je to jedna z nejčastěji používaných technik vzájemné závislosti a používá se, když příslušná sada proměnných vykazuje systematickou vzájemnou závislost a cílem je zjistit latentní faktory, které vytvářejí shodnost.

Statistický model

Definice

Model se pokouší vysvětlit sadu pozorování u každého jednotlivce pomocí souboru společných faktorů ( ), kde je méně faktorů na jednotku než pozorování na jednotku ( ). Každý jedinec má své vlastní společné faktory, a ty souvisejí s pozorováním pomocí matice načítání faktorů ( ), pro jedno pozorování, podle

přičemž

  • je hodnota th pozorování th jednotlivce,
  • je průměr pozorování pro toto pozorování,
  • je zatížení pro th pozorování th faktoru,
  • je hodnota th faktoru th jednotlivce, a
  • je th nepozorovaně stochastický chyba termín s průměrem nula a konečnou rozptylu.


V maticovém zápisu

kde pozorovací matice , faktorová matice , matice chybových termínů a střední matice, kde th element je jednoduše .

Rovněž uložíme následující předpoklady pro :

  1. a jsou nezávislí.
  2. ; kde je očekávání
  3. kde je kovarianční matice , aby se zajistilo, že faktory nejsou korelované, a je matice identity .

Předpokládejme . Pak

a proto, z podmínek uložených nad,

nebo, nastavení ,

Všimněte si toho, že pro jakoukoli ortogonální matici , pokud nastavíme a , kritéria pro součinitele a zatížení faktorů stále platí. Sada faktorů a faktorových zatížení je tedy jedinečná pouze do ortogonální transformace .

Příklad

Předpokládejme, že psycholog má hypotézu, že existují dva druhy inteligence , „verbální inteligence“ a „matematická inteligence“, z nichž ani jeden není přímo pozorován. Důkazy pro hypotézu se hledají ve výsledcích zkoušek z každého z 10 různých akademických oborů po 1000 studentech. Pokud je každý student vybrán náhodně z velké populace , pak je 10 skóre každého studenta náhodnými proměnnými. Hypotéza psychologa může říci, že pro každý z 10 akademických oborů je průměrné skóre pro skupinu všech studentů, kteří sdílejí nějakou společnou dvojici hodnot pro verbální a matematické „inteligence“, několik konstant krát jejich úroveň verbální inteligence plus další konstantní časy jejich úroveň matematické inteligence, tj. je to lineární kombinace těchto dvou „faktorů“. Čísla pro konkrétní předmět, kterými se tyto dva druhy inteligence vynásobí, aby se získalo očekávané skóre, jsou podle hypotézy považována za stejná pro všechny páry úrovní inteligence a pro tento předmět se jim říká „načítání faktorů“ . Hypotéza může například tvrdit, že předpokládaná průměrná schopnost studenta v oblasti astronomie je

{10 × verbální inteligence studenta} + {6 × matematická inteligence studenta}.

Čísla 10 a 6 jsou faktorová zatížení spojená s astronomií. Jiné akademické předměty mohou mít různé zatížení faktorů.

Dva studenti, u nichž se předpokládalo, že mají identické stupně verbální a matematické inteligence, mohou mít v astronomii různé naměřené schopnosti, protože jednotlivé schopnosti se liší od průměrných schopností (předpovídaných výše) a kvůli samotné chybě měření. Takové rozdíly tvoří to, čemu se souhrnně říká „chyba“ - statistický termín, který znamená částku, o kterou se jedinec, měřeno, liší od toho, co je průměrné nebo předpovídané úrovní jeho inteligence (viz chyby a zbytky ve statistikách ).

Pozorovatelná data, která vstupují do faktorové analýzy, by byla 10 skóre od každého z 1000 studentů, celkem 10 000 čísel. Faktorové zátěže a úrovně těchto dvou druhů inteligence každého studenta musí být odvozeny z dat.

Matematický model stejného příkladu

V následujícím textu budou matice označeny indexovanými proměnnými. „Subjekt“ indexy budou označeny pomocí písmen , a , s hodnotami běží z na , která se rovná ve výše uvedeném příkladu. „Faktor“ indexy budou označeny pomocí písmen , a , s hodnotami běží z na , která se rovná ve výše uvedeném příkladu. „Instance“ nebo „vzorek“ indexy budou označeny pomocí písmen , a , s hodnotami běží od do . Pokud se ve výše uvedeném příkladu zkoušek zúčastnil vzorek studentů , skóre th studenta za tuto zkoušku je dáno symbolem . Účelem faktorové analýzy je charakterizovat korelace mezi proměnnými, kterých jsou konkrétní instance nebo soubor pozorování. Aby byly proměnné na stejné úrovni, jsou normalizovány na standardní skóre :

kde průměr vzorku je:

a rozptyl vzorku je dán:

Model faktorové analýzy pro tento konkrétní vzorek je pak:

nebo stručněji:

kde

  • je „verbální inteligence“ studenta,
  • je studentova „matematická inteligence“,
  • jsou faktorová zatížení pro th. předmět, pro .

V maticovém zápisu máme

Všimněte si toho, že zdvojnásobením měřítka, ve kterém se měří „verbální inteligence“ - první složka v každém sloupci - a současným snížením zatížení faktorů pro verbální inteligenci na polovinu, to na modelu nic nezmění. Žádná obecnost tedy není ztracena za předpokladu, že standardní odchylka faktorů verbální inteligence je . Stejně tak pro matematickou inteligenci. Navíc z podobných důvodů není ztracena žádná obecnost za předpokladu, že tyto dva faktory spolu nesouvisí . Jinými slovy:

kde je delta Kroneckeru ( kdy a kdy ). Chyby se považují za nezávislé na faktorech:

Všimněte si toho, že protože jakákoli rotace řešení je také řešením, ztěžuje to interpretaci faktorů. Viz nevýhody níže. V tomto konkrétním případě, pokud předem nevíme, že tyto dva typy inteligence nesouvisejí, pak nemůžeme tyto dva faktory interpretovat jako dva různé typy inteligence. I když jsou nekorelovaní, nemůžeme bez vnějšího argumentu říci, který faktor odpovídá verbální inteligenci a který odpovídá matematické inteligenci.

Hodnoty zatížení , průměry a odchylky „chyb“ musí být odhadnuty na základě pozorovaných údajů a (předpoklad o úrovních faktorů je pro daný případ pevně stanoven ). „Základní věta“ může být odvozena z výše uvedených podmínek:

Termín vlevo je -term korelační matice ( matice odvozená jako součin matice standardizovaných pozorování s její transpozicí) pozorovaných dat a její diagonální prvky budou s. Druhý člen vpravo bude diagonální matice s výrazy menšími než jednota. První výraz vpravo je „redukovaná korelační matice“ a bude se rovnat korelační matici s výjimkou jejích diagonálních hodnot, které budou menší než jednota. Tyto diagonální prvky redukované korelační matice se nazývají „komunity“ (které představují zlomek rozptylu v pozorované proměnné, který je zohledněn faktory):

Data vzorku samozřejmě nebudou přesně odpovídat výše uvedené základní rovnici kvůli chybám vzorkování, nedostatečnosti modelu atd. Cílem jakékoli analýzy výše uvedeného modelu je najít faktory a zatížení, které v určitém smyslu dát „nejlepší shodu“ s daty. Ve faktorové analýze je nejlepší shoda definována jako minimum průměrné čtvercové chyby v off-diagonálních zbytcích korelační matice:

To je ekvivalentní minimalizaci off-diagonálních komponent kovarianční chyby, které v modelových rovnicích mají očekávané hodnoty nula. To je v kontrastu s analýzou hlavních komponent, která se snaží minimalizovat střední kvadratickou chybu všech reziduí. Před příchodem vysokorychlostních počítačů bylo značné úsilí věnováno hledání přibližných řešení problému, zejména při odhadu komunit jiným způsobem, což pak problém značně zjednodušuje poskytnutím známé redukované korelační matice. To bylo poté použito k odhadu faktorů a zatížení. S příchodem vysokorychlostních počítačů lze problém minimalizace iterativně vyřešit adekvátní rychlostí a komunity se v tomto procesu vypočítávají, než aby byly předem potřeba. MinRes algoritmus je obzvláště vhodný pro tento problém, ale je sotva pouze iterační prostředkem nalezení řešení.

Pokud je dovoleno korelovat faktory řešení (jako například v rotaci „oblimin“), pak odpovídající matematický model používá spíše souřadnice šikmé než ortogonální.

Geometrická interpretace

Geometrická interpretace parametrů faktorové analýzy pro 3 respondenty na otázku „a“. "Odpověď" je reprezentována jednotkovým vektorem , který je promítán do roviny definované dvěma ortonormálními vektory a . Projekční vektor je a chyba je kolmá na rovinu, takže . Projekční vektor může být reprezentován z hlediska faktorových vektorů jako . Čtverec délky projekce vektoru je pospolitosti: . Pokud by byl vynesen jiný datový vektor , kosinus úhlu mezi a by byl  : -entry v korelační matici. (Převzato z Harman obr. 4.3)

Parametry a proměnné faktorové analýzy lze poskytnout geometrickou interpretací. Data ( ), faktory ( ) a chyby ( ) může být viděn jako vektory v rozměrné euklidovském prostoru (vzorek prostor), reprezentován jako , a v tomto pořadí. Protože jsou data standardizována, mají datové vektory jednotkovou délku ( ). Faktorové vektory definují -dimenzionální lineární podprostor (tj. Hyperplane) v tomto prostoru, na který jsou datové vektory promítány ortogonálně. Vyplývá to z modelové rovnice

a nezávislost faktorů a chyb: . Ve výše uvedeném příkladu je hyperplane pouze 2-dimenzionální rovina definovaná dvěma vektory faktorů. Projekce datových vektorů na hyperplanu je dána vztahem

a chyby jsou vektory z tohoto promítnutého bodu do datového bodu a jsou kolmé na hyperplanu. Cílem faktorové analýzy je najít hyperplanu, která je v určitém smyslu "nejvhodnější" pro data, takže nezáleží na tom, jak jsou vybrány faktorové vektory, které definují tuto hyperplanu, pokud jsou nezávislé a leží v hyperplane. Můžeme je svobodně určit jako ortogonální i normální ( ) bez ztráty obecnosti. Poté, co se najde vhodný soubor faktorů, mohou být také libovolně otáčeny v hyperplane, takže jakákoli rotace faktorových vektorů bude definovat stejnou hyperplane a bude také řešením. V důsledku toho ve výše uvedeném příkladu, ve kterém je přiléhající hyperplana dvourozměrná, pokud předem nevíme, že tyto dva typy inteligence nejsou korelovány, pak nemůžeme tyto dva faktory interpretovat jako dva různé typy inteligence. I když jsou nekorelovaní, nemůžeme bez vnějšího argumentu říci, který faktor odpovídá verbální inteligenci a který odpovídá matematické inteligenci, nebo zda jsou faktory lineární kombinací obou.

Datové vektory mají jednotkovou délku. Záznamy korelační matice pro data jsou dány znakem . Korelační matici lze geometricky interpretovat jako kosinus úhlu mezi dvěma datovými vektory a . Diagonální prvky budou jasně s a off diagonální prvky budou mít absolutní hodnoty menší nebo rovné jednotě. "Redukovaná korelační matice" je definována jako

.

Cílem faktorové analýzy je vybrat vhodnou hyperplanu tak, aby redukovaná korelační matice reprodukovala korelační matici co nejblíže, kromě diagonálních prvků korelační matice, o nichž je známo, že mají jednotkovou hodnotu. Jinými slovy, cílem je reprodukovat co nejpřesněji vzájemné korelace v datech. Konkrétně pro montážní hyperplane průměrná čtvercová chyba v ne-diagonálních komponentách

má být minimalizováno, a toho je dosaženo minimalizací s ohledem na sadu vektorů ortonormálních faktorů. Je to vidět

Výraz napravo je pouze kovariancí chyb. V modelu je kovarianční chyba uvedena jako diagonální matice, a tak výše uvedený problém s minimalizací ve skutečnosti poskytne „nejlepší přizpůsobení“ modelu: Získá ukázkový odhad kovarianční chyby, která má své off-diagonální komponenty minimalizováno ve smyslu čtvercového průměru. Je vidět, že vzhledem k tomu, že jde o ortogonální projekce datových vektorů, bude jejich délka menší nebo rovna délce projektovaného datového vektoru, což je jednota. Čtverec těchto délek jsou pouze diagonální prvky redukované korelační matice. Tyto diagonální prvky redukované korelační matice jsou známé jako „komunity“:

Velké hodnoty společenstev naznačují, že přiléhající hyperplane poměrně přesně reprodukuje korelační matici. Střední hodnoty faktorů musí být také omezeny na nulu, z čehož vyplývá, že střední hodnoty chyb budou také nulové.

Praktická implementace

Typy faktorové analýzy

Průzkumná faktorová analýza

Průzkumná faktorová analýza (EFA) se používá k identifikaci složitých vzájemných vztahů mezi položkami a skupinovými položkami, které jsou součástí unifikovaných konceptů. Výzkumník nedělá apriorní předpoklady o vztazích mezi faktory.

Potvrzující faktorová analýza

Potvrzující faktorová analýza (CFA) je komplexnější přístup, který testuje hypotézu, že položky jsou spojeny se specifickými faktory. CFA používá modelování strukturních rovnic k testování modelu měření, přičemž zatížení faktorů umožňuje vyhodnocení vztahů mezi pozorovanými proměnnými a nepozorovanými proměnnými. Přístupy modelování strukturálních rovnic mohou pojmout chybu měření a jsou méně omezující než odhad nejmenších čtverců . Hypotézované modely jsou testovány na skutečných datech a analýza by prokázala zatížení pozorovaných proměnných latentními proměnnými (faktory), jakož i korelaci mezi latentními proměnnými.

Typy extrakce faktorů

Analýza hlavních komponent (PCA) je široce používanou metodou pro extrakci faktorů, což je první fáze EFA. Faktorové hmotnosti jsou vypočítány tak, aby byla získána maximální možná odchylka, přičemž postupné rozdělování faktorů pokračuje, dokud nezbude žádná další smysluplná odchylka. Faktorový model je pak nutné pro analýzu otočit.

Kanonická faktorová analýza, nazývaná také Raoův kanonický faktoring, je odlišnou metodou výpočtu stejného modelu jako PCA, který používá metodu hlavní osy. Kanonická faktorová analýza hledá faktory, které mají nejvyšší kanonickou korelaci s pozorovanými proměnnými. Kanonická faktorová analýza není ovlivněna libovolným změnou měřítka dat.

Společná faktorová analýza, nazývaná také hlavní faktorová analýza (PFA) nebo hlavní osová faktorizace (PAF), hledá nejméně faktorů, které mohou být příčinou společné rozptylu (korelace) sady proměnných.

Image factoring je založen spíše na korelační matici predikovaných proměnných než skutečných proměnných, kde je každá proměnná predikována od ostatních pomocí vícenásobné regrese .

Alfa faktoring je založen na maximalizaci spolehlivosti faktorů za předpokladu, že proměnné jsou náhodně vzorkovány z vesmíru proměnných. Všechny ostatní metody předpokládají, že případy budou vzorkovány a proměnné opraveny.

Faktorový regresní model je kombinatorický model faktorového modelu a regresního modelu; nebo alternativně na něj lze pohlížet jako na model hybridního faktoru, jehož faktory jsou částečně známé.

Terminologie

Faktorové zatížení: Komunita je druhou mocninou standardizovaného vnějšího zatížení položky. Analogicky k Pearsonově r -quared, je načítání čtvercového faktoru procento rozptylu v této indikátorové proměnné vysvětlené faktorem. Chcete -li získat procento rozptylu ve všech proměnných účtovaných každým faktorem, sečtěte součet čtvercových zatížení faktorů pro tento faktor (sloupec) a vydělte počtem proměnných. (Všimněte si, že počet proměnných se rovná součtu jejich odchylek, protože rozptyl standardizované proměnné je 1.) To je stejné jako při dělení vlastní hodnoty faktoru počtem proměnných.

Interpretace faktorových zátěží: Podle jedné zásady v potvrzovací faktorové analýze by zatížení mělo být 0,7 nebo vyšší, aby se potvrdilo, že nezávislé proměnné identifikované a priori jsou reprezentovány konkrétním faktorem, a to z toho důvodu, že úroveň 0,7 odpovídá přibližně polovině rozptyl v indikátoru je vysvětlen faktorem. Standard 0,7 je však vysoký a data v reálném životě nemusí toto kritérium splňovat, a proto někteří výzkumníci, zejména pro průzkumné účely, použijí nižší úroveň, například 0,4 pro centrální faktor a 0,25 pro další faktory. V každém případě musí být faktorové zatížení interpretováno ve světle teorie, nikoli pomocí libovolných mezních úrovní.

Při šikmé rotaci lze zkoumat matici vzoru i matici struktury. Strukturní matice je jednoduše matice načítání faktorů jako v ortogonální rotaci, představující rozptyl v měřené proměnné vysvětlovaný faktorem na jedinečné i společné bázi příspěvků. Matice vzorů naopak obsahuje koeficienty, které představují jedinečné příspěvky. Čím více faktorů, tím nižší jsou zpravidla koeficienty vzoru, protože bude vysvětleno více společných příspěvků k rozptylu. Při šikmé rotaci zkoumá výzkumník jak koeficienty struktury, tak vzorce při přiřazování štítku faktoru. Principy šikmé rotace lze odvodit jak z křížové entropie, tak z její duální entropie.

Komunita: Součet čtvercových zatížení faktorů pro všechny faktory pro danou proměnnou (řádek) je rozptyl v této proměnné, který je zohledněn všemi faktory. Komunita měří procento rozptylu v dané proměnné vysvětlované všemi faktory společně a může být interpretována jako spolehlivost indikátoru v kontextu předpokládaných faktorů.

Falešná řešení: Pokud komunita překročí 1,0, existuje falešné řešení, které může odrážet příliš malý vzorek nebo volbu extrahovat příliš mnoho nebo příliš málo faktorů.

Jedinečnost proměnné: Proměnlivost proměnné minus její komunalita.

Vlastní čísla/charakteristické kořeny: Vlastní čísla měří množství variací v celkovém vzorku, které připadají na každý faktor. Poměr vlastních čísel je poměrem vysvětlující důležitosti faktorů vzhledem k proměnným. Pokud má faktor nízkou vlastní hodnotu, pak jen málo přispívá k vysvětlení odchylek v proměnných a může být ignorován jako méně důležitý než faktory s vyššími vlastními hodnotami.

Extrakční součty čtvercových zátěží: Počáteční vlastní čísla a vlastní čísla po extrakci (podle SPSS jako „Součty extrakce čtvercových zatížení“) jsou pro extrakci PCA stejné, ale pro jiné metody extrakce budou vlastní čísla po extrakci nižší než jejich původní protějšky. SPSS také tiskne „Součty otáčení čtvercových zatížení“ a dokonce pro PCA se tato vlastní čísla budou lišit od počátečních a extrakčních vlastních čísel, i když jejich součet bude stejný.

Skóre faktorů (v PCA také nazývaná skóre komponent): jsou skóre každého případu (řádku) pro každý faktor (sloupec). Pro výpočet skóre faktoru pro daný případ pro daný faktor se vezme standardizované skóre případu pro každou proměnnou, vynásobené odpovídajícím načítáním proměnné pro daný faktor a součty těchto produktů. Výpočet skóre faktoru umožňuje hledat odlehlé faktory. Faktorové skóre lze také použít jako proměnné v následném modelování. (Vysvětleno z PCA, nikoli z pohledu faktorové analýzy).

Kritéria pro určení počtu faktorů

Výzkumníci se chtějí vyhnout tak subjektivním nebo libovolným kritériím pro uchovávání faktorů, jako „to mi dávalo smysl“. K vyřešení tohoto problému byla vyvinuta řada objektivních metod, které uživatelům umožňují určit vhodný rozsah řešení, která je třeba prozkoumat. Metody nemusí souhlasit. Například, paralelní analýza může navrhnout 5 faktorů při Velicer je MAP naznačuje, 6, takže výzkumník může požadovat oba 5 a 6-faktor řešení a diskutovat každý z hlediska jejich vztahu k externích dat a teorie.

Moderní kritéria

Hornova paralelní analýza (PA): Simulační metoda založená na Monte Carlu, která porovnává pozorovaná vlastní čísla s hodnotami získanými z nekorelovaných normálních proměnných. Faktor nebo složka je zachována, pokud je přidružené vlastní číslo větší než 95. percentil distribuce vlastních čísel odvozených z náhodných dat. PA patří mezi běžně doporučovaná pravidla pro určování počtu součástí, které se mají zachovat, ale mnoho programů tuto možnost nezahrnuje (výraznou výjimkou je R ). Nicméně Formann předpokladu teoretické i empirické důkazy, že její použití nemusí být vhodné v mnoha případech, protože její výkon je výrazně ovlivněn velikostí vzorku , diskriminace položky a typu korelačního koeficientu .

Velicerův (1976) MAP test, jak ho popsal Courtney (2013) „zahrnuje kompletní analýzu hlavních komponent, po níž následuje zkoumání řady matic dílčích korelací“ (str. 397 (ačkoli si všimněte, že tento citát se ve Veliceru nevyskytuje) ) a číslo citované stránky je mimo stránky citace). Čtvercová korelace pro krok „0“ (viz obrázek 4) je průměrná čtvercová off-diagonální korelace pro nepartializovanou korelační matici. V kroku 1 je první hlavní složkou a jeho přidružené položky se rozčlení. Poté se průměrná kvadratická off-diagonální korelace pro následnou korelační matici poté vypočítá pro krok 1. V kroku 2 se první dvě hlavní složky rozdělí a výsledná průměrná druhá mocninová off-diagonální korelace se znovu vypočítá. Výpočty se provádějí pro k minus jeden krok (k představuje celkový počet proměnných v matici). Poté jsou všechny průměrné kvadratické korelace pro každý krok li a počet kroků v analýzách, které vedly k nejnižší průměrné kvadratické parciální korelaci, určuje počet komponent nebo faktorů, které se mají zachovat. Tímto způsobem jsou komponenty udržovány tak dlouho, dokud rozptyl v korelační matici představuje systematický rozptyl, na rozdíl od zbytkového nebo chybového rozptylu. Ačkoli je metodologicky podobná analýze hlavních komponent, ukázalo se, že technika MAP funguje docela dobře při určování počtu faktorů, které je třeba zachovat ve více simulačních studiích. Tento postup je k dispozici prostřednictvím uživatelského rozhraní SPSS je, stejně jako psychiatrické balíčku pro R programovací jazyk .

Starší metody

Kaiserovo kritérium: Kaiserovým pravidlem je snížit všechny komponenty s vlastními hodnotami pod 1,0 - což je vlastní číslo rovno informacím, které tvoří průměrná jednotlivá položka. Kritérium Kaiser je výchozí v SPSS a většině statistických softwarů, ale není doporučeno, když se používá jako jediné mezní kritérium pro odhad počtu faktorů, protože má tendenci faktory nadměrně extrahovat. Byla vytvořena variace této metody, kde výzkumník vypočítá intervaly spolehlivosti pro každé vlastní číslo a ponechá si pouze faktory, které mají celý interval spolehlivosti větší než 1,0.

Sutí pozemek : The Cattell sutí Zkušební dílce složek jako jsou osy X a odpovídající vlastní čísla jako Y-ose . Jak se člověk pohybuje doprava, směrem k pozdějším komponentám, vlastní čísla klesají. Když pokles ustane a křivka se loktí směrem k méně strmému poklesu, Cattellův suťový test říká, že zahodí všechny další komponenty po té, která začíná v lokti. Toto pravidlo je někdy kritizováno za to, že je přístupné „ fudgingu “ řízenému výzkumníkem . To znamená, že protože vybírání „lokte“ může být subjektivní, protože křivka má více loktů nebo je hladká křivka, může být výzkumník v pokušení nastavit mezní hodnotu na počet faktorů požadovaných jejich výzkumnou agendou.

Kritéria vysvětlovaná odchylkou: Někteří výzkumníci jednoduše používají pravidlo zachování dostatečného počtu faktorů, které představují 90% (někdy 80%) variace. Tam, kde cíl výzkumníka klade důraz na šetrnost (vysvětlení rozptylu s co nejmenším počtem faktorů), může být toto kritérium až 50%.

Bayesova metoda

Bayesovský přístup založený na indickém bufetovém procesu vrací rozdělení pravděpodobnosti přes věrohodný počet latentních faktorů.

Rotační metody

Neotáčený výstup maximalizuje rozptyl způsobený prvním a následujícími faktory a nutí faktory být ortogonální . Tato komprese dat je za cenu toho, že se většina položek načte podle počátečních faktorů, a obvykle s tím, že se mnoho položek načte v podstatě s více než jedním faktorem. Rotace slouží k tomu, aby byl výstup srozumitelnější, hledáním takzvané „jednoduché struktury“: Vzor načítání, kdy se každá položka silně načítá pouze na jeden z faktorů a mnohem slabší na ostatní faktory. Rotace mohou být ortogonální nebo šikmé (což umožňuje korelaci faktorů).

Rotace Varimax je ortogonální rotace os faktoru za účelem maximalizace rozptylu čtvercových zatížení faktoru (sloupce) na všechny proměnné (řádky) v matici faktorů, což má za následek rozlišení původních proměnných extrahovaným faktorem. Každý faktor bude mít tendenci mít buď velké nebo malé zatížení jakékoli konkrétní proměnné. Řešení varimax přináší výsledky, které usnadňují identifikaci každé proměnné jediným faktorem. Toto je nejběžnější možnost otáčení. Ortogonalita (tj. Nezávislost) faktorů je však často nerealistickým předpokladem. Šikmé rotace zahrnují ortogonální rotaci, a proto jsou upřednostňovanou metodou šikmé rotace. Připouštět faktory, které jsou ve vzájemném vzájemném vztahu, je zvláště použitelné v psychometrickém výzkumu, protože postoje, názory a intelektuální schopnosti bývají ve vzájemném vztahu, a protože by bylo v mnoha situacích nereálné předpokládat opak.

Rotace Quartimax je ortogonální alternativou, která minimalizuje počet faktorů potřebných k vysvětlení každé proměnné. Tento typ rotace často generuje obecný faktor, na kterém je většina proměnných načtena do vysokého nebo středního stupně. Taková struktura faktorů obvykle nepomáhá účelu výzkumu.

Rotace Equimax je kompromisem mezi kritérii varimax a quartimax.

Přímá oblimin rotace je standardní metodou, když si člověk přeje neortogonální (šikmé) řešení-tedy takové, ve kterém je dovoleno korelovat faktory. To bude mít za následek vyšší vlastní čísla, ale sníženou interpretovatelnost faktorů. Viz. níže.

Rotace Promax je alternativní neortogonální (šikmá) rotační metoda, která je výpočetně rychlejší než metoda přímého odstranění, a proto se někdy používá pro velmi velké datové sady .

Faktorová analýza vyššího řádu

Faktorová analýza vyššího řádu je statistická metoda sestávající z opakujících se kroků faktorová analýza- šikmá rotace -faktorová analýza rotovaných faktorů. Jeho zásluhou je umožnit badateli vidět hierarchickou strukturu studovaných jevů. K interpretaci výsledků se postupuje buď post-vynásobením matice primárních faktorových vzorů matricí faktorových vzorů vyššího řádu (Gorsuch, 1983) a možná aplikováním rotace Varimax na výsledek (Thompson, 1990) nebo použitím Schmidova Leimanovo řešení (SLS, Schmid & Leiman, 1957, také známé jako Schmid-Leimanova transformace), které připisuje změnu od primárních faktorů k faktorům druhého řádu.

V psychometrii

Dějiny

Charles Spearman byl prvním psychologem, který diskutoval o společné faktorové analýze, a učinil tak ve svém příspěvku z roku 1904. Poskytlo několik podrobností o jeho metodách a týkalo se jednofaktorových modelů. Zjistil, že skóre školních dětí v celé řadě zdánlivě nesouvisejících předmětů spolu pozitivně korelovalo, což ho vedlo k domněnce, že jediná obecná mentální schopnost neboli g je základem a formuje kognitivní výkonnost člověka.

Počáteční vývoj společné faktorové analýzy s více faktory poskytl Louis Thurstone ve dvou dokumentech na počátku třicátých let, shrnutých v jeho knize z roku 1935 The Vector of Mind . Thurstone představil několik důležitých konceptů faktorové analýzy, včetně komunality, jedinečnosti a rotace. Zasazoval se o „jednoduchou strukturu“ a vyvinul metody rotace, které by mohly být použity jako způsob, jak takové struktury dosáhnout.

V metodologii Q Stephenson, student Spearmana, rozlišuje mezi analýzou faktoru R orientovanou na studium interindividuálních rozdílů a analýzou faktoru Q orientovanou na subjektivní rozdíly uvnitř jednotlivců.

Raymond Cattell byl silným zastáncem faktorové analýzy a psychometrie a k vysvětlení inteligence použil Thurstoneovu vícefaktorovou teorii. Cattell také vyvinul test „suť“ a koeficienty podobnosti.

Aplikace v psychologii

Faktorová analýza se používá k identifikaci „faktorů“, které vysvětlují různé výsledky různých testů. Výzkum inteligence například zjistil, že lidé, kteří získají vysoké skóre v testu verbálních schopností, jsou dobří i v jiných testech, které vyžadují verbální schopnosti. Vědci to vysvětlili pomocí faktorové analýzy k izolování jednoho faktoru, často nazývaného verbální inteligence, který představuje míru, do jaké je někdo schopen řešit problémy zahrnující verbální dovednosti.

Faktorová analýza v psychologii je nejčastěji spojována s výzkumem inteligence. Byl však také použit k nalezení faktorů v celé řadě oblastí, jako je osobnost, postoje, přesvědčení atd. Je spojen s psychometrií , protože může posoudit platnost nástroje tím, že zjistí, zda nástroj skutečně měří postulované faktory.

Faktorová analýza je často používanou technikou v mezikulturním výzkumu. Slouží k extrakci kulturních dimenzí . Nejznámějšími modely kulturní dimenze jsou ty, které vypracovali Geert Hofstede , Ronald Inglehart , Christian Welzel , Shalom Schwartz a Michael Minkov.

Výhody

  • Snížení počtu proměnných kombinací dvou nebo více proměnných do jednoho faktoru. Například výkon při běhu, hodu míčkem, odpalování, skákání a vzpírání lze spojit do jednoho faktoru, jako je obecná atletická schopnost. V matici položky podle lidí se obvykle faktory vybírají seskupením souvisejících položek. V technice Q faktorové analýzy je matice transponována a faktory jsou vytvářeny seskupením příbuzných lidí. Například liberálové, libertariáni, konzervativci a socialisté se mohou zformovat do samostatných skupin.
  • Identifikace skupin vzájemně souvisejících proměnných, aby se zjistilo, jak spolu souvisí. Carroll například použil faktorovou analýzu k vybudování své teorie tří vrstev . Zjistil, že faktor zvaný „široké vizuální vnímání“ souvisí s tím, jak dobrý je jedinec ve vizuálních úkolech. Našel také faktor „širokého sluchového vnímání“, který se týká schopnosti sluchových úkolů. Kromě toho našel globální faktor, nazývaný „g“ neboli obecná inteligence, který souvisí jak s „širokým zrakovým vnímáním“, tak s „širokým sluchovým vnímáním“. To znamená, že někdo s vysokým „g“ pravděpodobně bude mít jak vysokou schopnost „vizuálního vnímání“, tak vysokou schopnost „sluchového vnímání“, a že „g“ tedy vysvětluje dobrou část toho, proč je někdo dobrý nebo špatný v obou ty domény.

Nevýhody

  • "... každá orientace je matematicky stejně přijatelná. Ale různé faktoriální teorie se ukázaly být stejně rozdílné, pokud jde o orientace faktoriálních os pro dané řešení, než co se týče čehokoli jiného, ​​takže se přizpůsobení modelu neukázalo jako užitečné v rozlišování mezi teoriemi “. (Sternberg, 1977). To znamená, že všechny rotace představují různé základní procesy, ale všechny rotace jsou stejně platnými výsledky optimalizace standardní faktorové analýzy. Proto není možné vybrat správnou rotaci pouze pomocí faktorové analýzy.
  • Faktorová analýza může být jen tak dobrá, jak data umožňují. V psychologii, kde se výzkumní pracovníci často musí spoléhat na méně platná a spolehlivá opatření, jako jsou vlastní zprávy, to může být problematické.
  • Interpretační faktorová analýza je založena na použití „heuristiky“, což je řešení „pohodlné, i když ne zcela pravdivé“. Lze provést více než jednu interpretaci stejných dat zohledněných stejným způsobem a faktorová analýza nemůže identifikovat příčinnou souvislost.

Průzkumná faktorová analýza (EFA) versus analýza hlavních komponent (PCA)

Faktorová analýza souvisí s analýzou hlavních komponent (PCA), ale tyto dva nejsou totožné. V této oblasti došlo k významné kontroverzi ohledně rozdílů mezi těmito dvěma technikami. PCA lze považovat za základní verzi průzkumné faktorové analýzy (EFA), která byla vyvinuta v počátcích před příchodem vysokorychlostních počítačů. Jak PCA, tak faktorová analýza mají za cíl snížit rozměrnost souboru dat, ale přístupy k tomu se u obou technik liší. Faktorová analýza je jasně navržena s cílem identifikovat určité nepozorovatelné faktory z pozorovaných proměnných, zatímco PCA tento cíl přímo neřeší; v nejlepším případě PCA poskytuje přiblížení k požadovaným faktorům. Z hlediska průzkumné analýzy jsou vlastní hodnoty PCA nahuštěné zatížení součástí, tj. Kontaminované rozptylem chyb.

Zatímco v některých oblastech statistiky jsou EFA a PCA považovány za synonymní techniky, toto bylo kritizováno. Faktorová analýza „se zabývá předpokladem základní kauzální struktury : [předpokládá], že kovariace v pozorovaných proměnných je způsobena přítomností jedné nebo více latentních proměnných (faktorů), které mají na tyto pozorované proměnné kauzální vliv“. Naproti tomu PCA nepředpokládá ani nezávisí na takovém základním příčinném vztahu. Výzkumníci tvrdili, že rozdíly mezi těmito dvěma technikami mohou znamenat, že existují objektivní výhody pro upřednostňování jedné před druhou na základě analytického cíle. Pokud je faktorový model nesprávně formulován nebo nejsou splněny předpoklady, pak faktorová analýza poskytne chybné výsledky. Faktorová analýza byla úspěšně použita tam, kde adekvátní porozumění systému umožňuje dobré počáteční modelové formulace. PCA využívá matematickou transformaci na původní data bez předpokladů o formě kovarianční matice. Cílem PCA je určit lineární kombinace původních proměnných a vybrat několik, které lze použít ke shrnutí souboru dat bez ztráty velkého množství informací.

Argumenty kontrastující s PCA a EFA

Fabrigar a kol. (1999) se zabývají řadou důvodů, které naznačují, že PCA není ekvivalentní faktorové analýze:

  1. Někdy se uvádí, že PCA je výpočetně rychlejší a vyžaduje méně prostředků než faktorová analýza. Fabrigar a kol. naznačují, že snadno dostupné počítačové zdroje činí tento praktický problém irelevantním.
  2. PCA a faktorová analýza mohou přinést podobné výsledky. Tomuto bodu se věnuje také Fabrigar et al .; v určitých případech, kdy je komunita nízká (např. 0,4), tyto dvě techniky přinášejí odlišné výsledky. Ve skutečnosti Fabrigar a kol. tvrdí, že v případech, kdy data odpovídají předpokladům společného faktorového modelu, jsou výsledky PCA nepřesné výsledky.
  3. Existují určité případy, kdy faktorová analýza vede k „případům Heywood“. Tyto zahrnují situace, kdy se odhaduje, že 100% nebo více rozptylu v měřené proměnné odpovídá modelu. Fabrigar a kol. naznačují, že tyto případy jsou pro výzkumníka skutečně informativní, což naznačuje nesprávně specifikovaný model nebo porušení společného modelu faktorů. Nedostatek případů Heywood v přístupu PCA může znamenat, že takové problémy projdou bez povšimnutí.
  4. Výzkumníci získávají další informace z přístupu PCA, například skóre jednotlivce na určité součásti; takové informace nejsou získány z faktorové analýzy. Jak však Fabrigar et al. tvrdí, že typický cíl faktorové analýzy - tj. určit faktory účtující strukturu korelací mezi měřenými proměnnými - nevyžaduje znalost faktorových skóre, a proto je tato výhoda vyvrácena. Faktorové skóre je také možné vypočítat z faktorové analýzy.

Variance versus kovariance

Faktorová analýza bere v úvahu náhodnou chybu, která je vlastní měření, zatímco PCA to nedělá. Příkladem tohoto bodu je Brown (2009), který uvedl, že pokud jde o korelační matice zahrnuté ve výpočtech:

"V PCA jsou 1,00 s vloženy do úhlopříčky, což znamená, že je třeba zohlednit všechny rozptyly v matici (včetně rozptylu jedinečného pro každou proměnnou, rozptylu běžného mezi proměnnými a rozptylu chyb). To by tedy podle definice „Zahrnout všechny proměnné do proměnných. Naproti tomu v EFA jsou komunity vloženy v diagonále, což znamená, že se má započítávat pouze rozptyl sdílený s jinými proměnnými (kromě rozptylu jedinečného pro každou proměnnou a rozptylu chyb). by tedy podle definice zahrnoval pouze rozptyl, který je mezi proměnnými běžný. “

-  Brown (2009), Analýza hlavních komponent a explorativní faktorová analýza - Definice, rozdíly a možnosti

Z tohoto důvodu Brown (2009) doporučuje použít faktorovou analýzu, pokud existují teoretické představy o vztazích mezi proměnnými, zatímco PCA by měla být použita, pokud je cílem výzkumníka prozkoumat vzorce v jejich datech.

Rozdíly v postupu a výsledcích

Rozdíly mezi PCA a faktorovou analýzou (FA) dále ilustruje Suhr (2009):

  • PCA má za následek hlavní složky, které představují maximální množství rozptylu pro pozorované proměnné; FA účtuje běžnou odchylku v datech.
  • PCA vkládá ty na úhlopříčky korelační matice; FA upravuje úhlopříčky korelační matice pomocí jedinečných faktorů.
  • PCA minimalizuje součet kvadratické kolmé vzdálenosti k ose součásti; FA odhaduje faktory, které ovlivňují reakce na pozorované proměnné.
  • Skóre složek v PCA představuje lineární kombinaci pozorovaných proměnných vážených vlastními vektory ; pozorované proměnné v FA jsou lineární kombinace základních a jedinečných faktorů.
  • V PCA jsou získané složky neinterpretovatelné, tj. Nepředstavují podkladové „konstrukty“; ve FA lze podkladové konstrukty označit a snadno interpretovat s ohledem na přesnou specifikaci modelu.


V marketingu

Základní kroky jsou:

Shromažďování informací

Fázi sběru dat obvykle provádějí odborníci na marketingový výzkum. Průzkumné otázky žádají respondenta, aby ohodnotil vzorek produktu nebo popis konceptů produktu podle řady atributů. Volí se kdekoli od pěti do dvaceti atributů. Mohou zahrnovat věci jako: snadné použití, hmotnost, přesnost, trvanlivost, barevnost, cena nebo velikost. Zvolené atributy se budou lišit v závislosti na studovaném produktu. Stejná otázka je položena u všech produktů ve studii. Data pro více produktů jsou kódována a vložena do statistického programu, jako jsou R , SPSS , SAS , Stata , STATISTICA , JMP a SYSTAT.

Analýza

Analýza izoluje základní faktory, které vysvětlují data pomocí matice asociací. Faktorová analýza je technika vzájemné závislosti. Je zkoumán kompletní soubor vzájemně závislých vztahů. Neexistuje žádná specifikace závislých proměnných, nezávislých proměnných nebo kauzality. Faktorová analýza předpokládá, že všechny údaje o hodnocení různých atributů lze redukovat až na několik důležitých dimenzí. Toto snížení je možné, protože některé atributy mohou spolu souviset. Hodnocení u kteréhokoli atributu je částečně výsledkem vlivu jiných atributů. Statistický algoritmus dekonstruuje hodnocení (nazývané surové skóre) na jeho různé složky a rekonstruuje dílčí skóre na základní faktorová skóre. Stupeň korelace mezi počátečním surovým skóre a konečným skóre faktoru se nazývá načítání faktorů .

Výhody

  • Lze použít objektivní i subjektivní atributy za předpokladu, že subjektivní atributy lze převést na skóre.
  • Faktorová analýza může identifikovat latentní dimenze nebo konstrukce, které přímá analýza nemusí.
  • Je to snadné a levné.

Nevýhody

  • Užitečnost závisí na schopnosti výzkumníků shromáždit dostatečnou sadu atributů produktu. Pokud jsou důležité atributy vyloučeny nebo zanedbány, hodnota postupu se sníží.
  • Pokud jsou sady pozorovaných proměnných navzájem velmi podobné a liší se od ostatních položek, faktorová analýza jim přiřadí jeden faktor. To může zakrýt faktory, které představují zajímavější vztahy.
  • Pojmenovací faktory mohou vyžadovat znalost teorie, protože zdánlivě odlišné atributy mohou z neznámých důvodů silně korelovat.

Ve fyzikálních a biologických vědách

Faktorová analýza byla také široce používána ve fyzikálních vědách, jako je geochemie , hydrochemie , astrofyzika a kosmologie , a také v biologických vědách, jako je ekologie , molekulární biologie , neurověda a biochemie .

Při řízení kvality podzemních vod je důležité dávat do souvislosti prostorové rozložení různých chemických parametrů s různými možnými zdroji, které mají různé chemické podpisy. Například sulfidový důl je pravděpodobně spojen s vysokou úrovní kyselosti, rozpuštěných síranů a přechodných kovů. Tyto podpisy lze identifikovat jako faktory pomocí faktorové analýzy režimu R a umístění možných zdrojů lze navrhnout konturováním skóre faktorů.

V geochemii mohou různé faktory odpovídat různým minerálním asociacím, a tedy mineralizaci.

V mikročipové analýze

Faktorovou analýzu lze použít pro sumarizaci údajů o mikročipech oligonukleotidových DNA s vysokou hustotou na úrovni sondy pro Affymetrix GeneChips. V tomto případě latentní proměnná odpovídá koncentraci RNA ve vzorku.

Implementace

Faktorová analýza byla od 80. let implementována v několika programech statistické analýzy:

Viz také

Reference

Další čtení

externí odkazy