Analýza nezávislých komponent - Independent component analysis

Při zpracování signálu je nezávislá analýza komponent ( ICA ) výpočetní metodou pro oddělení vícerozměrného signálu na aditivní subkomponenty. To se provádí za předpokladu, že subkomponenty jsou potenciálně ne-gaussovské signály a že jsou na sobě statisticky nezávislé . ICA je speciální případ oddělení slepých zdrojů . Běžným příkladem aplikace je „ problém koktejlové párty “ naslouchání řeči jedné osoby v hlučné místnosti.

Úvod

ICA na čtyři náhodně smíšená videa. Nahoru: Původní zdrojová videa. Uprostřed: Čtyři náhodné směsi použité jako vstup do algoritmu. Dole: Rekonstruovaná videa.

Analýza nezávislých komponent se pokouší rozložit vícerozměrný signál na nezávislé ne-gaussovské signály. Jako příklad, zvuk je obvykle signál, který se skládá z numerického sčítání signálů z několika zdrojů vždy, t. Otázkou pak je, zda je možné tyto přispívající zdroje oddělit od pozorovaného celkového signálu. Když je předpoklad statistické nezávislosti správný, slepé oddělení ICA smíšeného signálu poskytuje velmi dobré výsledky. Používá se také pro signály, které by neměly být generovány smícháním pro účely analýzy.

Jednoduchou aplikací ICA je „ problém koktejlové párty “, kde jsou základní řečové signály odděleny od ukázkových dat, která se skládají z lidí, kteří současně mluví v místnosti. Obvykle je problém zjednodušen tím, že se nepředpokládá žádné časové zpoždění nebo ozvěna. Všimněte si, že filtrovaný a zpožděný signál je kopií závislé komponenty, a proto není porušen předpoklad statistické nezávislosti.

Míchací závaží pro konstrukci pozorovaných signálů ze složek lze umístit do matice. Důležitá věc, kterou je třeba vzít v úvahu, je, že pokud jsou přítomny zdroje, jsou k obnovení původních signálů zapotřebí alespoň pozorování (např. Mikrofony, pokud je pozorovaný signál zvukový). Když existuje stejný počet pozorování a zdrojových signálů, je směšovací matice čtvercová ( ). Byly vyšetřovány i další případy poddeterminovaného ( ) a předurčeného ( ).

Že ICA separace smíšených signálů poskytuje velmi dobré výsledky, je založeno na dvou předpokladech a třech efektech míchání zdrojových signálů. Dva předpoklady:

  1. Zdrojové signály jsou na sobě nezávislé.
  2. Hodnoty v každém zdrojovém signálu mají negaussovské rozdělení.

Tři efekty míchání zdrojových signálů:

  1. Nezávislost: Podle předpokladu 1 jsou zdrojové signály nezávislé; jejich signální směsi však nejsou. Důvodem je, že směsi signálů sdílejí stejné zdrojové signály.
  2. Normalita: Podle věty o centrálním limitu směřuje rozdělení součtu nezávislých náhodných proměnných s konečným rozptylem ke gaussovskému rozdělení.
    Volně řečeno, součet dvou nezávislých náhodných proměnných má obvykle distribuci, která je bližší Gaussovu než kterákoli ze dvou původních proměnných. Zde považujeme hodnotu každého signálu za náhodnou proměnnou.
  3. Složitost: Časová složitost jakékoli signální směsi je větší než u nejjednoduššího zdrojového signálu zdroje.

Tyto zásady přispívají k základnímu zřízení ICA. Pokud jsou signály extrahované ze sady směsí nezávislé a mají ne-gaussovské histogramy nebo mají nízkou složitost, pak musí jít o zdrojové signály.

Definování nezávislosti komponent

ICA vyhledává nezávislé složky (nazývané také faktory, latentní proměnné nebo zdroje) maximalizací statistické nezávislosti odhadovaných složek. Můžeme si vybrat jeden z mnoha způsobů, jak definovat proxy pro nezávislost, a tato volba určuje formu algoritmu ICA. Dvě nejširší definice nezávislosti pro ICA jsou

  1. Minimalizace vzájemných informací
  2. Maximalizace ne-gaussiánství

Rodina IMI algoritmů Minimalizace vzájemných informací (MMI) používá opatření jako Kullback-Leibler Divergence a maximální entropie . Non-Gaussianity rodina ICA algoritmů, motivovaná centrální limitní větou , používá kurtózu a negentropii .

Typické algoritmy pro ICA používají jako kroky předzpracování centrování (odečtení průměru k vytvoření signálu nulového průměru), bělení (obvykle s rozkladem vlastních čísel ) a redukci rozměrů za účelem zjednodušení a snížení složitosti problému pro skutečný iterační algoritmus. Bělení a redukci rozměrů lze dosáhnout analýzou hlavních složek nebo rozkladem singulárních hodnot . Bělení zajišťuje, že se všemi dimenzemi je před spuštěním algoritmu a priori zacházeno stejně . Mezi dobře známé algoritmy pro ICA patří mimo jiné infomax , FastICA , JADE a analýza komponent nezávislá na jádře . Obecně ICA nedokáže identifikovat skutečný počet zdrojových signálů, jednoznačně správné uspořádání zdrojových signálů ani správné škálování (včetně znaménka) zdrojových signálů.

ICA je důležitá pro oddělení slepých signálů a má mnoho praktických aplikací. Úzce to souvisí (nebo dokonce ve zvláštním případě) s hledáním faktoriálního kódu dat, tj. S novou vektorovou reprezentací každého datového vektoru tak, že je výsledným kódovým vektorem jednoznačně zakódován (beze ztrát) kódování), ale složky kódu jsou statisticky nezávislé.

Matematické definice

Lineární nezávislou komponentní analýzu lze rozdělit na bezhlučné a hlučné případy, kde bezhlučná ICA je zvláštní případ hlučné ICA. Nelineární ICA by měla být považována za samostatný případ.

Obecná definice

Data jsou reprezentována pozorovaným náhodným vektorem a skrytými komponentami jako náhodný vektor . Úkolem je transformovat pozorovaná data pomocí lineární statické transformace jako do vektoru maximálně nezávislých komponent měřených nějakou funkcí nezávislosti.

Generativní model

Lineární bezhlučný ICA

Složky pozorovaného náhodného vektoru jsou generovány jako součet nezávislých komponent , :

vážené směšovacími závažími .

Stejný generativní model lze zapsat ve vektorové podobě jako tam, kde pozorovaný náhodný vektor je reprezentován základními vektory . Základní vektory tvoří sloupce směšovací matice a generativní vzorec lze zapsat jako , kde .

Vzhledem k modelu a realizacím (vzorkům) náhodného vektoru je úkolem odhadnout jak směšovací matici, tak zdroje . To se provádí adaptivním výpočtem vektorů a nastavením nákladové funkce, která buď maximalizuje negaussianitu vypočítaných, nebo minimalizuje vzájemné informace. V některých případech lze v nákladové funkci použít apriorní znalost rozdělení pravděpodobnosti zdrojů.

Původní zdroje lze získat vynásobením pozorovaných signálů inverzní směšovací maticí , známou také jako nesmísící matice. Zde se předpokládá, že směšovací matice je square ( ). Je -li počet základních vektorů větší než rozměrnost pozorovaných vektorů , je úkol nadbytečný, ale je stále řešitelný pseudo inverzní .

Lineární hlučný ICA

S přidaným předpokladem nulového průměru a nekorelovaného gaussovského šumu má formu ICA model .

Nelineární ICA

Míchání zdrojů nemusí být lineární. Použitím nelineární směšovací funkce s parametry je nelineární ICA model .

Identifikovatelnost

Nezávislé komponenty jsou identifikovatelné až do permutace a škálování zdrojů. Tato identifikace vyžaduje, aby:

  • Maximálně jeden ze zdrojů je Gaussian,
  • Počet pozorovaných směsí, musí být alespoň tak velké, jako je počet odhadovaných složek : . Je ekvivalentní říci, že směšovací matice musí mít plnou pozici, aby mohla existovat její inverze.

Binární ICA

Zvláštní variantou ICA je binární ICA, ve které jsou zdroje signálu i monitory v binární formě a pozorování z monitorů jsou disjunktivní směsi binárních nezávislých zdrojů. Ukázalo se, že problém má aplikace v mnoha doménách, včetně lékařské diagnostiky , přiřazení více klastrů , síťové tomografie a správy internetových zdrojů .

Nechť je množina binárních proměnných z monitorů a je množina binárních proměnných ze zdrojů. Propojení zdroje a monitoru je reprezentováno (neznámou) směšovací maticí , kde označuje, že signál z i -tého zdroje může být pozorován j -tým monitorem. Systém funguje následovně: kdykoli je zdroj aktivní ( ) a je připojen k monitoru ( ), monitor bude sledovat určitou aktivitu ( ). Formálně máme:

kde je booleovský AND a je booleovský NEBO. Hluk není explicitně modelován, lze jej naopak považovat za nezávislé zdroje.

Výše uvedený problém lze heuristicky vyřešit za předpokladu, že proměnné jsou spojité a běží FastICA na binárních pozorovacích datech, aby se získala směšovací matice (reálné hodnoty), a poté aplikujte techniky kulatého čísla na získání binárních hodnot. Ukázalo se, že tento přístup přináší vysoce nepřesné výsledky.

Další metodou je použít dynamické programování : rekurzivně rozbít pozorovací matici na její submatice a spustit na těchto dílčích maticích inferenční algoritmus. Pozorování klíč, který vede k tomuto algoritmu je sub-matice z kterých odpovídá nezaujatého pozorování matrice skrytých složek, které nemají připojení k tého monitoru. Experimentální výsledky ukazují, že tento přístup je přesný při mírných hladinách hluku.

Rámec Generalized Binary ICA zavádí širší formulaci problému, která nevyžaduje žádné znalosti o generativním modelu. Jinými slovy, tato metoda se pokouší rozložit zdroj na jeho nezávislé komponenty (co nejvíce a bez ztráty jakýchkoli informací) bez předchozího předpokladu o způsobu jeho generování. Ačkoli se tento problém jeví jako poměrně složitý, lze jej přesně vyřešit pomocí algoritmu stromu větví a vázaných vyhledávacích stromů nebo těsně horní hranice pomocí jediného násobení matice vektorem.

Metody separace slepých zdrojů

Pronásledování projekce

Směsi signálů mívají funkce Gaussovy hustoty pravděpodobnosti a zdrojové signály mívají funkce jiné než Gaussovy hustoty pravděpodobnosti. Každý zdrojový signál lze extrahovat ze sady směsí signálů odebráním vnitřního produktu hmotnostního vektoru a těch signálních směsí, kde tento vnitřní produkt poskytuje ortogonální projekci směsí signálů. Zbývající výzvou je nalezení takového hmotnostního vektoru. Jedním z typů metod, jak toho dosáhnout, je pronásledování .

Pronásledování projekce hledá jednu projekci najednou tak, aby extrahovaný signál byl pokud možno ne-gaussovský. To je v kontrastu s ICA, která obvykle extrahuje signály M současně ze směsí signálů M , což vyžaduje odhad M × M unmixující matice. Jednou praktickou výhodou sledování projekce oproti ICA je, že lze v případě potřeby extrahovat méně než M signálů, kde je každý zdrojový signál extrahován ze směsí M signálů pomocí hmotnostního vektoru M -prvku.

Můžeme použít kurtózu k obnovení signálu z více zdrojů nalezením správných vektorů hmotnosti s využitím pronásledování.

Kurtóza funkce hustoty pravděpodobnosti signálu pro konečný vzorek se vypočítá jako

kde je vzorek průměr z , extrahovaných signálů. Konstanta 3 zajišťuje, že gaussovské signály mají nulovou špičatost, super-gaussovské signály mají pozitivní kurtózu a sub-gaussovské signály negativní špičatost. Jmenovatel je rozptyl o , a zajišťuje, že měřená špičatosti bere v úvahu signál rozptylu. Cílem pronásledování je maximalizovat kurtózu a extrahovat signál tak, aby byl co nejnormálnější.

Pomocí kurtózy jako měřítka nenormality můžeme nyní zkoumat, jak se kurtóza signálu extrahovaného ze sady M směsí mění, když se vektor hmotnosti otáčí kolem počátku. Vzhledem k našemu předpokladu, že každý zdrojový signál je super-gaussovský, očekávali bychom:

  1. kurtóza extrahovaného signálu bude maximální přesně kdy .
  2. kurtóza extrahovaného signálu bude maximální, když je kolmá k projektovaným osám, nebo protože víme, že optimální vektor hmotnosti by měl být ortogonální k transformované ose nebo .

U signálů více zdrojových směsí můžeme k obnovení signálů použít kurtózu a Gram-Schmidtovu ortogonalizaci (GSO). Vzhledem ke směsi signálů M v M- dimenzionálním prostoru GSO promítá tyto datové body do ( M-1 ) -dimenzionálního prostoru pomocí vektoru hmotnosti. Nezávislost extrahovaných signálů můžeme zaručit pomocí GSO.

Abychom našli správnou hodnotu , můžeme použít metodu gradientového klesání . Data nejprve vybělíme a přeměníme na novou směs , která má jednotkový rozptyl, a . Tento proces lze dosáhnout aplikací rozkladu singulárních hodnot na ,

Přeškálování každého vektoru , a nechte . Signál extrahovaný váženým vektorem je . Pokud má hmotnostní vektor w jednotkovou délku, pak rozptyl y je také 1, tj . Kurtózu lze tedy zapsat jako:

Proces aktualizace pro :

kde je malá konstanta, která zaručuje, že konverguje k optimálnímu řešení. Po každé aktualizaci normalizujeme , nastavíme a opakujeme proces aktualizace až do konvergence. K aktualizaci vektoru hmotnosti můžeme také použít jiný algoritmus .

Dalším přístupem je použití negentropie místo kurtózy. Použití negentropie je robustnější metodou než kurtóza, protože kurtóza je velmi citlivá na odlehlé hodnoty. Metody negentropie jsou založeny na důležité vlastnosti Gaussova rozdělení: Gaussova proměnná má největší entropii ze všech spojitých náhodných proměnných se stejným rozptylem. To je také důvod, proč chceme najít nejvíce nongauských proměnných. Jednoduchý důkaz najdete v Diferenciální entropii .

y je Gaussova náhodná proměnná stejné kovarianční matice jako x

Aproximace negentropie je

Důkaz lze nalézt v původních Comonových listech; byla reprodukována v knize Independent Component Analysis od Aapo Hyvärinen, Juha Karhunen a Erkki Oja. Tato aproximace také trpí stejným problémem jako kurtóza (citlivost na odlehlé hodnoty). Byly vyvinuty další přístupy.

Na výběr a jsou

a

Na základě infomaxu

Infomax ICA je v podstatě vícerozměrná, paralelní verze sledování projekce. Zatímco sledování projekce extrahuje sérii signálů jeden po druhém ze sady M signálních směsí, ICA extrahuje M signály paralelně. Díky tomu je ICA odolnější než projekce.

Metoda pronásledování využívá ortogonalizaci Gram-Schmidt k zajištění nezávislosti extrahovaného signálu, zatímco ICA používá infomax a odhad maximální pravděpodobnosti k zajištění nezávislosti extrahovaného signálu. Nestandardnosti extrahovaného signálu je dosaženo přiřazením příslušného modelu nebo předchozího signálu.

Stručně řečeno, proces ICA založený na infomaxu je: vzhledem k sadě směsí signálů a sadě identických nezávislých modelových kumulativních distribučních funkcí (cdfs) hledáme unmixovací matici, která maximalizuje společnou entropii signálů , kde jsou signály extrahovány od . Vzhledem k optimu mají signály maximální entropii, a proto jsou nezávislé, což zajišťuje, že extrahované signály jsou také nezávislé. je invertibilní funkce a je signálním modelem. Všimněte si toho, že pokud funkce hustoty pravděpodobnosti modelu zdrojového signálu odpovídá funkci hustoty pravděpodobnosti extrahovaného signálu , pak maximalizace společné entropie maximalizuje také množství vzájemných informací mezi a . Z tohoto důvodu je použití entropie k extrakci nezávislých signálů známé jako infomax .

Uvažujme entropii vektorové proměnné , kde je množina signálů extrahovaná rozmixovací maticí . Pro konečnou sadu hodnot vzorkovaných z distribuce s pdf lze entropii odhadnout jako:

Společný soubor pdf lze ukázat jako související se společným souborem PDF extrahovaných signálů pomocí vícerozměrné formy:

kde je jakobijská matice . Máme a je pdf předpokládané pro zdrojové signály , proto

proto,

Víme, že kdy , má rovnoměrné rozdělení a je maximalizováno. Od té doby

kde je absolutní hodnota determinantu nemísící matice . Proto,

tak,

protože a maximalizace neovlivňuje , můžeme tedy funkci maximalizovat

k dosažení nezávislosti extrahovaného signálu.

Pokud existují M okrajové soubory pdf společného modelu, jsou nezávislé a pro zdrojové signály používají běžně super-gaussovský model pdf , pak máme

V součtu, vzhledem k pozorované směsi signálů , odpovídající sadě extrahovaných signálů a modelu zdrojového signálu , můžeme najít optimální matici míchání a učinit extrahované signály nezávislé a ne gaussovské. Stejně jako v situaci sledování projekce můžeme použít metodu sestupu gradientu k nalezení optimálního řešení míchání matice.

Na základě odhadu maximální pravděpodobnosti

Odhad maximální pravděpodobnosti (MLE) je standardní statistický nástroj pro hledání hodnot parametrů (např. Míchací matice), které poskytují nejlepší přizpůsobení některých dat (např. Extrahovaných signálů) danému modelu (např. Předpokládaná společná funkce hustoty pravděpodobnosti (pdf)zdrojových signálů).

ML „Model“ zahrnuje specifikaci pdf, který je v tomto případě pdf neznámých zdrojových signálů . Pomocí ML ICA je cílem najít nemísící matici, která poskytne extrahované signály se společným pdf co nejvíce podobným společnému pdf neznámých zdrojových signálů .

MLE je tedy založen na předpokladu, že pokud je model pdf a parametry modelu správné, měla by být získána vysoká pravděpodobnost pro data, která byla skutečně pozorována. Naopak, pokud je daleko od správných hodnot parametrů, pak by se očekávala nízká pravděpodobnost pozorovaných dat.

Pomocí MLE nazýváme pravděpodobnost pozorovaných dat pro danou sadu hodnot modelových parametrů (např. Pdf a matice ) pravděpodobnost hodnot modelových parametrů vzhledem k pozorovaným datům.

Definujeme pravděpodobnosti funkci z :

To se rovná hustotě pravděpodobnosti v , od .

Pokud tedy chceme najít to, které s největší pravděpodobností generovalo pozorované směsi z neznámých zdrojových signálů pomocí pdf, pak potřebujeme najít pouze to, co maximalizuje pravděpodobnost . Unmixovací matice, která maximalizuje rovnici, je známá jako MLE optimální matice pro míchání.

Je běžnou praxí používat pravděpodobnost protokolu , protože to se snáze vyhodnotí. Protože logaritmus je monotónní funkce, maximalizace funkce také maximalizuje jeho logaritmus . To nám umožňuje vzít výše uvedený logaritmus rovnice, který poskytuje funkci pravděpodobnosti protokolu

Pokud za zdrojové signály nahradíme běžně používaný high- Kurtosis model pdf, máme

Tato matice, která maximalizuje tuto funkci, je odhad maximální pravděpodobnosti .

Historie a pozadí

Raný obecný rámec pro analýzu nezávislých komponent zavedli Jeanny Hérault a Bernard Ans z roku 1984, dále jej rozvinul Christian Jutten v letech 1985 a 1986 a zpřesnil Pierre Comon v roce 1991 a propagoval ve svém příspěvku z roku 1994. V roce 1995 Tony Bell a Terry Sejnowski představili rychlý a účinný ICA algoritmus založený na infomaxu , principu, který zavedl Ralph Linsker v roce 1987.

V literatuře je k dispozici mnoho algoritmů, které dělají ICA. Z velké části používaný, a to i v průmyslových aplikacích, je algoritmus FastICA, vyvinutý společností Hyvärinen a Oja, který používá kurtózu jako nákladovou funkci. Další příklady se týkají spíše separace slepých zdrojů, kde se používá obecnější přístup. Například lze zrušit předpoklad nezávislosti a oddělit vzájemně korelované signály, tedy statisticky „závislé“ signály. Sepp Hochreiter a Jürgen Schmidhuber ukázali, jak získat nelineární ICA nebo separaci zdroje jako vedlejší produkt regularizace (1999). Jejich metoda nevyžaduje apriorní znalosti o počtu nezávislých zdrojů.

Aplikace

ICA lze rozšířit o analýzu nefyzických signálů. Například ICA byla použita k objevování diskusních témat v pytli archivů seznamů novinek.

Některé aplikace ICA jsou uvedeny níže:

Analýza nezávislých komponent v EEGLAB
  • optické zobrazování neuronů
  • třídění neuronových špiček
  • rozpoznávání obličejů
  • modelování receptivních polí primárních zrakových neuronů
  • předpovídání cen na akciových trzích
  • komunikace mobilního telefonu
  • barevná detekce zralosti rajčat
  • odstraňování artefaktů, například mrknutí očí, z dat EEG .
  • analýza změn v genové expresi v průběhu času v experimentech sekvenování RNA s jednou buňkou .
  • studie klidové stavové sítě mozku.
  • astronomie a kosmologie

Viz také

Poznámky

Reference

externí odkazy