Náhodná neuronová síť - Random neural network

Náhodný neuronová síť (RNN) je matematická reprezentace propojené sítě neuronů nebo buněk, které si vyměňují stouply signály . To bylo vynalezeno Erolem Gelenbem a je spojeno s modelem G-sítě frontových sítí a také s modely Gene Regulatory Network. Každý stav buňky je reprezentován celým číslem, jehož hodnota stoupá, když buňka přijímá excitační špičku, a klesá, když přijímá inhibiční špičku. Hroty mohou pocházet mimo samotnou síť nebo mohou pocházet z jiných buněk v sítích. Buňky, jejichž vnitřní excitační stav má kladnou hodnotu, mohou vysílat hroty libovolného druhu do jiných buněk v síti podle konkrétních rychlostí zvyšování závislých na buňkách. Model má matematické řešení v ustáleném stavu, které zajišťuje společné rozdělení pravděpodobnosti sítě, pokud jde o jednotlivé pravděpodobnosti, že každá buňka je vzrušená a schopná vysílat špičky. Výpočet tohoto řešení je založen na řešení množiny nelineárních algebraických rovnic, jejichž parametry souvisejí s rychlostí stoupli jednotlivých buněk a jejich připojením k jiným buňkám, stejně jako s rychlostí příchodu hrotů mimo síť. RNN je rekurentní model, tj. Neurální síť, která může mít složité zpětnovazební smyčky.

Vysoce energeticky efektivní implementace náhodných neuronových sítí prokázali Krishna Palem a kol. používající pravděpodobnostní technologii CMOS nebo PCMOS a bylo prokázáno, že je c. 226–300krát účinnější, pokud jde o produkt energetické náročnosti.

RNN se také vztahují k umělým neuronovým sítím , které (jako náhodná neurální síť) mají gradientní výukové algoritmy . Algoritmus učení pro náhodnou neuronovou síť s uzlem n, který zahrnuje zpětnovazební smyčky (je to také rekurentní neuronová síť ), je výpočetní složitosti O (n ^ 3) (počet výpočtů je úměrný krychli n, počet neurony). Náhodná neuronová síť může být také použita s jinými algoritmy učení , jako je posilovací učení . Ukázalo se, že RNN je univerzální aproximátor pro omezené a spojité funkce .

Viz také

Odkazy a zdroje

Reference
Zdroje
  • E. Gelenbe, Náhodné neuronové sítě s negativními a pozitivními signály a řešení v podobě produktu, Neural Computation, sv. 1, č. 4, str. 502–511, 1989.
  • E. Gelenbe, Stabilita modelu náhodných neuronových sítí, Neural Computation, sv. 2, č. 2, s. 239–247, 1990.
  • E. Gelenbe, A. Stafylopatis a A. Likas, operace asociativní paměti náhodného síťového modelu, v Proc. Int. Konf. Artificial Neural Networks, Helsinki, str. 307–312, 1991.
  • E. Gelenbe, F. Batty, pokrytí grafu minimálních nákladů náhodnou neuronovou sítí, Computer Science and Operations Research, O. Balci (ed.), New York, Pergamon, str. 139–147, 1992.
  • E. Gelenbe, Učení v rekurentní náhodné neurální síti, Neural Computation, sv. 5, č. 1, s. 154–164, 1993.
  • E. Gelenbe, V. Koubi, F. Pekergin, Dynamický přístup nahodilé neurální sítě k problému obchodního cestujícího, Proc. IEEE Symp. Syst., Man, Cybern., Str. 630–635, 1993.
  • E. Gelenbe, C. Cramer, M. Sungur, P. Gelenbe „Doprava a kvalita videa v adaptivní neurální kompresi“, Multimedia Systems , 4, 357–369, 1996.
  • C. Cramer, E. Gelenbe, H. Bakircioglu Nízká bitová rychlost komprese videa s neurálními sítěmi a dočasným dílčím vzorkováním, Proceedings of the IEEE, Vol. 84, č. 10, str. 1529–1543, říjen 1996.
  • E. Gelenbe, T. Feng, KRR Krishnan Metody neuronových sítí pro volumetrické zobrazování lidského mozku magnetickou rezonancí, Proceedings of the IEEE, Vol. 84, č. 10, str. 1488–1496, říjen 1996.
  • E. Gelenbe, A. Ghanwani, V. Srinivasan, „Vylepšená neurální heuristika pro směrování vícesměrového vysílání“, IEEE J. Selected Areas in Communications , 15, (2), 147–155, 1997.
  • E. Gelenbe, ZH Mao a YD Li, „Aproximace funkcí s náhodnou neurální sítí“, IEEE Trans. Neural Networks , 10, (1), leden 1999.
  • E. Gelenbe, JM Fourneau „Náhodné neuronové sítě s více třídami signálů“, Neural Computation , 11, 721–731, 1999.
  • Ugur Halici „Posílení učení s vnitřním očekáváním pro náhodnou neuronovou síť“, European Journal of Operational Research 126 (2): 288–307, 2000.
  • Aristidis Likas, Andreas Stafylopatis „Výcvik náhodných neuronových sítí pomocí kvazi-Newtonových metod“, European Journal of Operational Research 126 (2): 331–339, 2000.
  • Samir Mohamed, Gerardo Rubino, Martín Varela „Hodnocení výkonu řeči v reálném čase prostřednictvím paketové sítě: přístup založený na náhodných neuronových sítích“, Perform. Eval. 57 (2): 141–161, 2004.
  • E. Gelenbe, Z.-H. Mao a YD. Li „Aproximace funkcí náhodnými neuronovými sítěmi s omezeným počtem vrstev“, „Diferenciální rovnice a dynamické systémy“, 12 (1 a 2), 143–170, leden duben 2004.
  • Gerardo Rubino, Pierre Tirilly, Martín Varela „Hodnocení spokojenosti uživatelů v paketových sítích pomocí náhodných neurálních sítí“, ICANN (1) 2006: 303–312, 2006.
  • Gülay Öke a Georgios Loukas. Detektor odmítnutí služby založený na detekci maximální pravděpodobnosti a náhodné neuronové síti. Computer Journal, 50 (6): 717–727, listopad 2007.
  • S. Timotheou. Nezáporné učení metodou nejmenších čtverců pro náhodnou neuronovou síť. Ve sborníku z 18. mezinárodní konference o umělých neuronových sítích, Praha, Česká republika, strany 195–204, 2008.
  • S. Timotheou. Nová metoda inicializace hmotnosti pro náhodnou neuronovou síť. Na pátém mezinárodním symposiu o neuronových sítích (ISNN), Peking, Čína, 2008.
  • Stelios Timotheou „The Random Neural Network: A Survey“, Comput. J. 53 (3): 251–267, 2010.
  • Pedro Casas, Sandrine Vaton „O použití náhodných neuronových sítí pro odhad matice provozu ve velkých sítích IP“, IWCMC 2010: 326–330, 2010.
  • S. Basterrech, G. Rubino, „Random Neural Network as Supervised Learning Tool,“ Neural Network World, 25 (5), 457-499, doi : 10,14311 / NNW.2015.25.024 , 2015.
  • S. Basterrech, S. Mohamed, G. Rubino, M. Soliman, „Levenberg-Marquardt Training Algorithms for Random Neural Networks“, Computer Journal, 54 (1), 125–135, 2011.
  • Michael Georgiopoulos, Cong Li a Taskin Kocak „Learning in the feed-forward random neurural network: A critical review“, Hodnocení výkonu, 68 (4): 361–384, 2011.