QPACE - QPACE

QPACE ( QCD Parallel Computing on the Cell Broadband Engine ) je masivně paralelní a škálovatelný superpočítač navržený pro aplikace v kvantové chromodynamice mřížky .

Přehled

Superpočítač QPACE je výzkumný projekt prováděný několika akademickými institucemi ve spolupráci s IBM Research and Development Laboratory v Böblingenu v Německu a dalšími průmyslovými partnery, včetně společností Eurotech , Knürr a Xilinx . Akademický designérský tým přibližně 20 juniorských a seniorních vědců, převážně fyziků, pocházel z University of Regensburg (vedoucí projektu), University of Wuppertal , DESY Zeuthen, Jülich Research Center a University of Ferrara . Hlavním cílem byl návrh škálovatelné architektury optimalizované pro aplikace, která poráží průmyslové produkty, pokud jde o výpočetní výkon, poměr ceny a výkonu a energetickou účinnost. Oficiálně byl projekt zahájen v roce 2008. Dvě instalace byly nasazeny v létě roku 2009. Konečný návrh byl dokončen počátkem roku 2010. Od té doby se QPACE používá pro výpočty mřížkové QCD . Architektura systému je vhodná i pro jiné aplikace, které se spoléhají hlavně na komunikaci nejbližšího souseda, např. Boltzmannovy metody.

V listopadu 2009 byl QPACE přední architekturou na seznamu Green500 energeticky nejúčinnějších superpočítačů na světě. Titul byl obhájen v červnu 2010, kdy architektura dosáhla energetického podpisu 773 MFLOPS na Watt v benchmarku Linpack . V seznamu nejvýkonnějších superpočítačů Top500 se společnost QPACE v listopadu 2009 umístila na 110–112 a v červnu 2010 na 131-133.

QPACE byl financován Německou výzkumnou nadací (DFG) v rámci SFB / TRR-55 a společností IBM . Další příspěvky poskytly společnosti Eurotech , Knürr a Xilinx .

Architektura

V roce 2008 IBM uvedla vícejádrový procesor PowerXCell 8i , vylepšenou verzi IBM Cell Broadband Engine používanou např. V PlayStation 3 . Procesor získal ve vědecké komunitě velkou pozornost díky vynikajícímu výkonu s plovoucí desetinnou čárkou. Je to jeden ze stavebních kamenů klastru IBM Roadrunner , který jako první superpočítačová architektura prolomil bariéru PFLOPS. Klastrové architektury založené na PowerXCell 8i se obvykle spoléhají na blade servery IBM BladeCenter propojené standardními průmyslovými sítěmi, jako je Infiniband . Pro QPACE byl zvolen zcela odlišný přístup. Pro připojení výpočetních uzlů se používá speciálně navržený síťový koprocesor implementovaný na Xilinx Virtex-5 FPGA. FPGA jsou přeprogramovatelná polovodičová zařízení, která umožňují přizpůsobenou specifikaci funkčního chování. Síťový procesor QPACE je pevně spojen s procesorem PowerXCell 8i prostřednictvím I / O rozhraní chráněného společností Rambus.

Nejmenším stavebním kamenem QPACE je karta uzlu, která je hostitelem PowerXCell 8i a FPGA. Uzlové karty jsou namontovány na backplanes, z nichž každá může hostovat až 32 uzlových karet. V jednom stojanu QPACE je umístěno až osm základních desek , přičemž každá ze čtyř základních desek je připevněna na přední a zadní stranu. Maximální počet karet uzlů na stojan je 256. QPACE se při dosažení této hustoty balení spoléhá na řešení vodního chlazení.

Šestnáct uzlových karet je monitorováno a ovládáno samostatnou administrační kartou, která se nazývá kořenová karta. Ke sledování a řízení napájecích zdrojů se používá ještě jedna administrační karta na stojan, která se nazývá karta superroot. Kořenové karty a superrootové karty se také používají k synchronizaci výpočetních uzlů.

Karta uzlu

Srdcem QPACE je vícejádrový procesor IBM PowerXCell 8i . Každá karta uzlu hostuje jeden PowerXCell 8i, 4 GB DDR2 SDRAM s ECC , jeden Xilinx Virtex-5 FPGA a sedm síťových transceiverů . Jeden 1 Gigabit Ethernet transceiver připojuje kartu uzlu k I / O síti. Šest 10 gigabitových transceiverů se používá k přenosu zpráv mezi sousedními uzly v trojrozměrné toroidní síti .

Síťový koprocesor QPACE je implementován na FPGA Xilinx Virtex-5, který je přímo připojen k I / O rozhraní PowerXCell 8i. Funkční chování FPGA je definováno jazykem popisu hardwaru a lze jej kdykoli změnit za cenu restartu karty uzlu. Většina entit síťového koprocesoru QPACE je kódována ve VHDL .

Sítě

Síťový koprocesor QPACE připojuje PowerXCell 8i ke třem komunikačním sítím:

  • Síť torusu je vysokorychlostní komunikační cesta, která umožňuje komunikaci nejbližšího souseda v trojrozměrné toroidní síti . Torus síť spoléhá na fyzické vrstvě o 10 Gigabit Ethernet , zatímco speciálně navržený komunikační protokol optimalizovaný pro malé velikosti zpráv se používá pro předávání zpráv. Jedinečnou vlastností designu sítě torus je podpora komunikace s nulovým kopírováním mezi oblastmi privátní paměti, zvanými Local Stores, Synergistic Processing Elements (SPE) přímým přístupem do paměti . Latence komunikace mezi dvěma SPE na sousedních uzlech je 3 μs. Maximální šířka pásma na linku a směr je přibližně 1 GB / s.
  • Přepínaný 1 Gigabit Ethernet se používá pro I / O a údržbu souborů.
  • Síť globálních signálů je jednoduchý dvouvodičový systém uspořádaný jako stromová síť. Tato síť slouží k vyhodnocení globálních podmínek a synchronizaci uzlů.

Chlazení

Výpočetní uzly superpočítače QPACE jsou chlazeny vodou. Z každé karty uzlu musí být rozptýleno zhruba 115 Wattů. Řešení chlazení je založeno na dvousložkovém designu. Každá karta uzlu je namontována na tepelnou skříň, která funguje jako velký chladič pro komponenty kritické z hlediska tepla. Tepelná skříň je propojena s chladicí deskou, která je připojena k okruhu vodního chlazení. Výkon varné desky umožňuje odvod tepla až z 32 uzlů. Karty uzlů jsou namontovány na obou stranách varné desky, tj. Každý z 16 uzlů je namontován na horní a dolní části chladicí desky. Účinnost řešení chlazení umožňuje chlazení výpočetních uzlů teplou vodou. Řešení chlazení QPACE ovlivnilo také další návrhy superpočítačů, jako je SuperMUC .

Instalace

Od roku 2009 fungují dvě identické instalace QPACE se čtyřmi stojany:

Celkový špičkový výkon je přibližně 200 TFLOPS s dvojitou přesností a 400 TFLOPS s jedinou přesností. Zařízení provozují Univerzita v Regensburgu , Výzkumné centrum Jülich a Univerzita ve Wuppertalu .

Viz také

Reference

  1. ^ L. Biferale et al., Lattice Boltzmann fluidní dynamika na superpočítači QPACE, Procedia Computer Science 1 (2010) 1075
  2. ^ Seznam Green500, listopad 2009, http://www.green500.org/lists/green200911
  3. ^ Seznam Green500, červen 2010, http://www.green500.org/lists/green201006
  4. ^ Seznam Top500, listopad 2009, „archivovaná kopie“ . Archivovány od originálu 17. října 2012 . Získaný 17. ledna 2013 . CS1 maint: archivovaná kopie jako název ( odkaz )
  5. ^ Seznam Top500, červen 2010, „Archivovaná kopie“ . Archivovány od originálu 17. října 2012 . Získaný 17. ledna 2013 . CS1 maint: archivovaná kopie jako název ( odkaz )
  6. ^ G. Bilardi et al., Potenciál on-chip multiprocesingu pro QCD Machines , Přednášky v informatice 3769 (2005) 386
  7. ^ S. Williams a kol., Potenciál buněčného procesoru pro vědecké výpočty , Sborník příspěvků ze 3. konference o počítačových hranicích (2006) 9
  8. ^ G. Goldrian a kol., QPACE: Paralelní výpočty kvantové chromodynamiky na buňkovém širokopásmovém motoru , výpočet ve vědě a inženýrství 10 (2008) 46
  9. ^ I. Ouda, K. Schleupen, Poznámka k aplikaci: Nastavení rozhraní FPGA na IBM Power Processor Interface , zpráva IBM Research, 2008
  10. ^ a b c H. Baier a kol., QPACE - paralelní počítač QCD založený na procesorech Cell , Proceedings of Science (LAT2009) , 001
  11. ^ S. Solbrig, Synchronizace v QPACE , STRONGnet Conference, Kypr, 2010
  12. ^ B.Michel et al., Aquasar: Der Weg zu optimal effizienten Rechenzentren , 2011
  13. ^ Qpace - کیوپیس