IBM Blue Gene - IBM Blue Gene

IBM Blue Gene
Superpočítač IBM Blue Gene P
Superpočítač Blue Gene/P v Národní laboratoři Argonne
Vývojář IBM
Typ Platforma superpočítače
Datum vydání BG/L: únor 1999 ( Únor 1999 )
BG/P: červen 2007
BG/Q: listopad 2011
Přerušeno 2015 ( 2015 )
procesor BG/L: PowerPC 440
BG/P: PowerPC 450
BG/Q: PowerPC A2
Předchůdce IBM RS/6000 SP ;
QCDOC
Nástupce IBM PERCS
Hierarchie jednotek zpracování Blue Gene

Blue Gene je projekt IBM zaměřený na návrh superpočítačů, které mohou dosahovat provozních rychlostí v rozsahu petaFLOPS (PFLOPS) s nízkou spotřebou energie.

Projekt vytvořil tři generace superpočítačů, Blue Gene/L , Blue Gene/P a Blue Gene/Q . Během svého nasazení systémy Blue Gene často vedly žebříčky TOP500 a Green500 nejvýkonnějších a energeticky nejúčinnějších superpočítačů. Systémy Blue Gene také trvale získávají nejvyšší pozice v seznamu Graph500 . Projekt byl v roce 2009 oceněn Národní medailí za technologie a inovace .

V roce 2015 společnost IBM zřejmě ukončila vývoj rodiny Blue Gene, ačkoli nebylo učiněno žádné veřejné oznámení. Zdá se, že pokračující úsilí IBM o superpočítačovou scénu je soustředěno kolem OpenPower , využívající akcelerátory, jako jsou FPGA a GPU, k boji proti konci Moorova zákona .

Dějiny

V prosinci 1999 IBM oznámila výzkumnou iniciativu v hodnotě 100 milionů USD na pětileté úsilí o vybudování masivně paralelního počítače , které bude aplikováno na studium biomolekulárních jevů, jako je skládání bílkovin . Projekt měl dva hlavní cíle: zdokonalit naše chápání mechanismů za skládáním proteinů pomocí simulace ve velkém měřítku a prozkoumat nové nápady v masivně paralelní architektuře a softwaru strojů. Mezi hlavní oblasti zkoumání patřilo: jak využít tuto novou platformu k efektivnímu splnění jejích vědeckých cílů, jak učinit tak masivně paralelní stroje použitelnějšími a jak dosáhnout výkonových cílů za rozumnou cenu prostřednictvím nové architektury strojů. Počáteční návrh pro Blue Gene byl založen na rané verzi architektury Cyclops64 , kterou navrhl Monty Denneau . Počáteční výzkumné a vývojové práce byly prováděny v IBM TJ Watson Research Center pod vedením Williama R. Pulleyblank .

V IBM začal Alan Gara pracovat na rozšíření architektury QCDOC na univerzálnější superpočítač: Propojovací síť nejbližšího souseda 4D byla nahrazena sítí podporující směrování zpráv z libovolného uzlu do jakéhokoli jiného; a byl přidán paralelní I/O subsystém. DOE začal financovat vývoj tohoto systému a stal se známým jako Blue Gene/L (L for Light); vývoj původního systému Blue Gene pokračoval pod názvem Blue Gene/C (C pro Cyclops) a později Cyclops64.

V listopadu 2004 dosáhl systém se 16 regály , z nichž každý měl 1024 výpočetních uzlů, prvního místa v seznamu TOP500 s výkonem Linpack 70,72 TFLOPS. Tím předstihla Earth Simulator společnosti NEC , který od roku 2002 drží titul nejrychlejšího počítače na světě. Od roku 2004 do roku 2007 se instalace Blue Gene/L v LLNL postupně rozšířila na 104 stojanů, čímž dosáhla 478 TFLOPS Linpack a 596 TFLOPS špičky. Instalace LLNL BlueGene/L si udržela první místo v žebříčku TOP500 po dobu 3,5 roku, až do června 2008 ji předběhl systém IBM Cell-based Roadrunner v Los Alamos National Laboratory , což byl první systém, který překonal značku 1 PetaFLOPS. Systém byl postaven v závodě Rochester, MN IBM.

Zatímco instalace LLNL byla největší instalací Blue Gene/L, následovalo mnoho menších instalací. V listopadu 2006 bylo na seznamu TOP500 27 počítačů využívajících architekturu Blue Gene/L. Na všech těchto počítačích byla uvedena architektura architektury eServer Blue Gene Solution . Například tři regály Blue Gene/L byly umístěny v superpočítačovém centru v San Diegu .

Zatímco TOP500 měří výkon v jedné srovnávací aplikaci, Linpack, Blue Gene/L také vytvořil rekordy ve výkonu v širší sadě aplikací. Blue Gene/L byl prvním superpočítačem, který kdy běžel přes 100 TFLOPS udržovaných na reálné aplikaci, konkrétně trojrozměrný kód molekulární dynamiky (ddcMD), simulující tuhnutí (procesy nukleace a růstu) roztaveného kovu za vysokého tlaku a teploty podmínky. Tento úspěch získal v roce 2005 Cenu Gordona Bella .

V červnu 2006 NNSA a IBM oznámily, že Blue Gene/L dosáhlo 207,3 TFLOPS na kvantově chemické aplikaci ( Qbox ). Na Supercomputingu 2006 byla společnost Blue Gene/L oceněna vítěznou cenou ve všech kategoriích ocenění HPC Challenge Classes. V roce 2007 spustil tým z Výzkumného centra IBM Almaden a Nevadské univerzity umělou neuronovou síť téměř na polovinu složitější než mozek myši na ekvivalent sekundy (síť byla spuštěna 1/10 normální rychlosti pro 10 sekund).

název

Název Blue Gene pochází z toho, k čemu byl původně navržen, aby pomohl biologům porozumět procesům skládání proteinů a vývoji genů . „Blue“ je tradiční přezdívka, kterou IBM používá pro mnoho svých produktů i pro samotnou společnost . Původní design Blue Gene byl přejmenován na „Blue Gene/C“ a nakonec na Cyclops64 . „L“ v Blue Gene/L pochází z „Light“, protože původní název tohoto designu byl „Blue Light“. Verze „P“ byla navržena jako petascale design. „Q“ je pouze písmeno za „P“. Neexistuje žádný modrý gen/R.

Hlavní vlastnosti

Superpočítač Blue Gene/L byl jedinečný v následujících aspektech:

  • Výměna rychlosti procesorů za nižší spotřebu energie. Blue Gene/L používá jádra PowerPC s nízkou frekvencí a nízkým výkonem a akcelerátory s plovoucí desetinnou čárkou. Zatímco výkon každého čipu byl relativně nízký, systém mohl dosáhnout lepší energetické účinnosti pro aplikace, které by mohly využívat velký počet uzlů.
  • Duální procesory na uzel se dvěma pracovními režimy: režim koprocesoru, kde jeden procesor zpracovává výpočet a druhý komunikaci; a režim virtuálního uzlu, kde jsou oba procesory k dispozici pro spuštění uživatelského kódu, ale procesory sdílejí jak výpočet, tak komunikační zátěž.
  • Návrh systému na čipu. Komponenty byly vloženy do jednoho čipu pro každý uzel, s výjimkou 512 MB externí DRAM.
  • Velký počet uzlů (škálovatelný v krocích po 1024 až nejméně 65 536)
  • Trojrozměrné propojení torusů s pomocnými sítěmi pro globální komunikaci (vysílání a redukce), I/O a správu
  • Lehký OS na uzel pro minimální režii systému (hluk systému).

Architektura

Architektura Blue Gene/L byla evolucí architektur QCDSP a QCDOC . Každý Blue Gene/L Compute nebo I/O uzel byl jeden ASIC s přidruženými paměťovými čipy DRAM . ASIC integroval dva 700 MHz integrované procesory PowerPC 440 , každý s dvojitým potrubím s dvojitou přesností Floating Point Unit (FPU), subsystém mezipaměti s integrovaným řadičem DRAM a logikou pro podporu více komunikačních subsystémů. Duální FPU poskytly každému uzlu Blue Gene/L teoretický špičkový výkon 5,6 GFLOPS (gigaFLOPS) . Oba procesory nebyly navzájem vyrovnané .

Výpočtové uzly byly zabaleny po dvou na výpočetní kartu, se 16 výpočetními kartami plus až 2 I/O uzly na desce uzlů. V jedné skříni/stojanu bylo 32 uzlových desek. Díky integraci všech základních subsystémů na jeden čip a použití logiky s nízkým výkonem každý uzel Compute nebo I/O rozptýlil nízký výkon (asi 17 wattů, včetně DRAM). To umožnilo agresivní zabalení až 1024 výpočetních uzlů a dalších I/O uzlů do standardního 19palcového stojanu v rozumných mezích elektrického napájení a chlazení vzduchem. Metriky výkonu, pokud jde o FLOPS na watt , FLOPS na m 2 podlahové plochy a FLOPS na jednotku nákladů, umožnily škálování až na velmi vysoký výkon. S tolika uzly byly selhání komponent nevyhnutelné. Systém byl schopen elektricky izolovat vadné součásti až do zrnitosti poloviny stojanu (512 výpočetních uzlů), aby stroj mohl pokračovat v provozu.

Každý uzel Blue Gene/L byl připojen ke třem paralelním komunikačním sítím: 3D toroidní síť pro komunikaci peer-to-peer mezi výpočetními uzly, kolektivní síť pro kolektivní komunikaci (vysílání a omezení operací) a globální přerušovací síť pro rychlé bariéry . I/O uzly, na kterých běží operační systém Linux , zajišťovaly komunikaci s úložišti a externími hostiteli prostřednictvím ethernetové sítě. I/O uzly zpracovávaly operace se souborovým systémem jménem výpočetních uzlů. Nakonec samostatná a soukromá ethernetová síť poskytovala přístup k libovolnému uzlu pro konfiguraci, spouštění a diagnostiku. Aby bylo možné spouštět více programů souběžně, mohl by být systém Blue Gene/L rozdělen na elektronicky izolované sady uzlů. Počet uzlů v oddílu musel být kladný celočíselný výkon 2, přičemž alespoň 2 5 = 32 uzlů. Ke spuštění programu na Blue Gene/L byl nejprve vyhrazen oddíl počítače. Program byl poté načten a spuštěn na všech uzlech v rámci oddílu a žádný jiný program neměl přístup k uzlům v rámci oddílu, když byl používán. Po dokončení byly uzly oddílu uvolněny pro použití v budoucích programech.

Výpočetní uzly Blue Gene/L používaly minimální operační systém podporující program pro jednoho uživatele. Byla podporována pouze podmnožina volání POSIX a pouze jeden proces mohl běžet současně na uzlu v režimu koprocesoru-nebo jeden proces na CPU ve virtuálním režimu. Programátoři potřebovali implementovat zelená vlákna , aby simulovali místní souběžnost. Vývoj aplikací byl obvykle prováděn v C , C ++ nebo Fortranu pomocí MPI pro komunikaci. Některé skriptovací jazyky, jako například Ruby a Python, však byly přeneseny do výpočetních uzlů.

IBM zde zveřejnila BlueMatter, aplikaci vyvinutou pro cvičení Blue Gene/L, jako open source zde. To slouží k dokumentaci toho, jak aplikace používaly torus a kolektivní rozhraní, a může sloužit jako základ pro ostatní, aby mohli využívat současnou generaci superpočítačů.

Blue Gene/P

Karta uzlu Blue Gene/P
Schematický přehled superpočítače Blue Gene/P

V červnu 2007, IBM představila Blue Gene / P , druhá generace řady Blue Gene superpočítačů a navrhl prostřednictvím spolupráce, která zahrnovala IBM, LLNL a Argonne National Laboratory ‚s Leadership Computing Facility .

Design

Design Blue Gene/P je technologickou evolucí od Blue Gene/L. Každý čip Blue Gene/P Compute obsahuje čtyři jádra procesoru PowerPC 450 s frekvencí 850 MHz. Jádra jsou koherentní s mezipamětí a čip může fungovat jako 4cestný symetrický multiprocesor (SMP). Paměťový subsystém na čipu se skládá z malých soukromých mezipamětí L2, centrální sdílené mezipaměti L3 o velikosti 8 MB a dvou řadičů paměti DDR2 . Čip také integruje logiku komunikace mezi uzly pomocí stejných topologií sítě jako Blue Gene/L, ale s více než dvojnásobnou šířkou pásma. Výpočetní karta obsahuje čip Blue Gene/P se 2 nebo 4 GB DRAM, který obsahuje „výpočetní uzel“. Jeden výpočetní uzel má špičkový výkon 13,6 GFLOPS. 32 výpočetních karet je zapojeno do vzduchem chlazené desky uzlů. Nosič obsahuje 32 uzlů desek (tedy 1024 uzly, 4096 procesorových jader). Díky použití mnoha malých, nízkoenergetických, hustě zabalených čipů Blue Gene/P překonal energetickou účinnost ostatních superpočítačů své generace a na 371 MFLOPS/W instalacích Blue Gene/P se umístilo na vrcholu seznamu Green500 nebo v jeho blízkosti 2007-2008.

Instalace

Následuje neúplný seznam instalací Blue Gene/P. Za listopad 2009 seznam TOP500 obsahoval 15 instalací Blue Gene/P dvou racků (2048 uzlů, 8192 procesorových jader, 23,86 TFLOPS Linpack ) a větších.

  • 12. listopadu 2007 byla ve Forschungszentrum Jülich v Německu spuštěna první instalace Blue Gene/P, JUGENE , se 16 regály (16 384 uzlů, 65 536 procesorů) s výkonem 167 TFLOPS. Když byl slavnostně uveden, byl nejrychlejším superpočítačem v Evropě a šestým nejrychlejším na světě. V roce 2009 byl JUGENE upgradován na 72 racků (73 728 uzlů, 294 912 jader procesoru) se 144 terabajty paměti a 6 petabajty úložiště a dosáhl špičkového výkonu 1 PetaFLOPS. Tato konfigurace začlenila nové tepelné výměníky vzduch-voda mezi regály, čímž se podstatně snížily náklady na chlazení. JUGENE byl odstaven v červenci 2012 a nahrazen systémem Blue Gene/Q JUQUEEN .
  • Systém „Intrepid“ 40-rack (40960 uzlů, 163840 procesorových jader) v Argonne National Laboratory byl v žebříčku Top 500 z června 2008 zařazen na 3. místo. Systém Intrepid je jedním z hlavních zdrojů programu INCITE, ve kterém jsou hodiny procesorů udělovány vědeckým a inženýrským projektům „velké výzvy“ v recenzované soutěži.
  • Národní laboratoř Lawrence Livermore nainstalovala v roce 2009 36-rackovou instalaci Blue Gene/P „Dawn“.
  • Král Abdullah University of Science and Technology ( KAUST ) instaloval / instalace P 16-rack Blue Gene, " Shaheen ", v roce 2009.
  • V roce 2012 byl na Rice University nainstalován 6-rackový Blue Gene/P, který bude společně spravován Univerzitou v São Paulu .
  • 2,5 rackový systém Blue Gene/P je centrálním procesorem projektu Low Frequency Array for Radio Astronomie ( LOFAR ) v Nizozemsku a okolních evropských zemích. Tato aplikace využívá možnosti streamování dat stroje.
  • 2-rackový Blue Gene/P byl instalován v září 2008 v Sofii v Bulharsku a je provozován Bulharskou akademií věd a Sofijskou univerzitou .
  • V roce 2010 byl na univerzitě v Melbourne instalován 2-rackový (8192-jádrový) Blue Gene/P pro viktoriánskou iniciativu pro výpočetní vědy o životě .
  • V roce 2011 byl na univerzitě v Canterbury v Christchurch na Novém Zélandu nainstalován 2-rackový Blue Gene/P .
  • V roce 2012 byl na Rutgers University v Piscataway v New Jersey instalován 2-rackový Blue Gene/P . Byl nazván „Excalibur“ jako pocta maskotovi Rutgers, Scarlet Knight.
  • V roce 2008 byl na University of Rochester v Rochesteru v New Yorku nainstalován 1-rackový (1024 uzlů) Blue Gene/P se 180 TB úložiště .
  • První Blue Gene/P v regionu ASEAN byl instalován v roce 2010 ve výzkumném centru Universiti of Brunei Darussalam , UBD-IBM Center . Instalace podnítila výzkumnou spolupráci mezi univerzitou a výzkumem IBM v oblasti klimatického modelování, který bude mimo jiné zkoumat dopad změny klimatu na předpovědi povodní, výnosy plodin, obnovitelnou energii a zdraví deštných pralesů v regionu.
  • V roce 2013 byl 1-rack Blue Gene/P věnován ministerstvu vědy a technologie na předpovědi počasí, zvládání katastrof, přesné zemědělství a zdravotnictví a je umístěn v Národním počítačovém centru, Diliman, Quezon City, pod záštitou Philippine Genome Center (PGC) Core Facility for Bioinformatics (CFB) at UP Diliman, Quezon City.

Aplikace

  • Veselin Topalov , vyzyvatel titulu mistra světa v šachu v roce 2010, v rozhovoru potvrdil, že během přípravy na zápas použil superpočítač Blue Gene/P.
  • Počítač Blue Gene/P byl použit k simulaci přibližně jednoho procenta lidské mozkové kůry, obsahující 1,6 miliardy neuronů s přibližně 9 biliony spojení.
  • Tým projektu IBM Kittyhawk přenesl Linux do výpočetních uzlů a předvedl generické pracovní zatížení Web 2.0, které běží ve velkém na Blue Gene/P. Jejich článek, publikovaný v ACM Operating Systems Review , popisuje ovladač jádra, který tuneluje ethernet přes stromovou síť, což má za následek všestranné připojení TCP/IP . Běžící na standardním Linuxovém softwaru, jako je MySQL , patří jejich výkonnostní výsledky na SpecJBB mezi nejvyšší v historii.
  • V roce 2011 propojil tým Rutgers University / IBM / University of Texas instalaci KAUST Shaheen spolu s instalací Blue Gene / P v IBM Watson Research Center do „federativního vysoce výkonného výpočetního cloudu“ a vyhrál výzvu IEEE SCALE 2011 s aplikace pro optimalizaci zásobníku oleje.

Blue Gene/Q

IBM Blue Gene/Q nainstalován v Argonne National Laboratory , poblíž Chicaga, Illinois.

Třetí design superpočítače v řadě Blue Gene, Blue Gene/Q, má špičkový výkon 20 petaflopsů , což je výkonnost benchmarku LINPACK 17 petaflops . Blue Gene/Q pokračuje v rozšiřování a vylepšování architektur Blue Gene/L a/P.

Design

Čip Blue Gene/Q Compute je 18jádrový čip. Tyto 64-bitové A2 procesorová jádra jsou 4-cesta současně multithreaded , a běží na 1,6 GHz. Každé jádro procesoru má jednotku SIMD Quad-vector s dvojitou přesností s plovoucí desetinnou čárkou (IBM QPX). Pro výpočet se používá 16 jader procesoru a 17. jádro pro pomocné funkce operačního systému, jako jsou přerušení , asynchronní I/O , stimulace MPI a RAS . 18. jádro se používá jako nadbytečné náhradní, slouží ke zvýšení výtěžku výroby. Ušetřené jádro je vypnuto ve funkčním provozu. Jádra procesoru jsou propojena křížovým přepínačem s 32 MB mezipaměti eDRAM L2 pracující na poloviční rychlosti. Mezipaměť L2 má více verzí, podporuje transakční paměť a spekulativní provádění a má hardwarovou podporu pro atomové operace . O vynechání mezipaměti L2 se starají dva vestavěné řadiče paměti DDR3 běžící na frekvenci 1,33 GHz. Čip také integruje logiku pro komunikaci typu chip-to-chip v konfiguraci 5D torus s propojením 2GB/s chip-to-chip. Čip Blue Gene/Q je vyráběn měděným procesem SOI společnosti IBM při 45 nm. Poskytuje špičkový výkon 204,8 GFLOPS při 1,6 GHz, přičemž čerpá přibližně 55 wattů. Čip měří 19 × 19 mm (359,5 mm²) a obsahuje 1,47 miliardy tranzistorů. Čip je uložen na výpočetní kartě spolu se 16 GB DDR3 DRAM (tj. 1 GB pro každé jádro procesoru uživatele).

Výpočetní zásuvka Q32 obsahuje 32 výpočetních karet, každou vodou chlazenou. „Střední rovina“ (bedna) obsahuje 16 výpočetních zásuvek Q32 pro celkem 512 výpočetních uzlů, elektricky propojených v konfiguraci 5D torus (4x4x4x4x2). Za úrovní střední úrovně jsou všechna připojení optická. Regály mají dvě střední roviny, tedy 32 výpočetních zásuvek, celkem 1024 výpočetních uzlů, 16 384 uživatelských jader a 16 TB RAM.

Samostatné zásuvky I/O, umístěné v horní části stojanu nebo v samostatném stojanu, jsou chlazeny vzduchem a obsahují 8 výpočetních karet a 8 rozšiřujících slotů PCIe pro sítě InfiniBand nebo 10 Gigabit Ethernet .

Výkon

V době oznámení systému Blue Gene/Q v listopadu 2011 dosáhl počáteční 4-rackový systém Blue Gene/Q (4096 uzlů, 65536 uživatelských procesorových jader) #17 v seznamu TOP500 s 677,1 TeraFLOPS Linpack, což překonalo původní 2007 104-racková instalace BlueGene/L popsaná výše. Stejný 4-rackový systém dosáhl nejvyšší pozice v seznamu Graph500 s více než 250 GTEPS (giga přejetými hranami za sekundu ). Systémy Blue Gene/Q se také umístily na vrcholu seznamu energeticky nejúčinnějších superpočítačů Green500 s výkonem až 2,1 GFLOPS/W .

V červnu 2012 se instalace Blue Gene/Q umístily na předních místech ve všech třech seznamech: TOP500 , Graph500 a Green500 .

Instalace

Následuje neúplný seznam instalací Blue Gene/Q. Za červen 2012 obsahoval seznam TOP500 20 instalací Blue Gene/Q 1/2-racku (512 uzlů, 8192 jader procesoru, 86,35 TFLOPS Linpack) a větších. Při energetické účinnosti (nezávislé na velikosti) přibližně 2,1 GFLOPS/W se všechny tyto systémy umístily také na vrcholu seznamu Green 500 z června 2012 .

  • Systém Blue Gene/Q s názvem Sequoia byl dodán do Národní laboratoře Lawrence Livermore (LLNL) počínaje rokem 2011 a byl plně nasazen v červnu 2012. Je součástí programu Advanced Simulation and Computing Program provozujícího jaderné simulace a pokročilý vědecký výzkum. Skládá se z 96 stojanů (obsahuje 98 304 výpočetních uzlů s 1,6 milionem procesorových jader a 1,6 PB paměti) o rozloze přibližně 280 čtverečních stop (280 m 2 ). V červnu 2012 byl systém zařazen mezi nejrychlejší superpočítače na světě. při špičce 20,1 PFLOPS , trvalé 16,32 PFLOPS (Linpack), výkon až 7,9 megawattů . V červnu 2013 je jeho výkon uveden na 17,17 PFLOPS sustained (Linpack).
  • V národní laboratoři Argonne v Argonne Leadership Computing Facility byl v roce 2012 nainstalován systém 10 G PFLOPS (špičkový) s názvem Mira . Skládá se ze 48 stojanů (49 152 výpočetních uzlů) a 70 PB diskového úložiště (470 GB/s Šířka pásma I/O).
  • JUQUEEN na Forschungzentrum Jülich je 28-rackový systém Blue Gene/Q a byl od června 2013 do listopadu 2015 nejvýše umístěným strojem v Evropě v Top500.
  • Vulcan at Lawrence Livermore National Laboratory (LLNL) je 24-rackový, 5 PFLOPS (špičkový) systém Blue Gene/Q, který byl uveden do provozu v roce 2012 a vyřazen z provozu v roce 2019. Vulcan sloužil projektům laboratorního průmyslu prostřednictvím Livermore High Performance Computing (HPC) Inovační centrum a akademická spolupráce na podporu misí DOE/National Nuclear Security Administration (NNSA).
  • Fermi v zařízení CINECA Supercomputing, Bologna, Itálie, je 10-rackový, 2 PFLOPS (špičkový) systém Blue Gene/Q.
  • V rámci Diracových , na Engineering počítačů 6 stojan (6144 uzel) Blue Gene / Q systém na University of Edinburgh
  • V Rensselaer Polytechnic Institute v roce 2013 byl nainstalován pětirackový systém Blue Gene/Q s dalším výpočetním hardwarem s názvem AMOS . Systém byl ohodnocen 1048,6 teraflopy, nejvýkonnějším superpočítačem na jakékoli soukromé univerzitě a třetím nejvýkonnějším superpočítačem mezi všemi univerzitami v roce 2014. .
  • Systém Blue Gene/Q 838 TFLOPS (vrchol) s názvem Avoca byl nainstalován na iniciativě Victorian Life Sciences Computation Initiative v červnu 2012. Tento systém je součástí spolupráce mezi společnostmi IBM a VLSCI s cílem zlepšit diagnostiku a najít nové cíle v oblasti léčiv , zdokonalení léčby a prohloubení našeho chápání nemocí. Systém se skládá ze 4 stojanů s 350 TB úložiště, 65 536 jader, 64 TB RAM.
  • V červenci 2012 byl na univerzitě v Rochesteru nainstalován systém 209 TFLOPS (vrchol) Blue Gene/Q . Tento systém je součástí Centra zdravotních věd pro výpočetní inovace , které se věnuje aplikaci vysoce výkonných počítačů do výzkumných programů. ve zdravotnických vědách . Systém se skládá z jednoho stojanu (1024 výpočetních uzlů) se 400 TB vysoce výkonného úložiště.
  • V březnu 2013 byl v EPFL nainstalován systém Blue Gene/Q s názvem Lemanicus s maximem 209 TFLOPS (172 TFLOPS LINPACK) nazvaný Lemanicus . Tento systém patří Centru pro vědu pokročilého modelování CADMOS (), což je spolupráce mezi třemi hlavními výzkumnými institucemi v oblasti břeh Ženevského jezera ve francouzsky mluvící části Švýcarska: University of Lausanne , University of Geneva a EPFL . Systém se skládá z jednoho stojanu (1024 výpočetních uzlů) s 2,1 PB úložiště IBM GPFS-GSS.
  • Na začátku roku 2011 byl v A*STAR Computational Resource Center v Singapuru nainstalován poloviční regálový systém Blue Gene/Q s přibližně 100 TFLOPS (vrchol) s názvem Cumulus .

Aplikace

Rekordní vědecké aplikace byly spuštěny na BG/Q, prvním, který překročil 10 petaflops udržitelného výkonu. Kosmologický simulační rámec HACC dosáhl téměř 14 petaflopsů s 3,6 bilionovým testem referenčních částic, zatímco kód Cardioid, který modeluje elektrofyziologii lidského srdce, dosáhl téměř 12 petaflopsů se simulací téměř v reálném čase, a to jak na Sequoia . Plně stlačitelný řešič průtoku také dosáhl 14,4 PFLOP/s (původně 11 PFLOP/s) na Sequoia, 72% nominálního špičkového výkonu stroje.

Viz také

Reference

externí odkazy

Evidence
Předchází
Teraflopy NEC Earth Simulator
35,86
Nejvýkonnější superpočítač na světě
(Blue Gene/L)

listopad 2004 - listopad 2007
Uspěl
IBM Roadrunner
1.026 petaflops