Car-tech

Næste op: exascale computere, der forventes at komme frem til 2020

Ikke mere mælk

Ikke mere mælk

Indholdsfortegnelse:

Anonim

Hvis stigningen i supercomputerhastigheder fortsætter i deres nuværende tempo, vil vi se den første exascale-maskine inden 2020, anslå de Top500-kompilering af verdens hurtigste systemer.

Systemarkitekter af sådanne store computere vil imidlertid stå over for en række kritiske problemer, som en målmand af listen advarer om.

"Udfordringerne vil være betydelige for at levere maskinen" sagde Jack Dongarra, et universitet i Tennessee, Knoxville, forsker, der er en af ​​de ansvarlige bag Top500. Dongarra talte på SC2012-konferencen, der afholdes i denne uge i Salt Lake City, under en præsentation om den seneste udgave af listen, der blev udgivet i sidste uge.

Vi har stadig en måde at gå, før exascale ydeevne er mulig. En exascale maskine ville være i stand til en quintillion FLOPS (flydende punkt operationer pr. Sekund) eller 10 til den 18. FLOPS. Selv nutidens hurtigste supercomputere tilbyder mindre end 20 procent af evnen til en exascale maskine.

Top500

Nye højder

I den seneste udgave af Top500-listen over supercomputere, udgivet mandag den hurtigste computer på listen var Oak Ridge National Laboratory Titan-systemet, en maskine, der kunne udføre 17,59 petaflops. En petaflop er en quadrillion flytende punktberegninger pr. Sekund eller 10 til den 15. FLOPS.

Men hver nye Top500-listen, der udarbejdes to gange om året, viser, hvor hurtigt supercomputernes hastigheder vokser. Dommere fra listen synes supercomputere at få ti gange i magt hvert tiende år. I 1996 dukkede den første teraflopcomputer på Top500, og i 2008 dukkede den første petaflop computer op på listen. Ekstrapolerer fra denne fremskridtsgrad estimerer Dongarra, at exascale computing skal ankomme omkring 2020.

Community High Performance Computing (HPC) har taget exascale computing som en vigtig milepæl. Intel har skabt en række massivt multicore-processorer, kaldet Phi, som selskabets håb kunne tjene som grundlag for exascale-computere, der kunne køre i 2018.

I sin tale skitserede Dongarra egenskaberne ved en exascale-maskine. En sådan maskine vil sandsynligvis have et sted mellem 100.000 og 1.000.000 noder og vil kunne udføre op til en milliard tråde på et givent tidspunkt. Den individuelle nodeydelse skal være mellem 1,5 og 15 teraflops, og forbindelserne skal have gennemstrømninger på 200 til 400 gigabyte per sekund.

Supercomputer beslutningstagere skal konstruere deres maskiner, så deres omkostninger og strømforbrug ikke stiger lineært sammen med ydeevne, for at de ikke bliver dyrere for at købe og løbe, sagde Dongarra. En exascale-maskine skal koste omkring 200 millioner dollars og bruger kun ca. 20 megawatt eller omkring 50 gigaflops per watt.

Dongarra forventer, at halvdelen af ​​omkostningerne ved at opbygge en sådan computer ville blive øremærket til at købe hukommelse til systemet. Dømmer fra køreplanerne for hukommelsesproducenter, estimerede Dongarra, at 100 millioner dollars ville købe mellem 32 petabytes til 64 petabyte af hukommelse inden 2020.

Top500

Softwareudfordring

Udover udfordringer i hardware skal designere af exascale supercomputere også gribe med software problemer. Et problem vil være synkronisering, sagde Dongarra. Dagens maskiner overfører opgaver blandt mange forskellige noder, selvom denne tilgang skal strømlines, da antallet af noder stiger.

"I dag er vores model til parallelbehandling en gaffel / delt model, men det kan du ikke gøre ved [eksascale] niveauet af en parallelisme. Vi er nødt til at ændre vores model. Vi skal være mere synkroniske, "sagde Dongarra. På samme linje skal algoritmer udvikles, der reducerer mængden af ​​overordnet kommunikation blandt knuder.

Andre faktorer skal også overvejes. Softwaren skal leveres med indbyggede rutiner til optimering. "Vi kan ikke stole på brugerens indstilling af de rigtige knapper og ringer for at få softwaren til at løbe hvor som helst i nærheden af ​​topprestationer," sagde Dongarra. Fejlfasthed er en anden vigtig funktion, ligesom reproducerbarhed af resultater eller garanti for, at en kompleks beregning vil give det samme svar, når det kører mere end én gang.

Reproducerbarhed kan virke som et indlysende træk for en computer. Men faktisk kan det være en udfordring for store beregninger på multinode supercomputere.

"Ud fra numeriske metoder er det svært at garantere bitvis reproducerbarhed," sagde Dongarra. "Det primære problem er at lave en reduktion - en opsummering af tal parallelt. Hvis jeg ikke kan garantere rækkefølgen, hvor disse tal kommer sammen, har jeg forskellige rundefejl. Den lille forskel kan forstørres på en måde, der kan få svarene til at afvige katastrofalt ", sagde han.

" Vi er nødt til at komme op på et scenario, hvor vi kan garantere den rækkefølge, hvor disse operationer er udført, så vi kan garantere, at vi har de samme resultater, "Sagde Dongarra.

Joab Jackson dækker firmware og generel teknologi, der bryder nyheder til IDG News Service. Følg Joab på Twitter på @Joab_Jackson. Joabs e-mail-adresse er [email protected]