Közzétéve: 2011.03.25.
„Különlegesen nagy lebegőpontos teljesítménnyel rendelkező, tudományos, ipari, katonai célú számítógép, több tucat vagy több ezer processzort is tartalmazhat. Általában valamilyen Unix alapú rendszert futtatnak, hozzáférésük korlátozott.”
A szuper, és a nagy számítógépek
Készült: 2011. február
Minőségét megőrzi: 12 hónapig
Igen-igen, lehet, hogy furcsa, de azok a cikkek, amelyek valamilyen csúcstechnikáról szólnak, maximum 1 évig tekinthetők frissnek.
2880 processzormag, 16 terabájt RAM, a teljes Wikipedia, a New York Times Archívuma, a Biblia, két tucat programozó és rengeteg speciális algoritmus kellett ahhoz, hogy összeálljon Watson, az a szuperszámítógép, amely a napokban küzdött meg a Jeopardy amerikai televíziós vetélkedő két humán származású sztárjával. A gép nyert. Mielőtt valaki azt mondaná, hogy könnyű neki, ennyi adattal a memóriájában, el kell mondanom, hogy a gép messze nem olyan jó néhány dologban, mint az ember. Például nagyon nehéz neki egy szójátékot elemezni, megérteni, vagy kitalálni. A verseny egyébként sokáig döntetlenre állt.
Nem Watson a legnagyobb szuperszámítógép napjainkban. Ő inkább egy célgép, erre a játékra kifejlesztve, de nagyon jó reklám a szuperszámítógépek számára.
A címben külön említettem a nagygépeket is. A kezdeti időkben a nagygép, és a szupergép ugyanazt jelentette, de a 21. században élesen különvált a két fogalom jelentése.
Szokás szerint kezdjük a szupergépek történetével
Néhány gyártó készített csak nagygépeket az 1950-től 1970-ig tartó időszakban. Azokban a dicsőséges időkben az „IBM és a hét törpe”: Burroughs, Control Data Corporation, General Electric, Honeywell, NCR, RCA, és a UNIVAC volt a piacon. Az 1950-es évekig az IBM főleg katonai célalkalmazásokhoz készített speciális célgépeket. Az első általános célú nagygépet végül is nem az IBM készítette el, de gyorsan váltott, és a célgépekről áttért az általános célú nagygépek gyártására. Ekkor, a 70-es években született a „nagygép” „mainframe” elnevezés, megkülönböztetésül a terjedő mikroszámítógépektől. Az IBM meghatározó piaci szerepe a 700/7000 sorozatok sikerének köszönhetően megerősödött, később a 360-as sorozattal pedig gyakorlatilag egyeduralkodó lett a piacon. A 360-as sorozat volt egyébként az akkori KGST országok közös számítógép-rendszerének (az orosz „Rjad” rövidítéséből R sorozat) „célgépe”. A későbbi architektúrák folyamatos továbbfejlesztésével alakult ki a jelenlegi zSeries/z9 nagygépes architektúra.
A piac szűkülése, a verseny keményedése a '80-as években átrendezte a résztvevőket. Az RCA-t megvette a UNIVAC; a GE kiszállt; a Honeywell-t kivásárolta a Bull; a UNIVAC később egyesült a Burroughsszal Unisys Corporation néven 1986-ban (ezt hívták akkoriban a „dinoszauruszok nászának”).
A ’90-es évek két nagy változást hozott:
- a PC-k terjedése miatt már temették a nagygépeket,
- elkezdtek szuperszámítógépeket fejleszteni főleg katonai, és kutatóintézeti felhasználásra, ekkor tehát egyértelműen különvált a szuperszámítógép és a nagygép fogalma.
A PC-k olcsóbbak voltak, és majdnem mindent tudtak, amit a nagy gépek, de néhány katasztrofális leállás megmutatta a lényeges különbséget: A nagygépek biztonságosak, a PC-k nem.
A ’90-es évek vége, és a 21. század eleje újra fellendülést hozott a nagygépek és a szuperszámítógépek piacán. A szupergépek nem a biztonságra, hanem a gyorsaságra, a minél több művelet másodpercenkénti elvégzésére helyezték a hangsúlyt, míg a nagygépek a minél hosszabb leállás nélküli időre, valamint a skálázhatóságra összpontosították a fejlesztéseket.
A minél nagyobb számítási kapacitás elérése érdekében sokszor szupergépek helyett grideket alkalmaztak. Ezek kisebb gépek összekapcsolásával jöttek létre, és erőforrásaik egyesítésével képeztek egy szuperszámítógépet. A fejlődés szédítő. Az 1969-es Holdra-szállás összes kapacitása helyettesíthető lett volna egyetlen 386-os géppel, és hol van már a 386-os?
Az egy lapkára integrált tranzisztorok száma már a milliárdot is elérte. Egy-egy processzor már több magot, és mindegyikhez külön gyorsító tárat tartalmaz.
2001-ben Magyarországon szupergépnek neveztek egy 220 magos, 400 GB memóriával szerelt gépet, 600 GFlop/s teljesítménnyel (600 milliárd lebegőpontos művelet másodpercenként.). 2005-ben a leggyorsabb gép 100 TeraFlop/s-os volt.
Leibnizben jövőre adják át a SuperMUC nevű szuperszámítógépet, 3 PetaFlop/s sebességgel, 320 Terabájt memóriával, és 12 Petabájt tároló kapacitással. A 14000 processzor 110000 magot tartalmaz majd.
Az 1Flop/s 1 lebegőpontos művelet másodpercenként. A Giga egymilliárdot (109), a Tera egy billiárdot (1012), a Peta ezer billiárdot (1015), az Exa millió billiárdot (1018) jelent.
Mit tud ma egy nagygép?
A legfontosabb, hogy évekig képes leállás nélkül üzemelni. A műveleteket több processzor egyszerre végzi el, és az eredményeket összehasonlítja. Ha eltérést tapasztal, megkeresi a hibás alkatrészt, azt leállítja, és gondoskodik a cseréjéről, ami természetesen a gép leállítása nélkül elvégezhető. A felhasználó észre sem veszi.
Az erőforrásokat rugalmasan osztja ki a feladatok között, ezt hívják skálázhatóságnak. Így akár száz szervert is képes helyettesíteni, sokkal kisebb adminisztrációs, és egyéb költségekkel. A nagygépek fontos tulajdonsága a visszafelé való kompatibilitás. Van olyan gép, amin még ’60-as évekbeli szoftverek futnak.
Mit tud ma egy szupergép?
A leibnizit már írtam fent. Az IBM Németországban hoz létre egy másik gépet, 1 ExaFlop/s gyorsasággal. Kínában tavaly október óta üzemel a Tianhe-1A (balra) nevű szuperszámítógép, amely ma a leggyorsabb a világon: 5 PetaFlop/s–ot tud. (Ez óriási presztízsveszteség az USA-nak, mert eddig mindig náluk volt a leggyorsabb gép a Földön.) Kína ma a világ legnagyobb High-Tech exportőre, és jelenleg éppen arra törekszik, hogy teljesen függetlenítse magát a nyugati chip-szállítóktól is.
A fentiek mutatják, hogy a nagygépek, és a szupergépek más-más igényt elégítenek ki. A nagygépek ott működnek, ahol fontos az üzembiztonság, a skálázhatóság, és nagy adatmennyiségek, de általában egyszerű műveletek kezelése a cél. Üzleti élet, villamos ellátó rendszerek, stb. A szupergépeknél előfordulhat leállás, de ez nem katasztrofális, legfeljebb meg kell ismételni a feladat végrehajtását, viszont a feladatok nagyon számítás igényesek. Ilyenek pl. az ipari modellszámítások, időjárás modellezés, genetikai, és más kutatóintézeti problémák, és a katonai tervezések. A nagygépekkel ellentétben itt nem fontos a visszafele kompatibilitás, mivel a feladatok gyorsan változnak, így a szoftverek is mindig megújulnak.
Akit jobban érdekel a téma, annak figyelmébe ajánlom a processzorokról ugyanitt található cikket, amelyben a jövőt a processzorgyártók próbálták megjósolni. Azt hiszem, messze van még a fejlődés vége.