Przetłumacz Stronę

Poszukaj

Informacje

Od 11.01.2006 odwiedziło mnie: 17928295 internautów

Dobre Strony

Encyklopedia Radiooperatora - sprzęt, informacje, pomoc
Start arrow Ciekawostki arrow Superkomputery
Superkomputery Drukuj Email

Superkomputery: wszystko, czego nie wiesz, a o co bałeś się zapytać

PC World Komputer

Jaki jest najszybszy superkomputer na świecie? Czy mamy w Polsce bardzo wydajne maszyny? Czy na superkomputerze da się uruchomić Windows? Jaka jest moc obliczeniowa wielkich maszyn i do czego się je wykorzystuje? Czy każdy mógłby złożyć superkomputer? Z jakich procesorów się je buduje? Czy da się łatwo przeliczyć teraflopy na megaherce? Która firma dominuje na liście TOP 500, czyli najwydajniejszych superkomputerów na świecie? Spróbujemy odpowiedzieć na te wszystkie pytania, a przy okazji posłuchamy wypowiedzi specjalistów z warszawskiego ICM - tymi, którzy praktycznie każdego dnia mogą dotknąć najprawdziwszych superkomputerów.

W zeszłym tygodniu miała miejsce premiera kart graficznych opartych na chipsecie ATI Radeon X1900 ( patrz artykuł: "Radeon X1900 XTX podnosi poprzeczkę - http://www.pcworld.pl" ). Przedstawiciel firmy ATI, Chris Hook, powiedział nam wtedy - http://www.idg.pl co następuje: "...Ale żeby mieć wyobrażenie o wartości sprzętu [czyli karty opartej na nowym Radeonie - przyp. ŁB], posłużę się takim przykładem: prezentowany tu system z dwiema kartami CrossFire Radeon X1900, wyposażony w najlepsze podzespoły, kosztował sporo, bo około trzy tysiące euro. Jego całkowita moc obliczeniowa to 1,16 teraflopa. Tymczasem zaledwie 6 lat temu superkomputer DeepBlue o nieco mniejszej mocy obliczeniowej 1 teraflopa kosztował 50 milionów dolarów. ( ... ) Tak więc dużo pieniędzy dziś okazuje się być śmiesznie małą kwotą wobec cen za taką samą wydajność 6 lat temu."

Rzeczywiście, nie ma w tym ani odrobiny czczej przechwałki: superkomputery starzeją się dokładnie tak samo, jak typowe stacje robocze. Budowa dużego klastra obliczeniowego trwa przynajmniej kilka miesięcy - czyli akurat tyle, by na rynku pojawiła się kolejna generacja wydajniejszych procesorów. A jeśli plany przewidują, że centrum wystartuje w przeciągu 2-3 lat, jego konstruktorzy mogą mieć pewność, że użyte w nim podzespoły nie będą należały już do ścisłej czołówki pod względem wydajności. Superkomputer to jednak nie tylko procesor.

Charakterystyczny beczkowaty Cray - kształt komputera nie jest przypadkowy, twórcy maszyny po raz pierwszy natknęli się na granice wyznaczane przez stałe fizyczne


Superkomputer, klaster - co to jest?
Tak naprawdę trudno zdefiniować, którą maszynę należy nazwać "superkomputerem". Zależy to bowiem nie tylko od mocy obliczeniowej czy zajmowanej przez nią powierzchni, ale również od momentu, w którym jej się przyglądamy. Przeciętny pecet z procesorem AMD czy Intela taktowany zegarem 1 GHz byłby superkomputerem, gdyby przenieść go dwadzieścia lat wstecz.
Nie musimy nawet cofać się do czasów wypraw na Księżyc i wspominać ówczesnych maszyn, by zrozumieć, jak gwałtownie przybywa nam mocy obliczeniowej: otóż mniej więcej w połowie lat dziewięćdziesiątych Stany Zjednoczone rozpoczęły modernizację maszyn zawiadujących całym cywilnym lotniczym ruchem pasażerskim nad terytorium USA. Zakup nowych komputerów był niezbędny, gdyż te wtedy wykorzystywane przestawały sobie radzić z obróbką napływających danych. Oszacowano wtedy, że ich sumaryczna moc obliczeniowa była niższa niż zwykłego PC-ta z Pentium 100 ( patrz również inne doniesienia w tym tonie: "Superkomputer na żądanie - http://www.pcworld.pl" ). Tymczasem podczas wdrażania niecałe dwadzieścia lat wcześniej były to bajecznie drogie i niespotykanie wydajne maszyny...

Wracając zatem do superkomputerów: wydaje się, że jednym z rozsądniejszych kryteriów jest branie pod uwagę pochłanianej przez maszyny mocy. Choć granica nawet tutaj jest płynna, mówi się, że gdy do chłodzenia komputerów wymagane jest stworzenie osobnego, klimatyzowanego pomieszczenia, możemy mówić przynajmniej o zarodku superkomputera. Oczywiście tak wielka konsumpcja energii elektrycznej ma swoje negatywne skutki - amerykańska agencja AFCOM bije na alarm, że każdego roku centra obliczeniowe pochłaniają więcej i więcej mocy ( patrz artykuł: "Superkomputer czy liczydło? - http://www.idg.pl" ).

Wspomnieliśmy już jednak, że przedrostek "super-" nie bierze się wyłącznie z zastosowania bardzo wydajnych procesorów. Każda supermaszyna to innowacyjny, projektowany często od zera układ, chciałoby się powiedzieć: organizm. Można by rzec, że przypomina ona procesor RISC w dużo większej skali: mamy olbrzymią ilość jednostek obliczeniowych i trzeba je tak połączyć, by wszystkie dało się nakarmić optymalną ilością danych. Służą do tego specjalne magistrale łączące CPU, chipy przydzielające dostęp do pamięci czy zapewniające komunikację itd.
Infrastruktura zapewniająca procesorowi kontakt ze światem zewnętrznym ( w typowym pececie zwana chipsetem ) wpływa na spowolnienie operacji wykonywanych przez CPU, ale jest absolutnie niezbędna. A przynajmniej tak się wydawało, póki Cisco - firma znana z produkcji urządzeń sieciowych - nie wystąpiła z koncepcją spinania w sieci nie wielkich maszyn, lecz - procesorów ( patrz artykuł: "Sieci łączące... procesory? - http://www.pcworld.pl" )!

Super- czy hiperkomputery rzadko pracują w pojedynkę. Zwykle spina się je w wielkie układy połączone sieciami o olbrzymich przepustowościach ( np. Ethernet 1 Gbit czy Infiniband ), które tworzą klastry. Klaster jest samodzielną jednostką, której można przypisać określone zadanie obliczeniowe albo który można wirtualnie podzielić w celu równoległego zajmowania się więcej niż jedną złożoną kalkulacją.

Do czego służą superkomputery?
Najprostsza odpowiedĹş brzmi: do wszystkiego. Z wykorzystaniem olbrzymiej mocy obliczeniowej możliwe jest zaoszczędzenie na budowie bomb atomowych/termojądrowych/neutronowych - pisze się po prostu odpowiednie oprogramowanie, które symuluje wybuch, a następnie obserwuje się jego działanie ( patrz również: "Komputerowa symulacja eksplozji nuklearnej - http://www.pcworld.pl/news/73779.html" ).

To jednak nie koniec: wydajne centrum obliczeniowe potrzebne jest praktycznie w każdym ośrodku naukowym czy korporacji, której celem jest nie tylko naśladowanie lepszych wzorców, ale także szybkie parcie do przodu i wprowadzanie na rynek kolejnych rozwiązań. Superkomputery stosuje się w badaniach modeli samochodów ( patrz artykuł: "Superkomputer dla Toyoty - http://www.pcworld.pl" ), do badania symulacji złożonych białek czy DNA ( patrz artykuł: "IBM kontra szalone krowy - http://www.pcworld.pl" ), do przetwarzania danych zebranych podczas nasłuchu Kosmosu ( patrz artykuł: "Astronomiczny superkomputer - http://www.pcworld.pl" ), wygrywania z człowiekiem w szachy ( patrz artykuł: "Człowiek versus klaster - kolejny szachowy pojedynek - http://www.pcworld.pl" ) czy prac nad efektami specjalnymi w holywoodzkich produkcjach. Zgodnie z zasadą "do odważnych świat należy" Szwajcaria wraz z IBM zaplanowała uruchomienie komputera na tyle potężnego, by zdołał symulować pracę ludzkiego mózgu - Blue Brain - http://www.pcworld.pl to 23 teraflopy mocy obliczeniowej w czystej formie.
Wymieniliśmy zaledwie ułamek zastosowań, a tymczasem rozwój superkomputerów przebiega w rozmaitych kierunkach. Obecnie coraz częściej mówi się o potrzebie miniaturyzacji i "okrojenia" wydajnych maszyn obliczeniowych ( patrz artykuł: "Masz superkomputer? Płać superrachunek! - http://www.idg.pl" ).

Już w latach dziewięćdziesiątych w branży pojawił się kryzys, bo mało kogo było stać na zakup kolejnych drogich maszyn. W ten sposób zniknęła z rynku firma konstruująca sprzęt "Thinking Machines", dostało się również Crayowi, marce "od zawsze" związanej z komputerami o wysokiej mocy przetwarzania. W kłopoty finansowe wpadł nawet potentat na rynku szybkości: Silicon Graphics. W wydajnych maszynach coraz częściej zaczęły się pojawiać standardowe procesory PowerPC ( IBM ) albo x86 ( reszta świata, IBM ). Za przełomowy uznano moment, gdy SGI zaprezentowało maszyny pracujące pod kontrolą Itanium Intela...

Superkomputery trafiły pod strzechy. Stało się tak również za sprawą *niksów i, kto by pomyślał, Linuksa ( patrz również artykuł: "Superkomputer spod znaku pingwina - http://www.pcworld.pl" ). Microsoft z serwerowymi systemami Windows dla centrów obliczeniowych tak naprawdę dopiero teraz rozpoczął ofensywę. Na razie jednak olbrzymia większość maszyn z listy TOP 500 pracuje pod kontrolą systemu spod znaku pingwina ( patrz artykuł: "Zbuduj superkomputer w domu - http://www.pcworld.pl" ).
Nie należy wszak zapominać, że dystans między ośrodkami małymi i dużymi ciągle się utrzymuje. Tylko największe uniwersytety albo organizacje rządowe stać na wyposażenie się w superkomputery - czasami wręcz niezbędny jest mariaż kilku państw, by udało się uruchomienie dużego projektu. Na przykład mniej więcej rok temu wystartował hiperklaster sieciowy, w którego skład wchodzą maszyny rozsiane w całej Europie ( patrz artykuł: "Europejski superkomputer sieciowy - http://www.pcworld.pl" ).

Polskie superkomputery
Ostatni raz polski superkomputer trafił na listę TOP 500 w 2003 roku - była to maszyneria należąca do Politechniki Gdańskiej. Klaster składał się ze 128 serwerów Optimusa, każdy z dwoma procesorami Intel Itanium 2 1,3 GHz oraz 2 GB pamięci RAM. Poszczególne serwery połączono gigabitowym Ethernetem ( patrz również artykuł: "Superkomputer w Polsce - http://www.pcworld.pl" ).

Zupełnie niedawno superkomputer na PG został zmodernizowany. W teście HPlinpack - używanym do benchmarkowania wydajnych maszyn - uzyskał wynik 1,117 teraflopa. Warto zwrócić uwagę, że to mniej niż wspominany na początku komputer z kartami ATI na pokładzie! ( patrz artykuł: "Najszybszy polski superkomputer? - http://www.pcworld.pl" ).

Z innych ośrodków na pewno należy wymienić znane Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego ( ICM ) Uniwersytetu Warszawskiego ( które zakupiło w 2003 roku - http://www.pcworld.pl komputer Cray X1 ) czy Uniwersytet Jagielloński. Praktycznie każda większa uczelnia może się poszczycić bardzo wydajnym zespołem obliczeniowym. Krążą również pogłoski, że w sieci Era obsługą połączeń zajmują się maszyny IBM Deep Blue.

Zgodnie z informacjami podanymi na stronie Klastry w Polsce - http://bart.gda.pl/hpc/, nasze TOP 5 to maszyny rozlokowane następująco:

1. 288 x Itanium 2 1.3GHz / 1.4GHz - Centrum Informatyczne TASK ( Gdańsk )
2. 248 x Intel Itanium2 1,4GHz - Poznańskie Centrum Superkomputerowo-Sieciowe ( Poznań ).
3. 196 x Opteron 246 + 48 Opteron 2.2GHz Dual Core - ICM ( Warszawa ).
4. 180 x Opteron 250 - ICM ( Warszawa ).
5. 100 x Opteron 2GHz ( Comparex ) - Wydział Chemii UW ( Warszawa ).
.
Mieliśmy szansę porozmawiać o superkomputerach z pracownikami warszawskiego ICM-u - i była to naprawdę interesująca wyprawa w przyszłość i przeszłość maszyn o olbrzymich wydajnościach...

A co na świecie?

Najwydajniejsze superkomputery na świecie zbierane są na liście TOP 500. Niestety, polskie maszyny pojawiły się na niej tylko na chwilę - nasz najwydajniejszy klaster nie zdołałby się załapać nawet do pierwszego tysiąca, choć w pierwszych 10 tysiącach mielibyśmy już przynajmniej dwie-trzy maszyny.

Listę otwiera IBM. Pierwsza trójka to 2 maszyny Blue Gene oraz pServer. Na czwartym miejscu znalazł się SGI Altix, na piątym - Dell Thunderbird. Wszystkie klastry ( bo nie są to pojedyncze maszyny ) znajdują się w Stanach Zjednoczonych:

1. IBM BlueGene/L - moc szczytowa: 367 teraflopów.
2. IBM eServer Blue Gene Solution - 114,7 teraflopów.
3. IBM eServer pSeries - 77,8 teraflopów.
4. SGI Altix 1.5 GHz - 60,96 teraflopów.
5. Dell PowerEdge 1850 - 64,5 teraflopów.

Prymat IBM-a ( patrz np. artykuł: "IBM uderza sam w siebie - http://www.pcworld.pl" ) i Stanów Zjednocznych w dziedzinie wydajnych maszyn jest bardzo widoczny. Na przykład Japonii przeszkadzał on tak bardzo, że zapowiedziała, iż do 2011 roku uruchomi superkomputer, który przebije wydajnością wszystkie stworzone w USA maszyny. I nie tylko te: Japończycy planują uruchomienie hiperkomputera, który pod względem mocy obliczeniowej przewyższy wszystkie maszyny z listy TOP 500 razem wzięte ( patrz artykuł: "Japonia potęgą obliczeniową? - http://www.pcworld.pl" )!

Takie podejście nie powinno dziwić. Choć wydajne maszyny stają się coraz popularniejsze, tylko kraje będące potęgami obliczeniowymi są w stanie utrzymać się w czołówce pod względem rozwoju. Bez wydajnych klastrów nie ma bowiem nowoczesnych lekarstw, oszczędnych samochodów, symulowania zjawisk pogodowych, przewidywania trzęsień ziemi czy... budowania potężnych bomb.
 
« poprzedni artykuł   następny artykuł »