Superkomputery szturmują rynek
Superkomputerami nazywano niegdyś najszybsze w danym czasie komputery. Dziś, gdy granice klas szybkości działania bardzo się powikłały, ta urzekająca prostotą definicja niewiele już mówi. Amerykański dwutygodnik Electronics, którego specjalny numer (z 3 marca 1988 r.) poświęcono właśnie superkomputerom, proponuje uznać za superkomputery wszystkie maszyny, które zostały zaprojektowane specjalnie do szybkiego wykonywania arytmetycznych działań zmiennopozycyjnych na długim słowie. Zgodnie z tą definicją, którą przyjmujemy z Electronics (razem z wszystkimi cytowanymi tutaj danymi), w rodzinie superkomputerów znajdują się więc trzy typy maszyn: superszybkie jednoprocesorowe (takie np. jak kolosy Fujitsu/Amdahla, patrz tablica), maszyny równoległe z niewielką liczbą procesorów (np. Cray X-MP) i maszyny o silnie równoległej architekturze (np. Connection Machine, licząca 65 536 procesorów). Większość superkomputerów ma, oprócz procesora głównego, wbudowane procesory wektorowe, służące do potokowego wykonywania tej samej operacji na całym wektorze danych.
Architektoniczna klasyfikacja nie wyczerpuje możliwości grupowania superkomputerów. Można je także podzielić pod względem ceny, konfigurowalności, a nawet przeznaczenia. Maszyny silnie równoległe są np. używane w zasadzie do rozwiązywania jednego lub kilkupodobnych zadań, najczęściej z fizyki lub innych nauk ścisłych.
Przytoczona tablica (zob. s. 4 biuletyn), zawierająca niektóre dane o wybranych superkomputerach, jest podzielona na trzy części: w górnej znajdują się superkomputery duże, stosowane zazwyczaj jako jądro rozległych sieci dostępu, w środkowej — superkomputery średnie, przeznaczone do mniej licznego użytku (a nawet do użytku indywidualnego), w dolnej — maszyny silnie równoległe. W pierwszej połowie bieżącego roku mają się znaleźć na rynku superkomputery przeznaczone wyłącznie do indywidualnego użytku, takie superkomputerowe stanowiska pracy (np. Seria 10 000 firmy Apollo, mająca kosztować 70 do 80 tys. dol. i mająca osiągać szybkość 140 Mflops).
Wielkość, na której skupia się uwaga początkujących miłośników superkomputerów, czyli maksymalna szybkość działania, wyrażana w milionach zmiennopozycyjnych operacji arytmetycznych na sekundę (Mflops), jest dość mylącym wskaźnikiem mocy maszyny. Zależnie od architektury, dostępnego oprogramowania, a nawet od struktury rozwiązywanego zadania, większa lub mniejsza część tej mocy może być wykorzystana do użytecznego liczenia. Bywa i tak, że dla różnych egzemplarzy tego samego zadania, liczonego na tej samej maszynie i tym samym programem, stopień wykorzystania maksymalnej szybkości wyraźnie się zmienia w zależności od charakterystycznych parametrów rozmiaru zadania. Występują tu przedziwne rezonanse między rozmiarami struktur danych a rozmiarami różnych architektonicznych składowych komputera.
Sprawne korzystanie z superkomputerów jest ciągle jeszcze wielką sztuką; nie ma żadnych uniwersalnych metod ich programowania (naturalnie, poza dobrą radą, że trzeba wytężyć umysł!), a ponieważ wiadomo, że nie istnieje uniwersalny algorytm rozrównoleglania dowolnych algorytmów, nie ma nadziei na zautomatyzowanie produkcji optymalnych programów dla superkomputerów. Jak zwykle, jądro trudności praktycznego zastosowania (a więc rozsądnego wykorzystania dostępnej maszynerii) leży w metodyce programowania, a ta, w odniesieniu do superkomputerów, jest w powijakach.
Tymczasem superkomputery szturmują rynek. Dwutygodnik Electronics doliczył się aż 31 firm wytwarzających te maszyny. W tym roku pojawi się na rynku ok. 20 nowych superkomputerów i istotnych mutacji maszyn już sprzedawanych. Wskaźniki tempa wzrostu tego sektora przewyższają wskaźniki przeciętne (dla wszystkich komputerów) prawie czterokrotnie: o ile dynamika. rocznego wzrostu rynku komputerowego charakteryzuje się 10–procentowym przyrostem liczby zainstalowanych komputerów, o tyle rynek superkomputerowy może się poszczycić wskaźnikiem 40–procentowym! Oczywiście, globalne liczby instalacji są ciągle jeszcze znikome w porównaniu z podobnymi charakterystykami podstawowych komputerów, nie mówiąc już o sprzęcie mini i mikro. Ale biorąc pod uwagę rosnący apetyt na zastosowania, których nie można poważnie prowadzić bez superkomputerów (fizyka teoretyczna, analiza danych sejsmicznych, biologia molekularna i chemia, symulacja zjawisk aero– i hydrodynamicznych, meteorologia itp.), nie należy wątpić, że i w przeciekach z wielkiego świata docierających do Polski coraz częściej będzie mowa o takich pracach, o których będziemy wiedzieć tylko ze słyszenia. (Jako gorzką ciekawostkę zauważmy, że sumaryczna liczba tych tylko superkomputerów, które obejmuje przytoczona tablica przykładów, dwukrotnie przekracza liczbę podstawowych komputerów zainstalowanych w Polsce.)
WMT
Producent
|
Nazwa
|
Szybkość maksymalna (Mflops)
|
Liczba procesorów
|
Liczba instalacji
|
Cena (mln dol.)
|
Cray Research
|
X-MP
Cray 2
|
1200
1800
|
4
4
|
123
11
|
2,5–16
20
|
ETA Systems (CDC)
|
ETA 10-P
ETA 10-E
|
750
6857
|
2
8
|
1
2
|
0,9
> 5,5
|
Fujitsu (Amdahl)
|
VP-30E
VP-1000E
VP-200
VP-400
|
220
425
850
1700
|
1
1
1
1
|
16
10
4
2
|
30–70 mln jenów
|
Hitachi
|
S-810/5
S-810/10
S-810/20
|
160
315
630
|
1
1
1
|
20
20
20
|
40–57 mln jenów
40–57 mln jenów
40–57 mln jenów
|
IBM
|
3090/VF
|
?
|
1-6
|
200
|
0,37 + 0,23 (N-1)
|
Alliant
|
FX/8
FX/4
|
94
?
|
8
4
|
156
4
|
0,1–0,2
|
Convex
|
C120
|
20
|
1
|
260
|
0,25
|
Gould
|
NP1
|
320
|
8
|
25
|
0,4–2,9
|
Sky
|
Vortex
|
10
|
1
|
200
|
0,01–0,05
|
BB & N
|
GP100
|
125
|
256
|
100
|
0,075–2,5
|
Meiko
|
Computing Surface
|
>1000
|
>1000
|
>100
|
>0,015
|
Thinking Machine
|
Connection Machine
|
2500
|
65526
|
15
|
1,0–7,0
|
Uwagi: (1) W komputerze Computing Surface zastosowano transputery. (2) Zamiast cen komputerów japońskich podano koszt miesięcznego wynajmu (w milionach jenów).
|