Ein Supercomputer oder Superrechner ist ein Hochleistungsrechner, der zum Zeitpunkt seiner Einführung im obersten realisierbaren Leistungsbereich arbeitet. Dabei ist es unerheblich, auf welcher Bauweise die Rechner beruhen. Ein typisches Merkmal eines modernen Supercomputers ist seine große Anzahl an Prozessoren, die auf gemeinsame Peripheriegeräte und einen teilweise gemeinsamen Hauptspeicher zugreifen können.
Da sich nicht beliebig schnelle Prozessoren bauen lassen, sind alle Hochleistungsrechner Parallelrechner. Ein Parallelrechner ist ein Computer, in dem Operationen gleichzeitig auf mehrere CPUs verteilt werden, um die Arbeitsgeschwindigkeit zu erhöhen. Für die optimale Nutzung eines Supercomputers (Parallelrechners) muss die Programmierung deshalb möglichst genau auf die einzelnen, parallel arbeitenden Prozessoren abgestimmt werden.
Supercomputer werden heute zumeist als Vektorrechner oder Skalarrechner konzipiert. Sie basieren auf unterschiedlichen Prozessorarchitekturen. Vektorprozessoren (auch Vektorrechner oder Array-Prozessoren genannt) führen eine Berechnung gleichzeitig auf vielen Daten (in einem Vektor bzw. Array) aus. Skalarprozessoren können dagegen nur ein Operandenpaar pro Befehl bearbeiten. Skalarrechner basieren daher oft auf Tausenden von Standardprozessoren, die miteinander vernetzt sind (Computercluster).
Ursprünglich wurde die herausragende Rechenleistung durch maximale Ausnutzung der verfügbaren Technik erzielt, indem Konstruktionen gewählt wurden, die für größere Serienproduktion zu teuer waren (z.B. Flüssigkeitskühlung, exotische Bauelemente und Materialien, kompakter Aufbau für kurze Signalwege), die Zahl der Prozessoren war eher gering. Seit geraumer Zeit etablieren sich vermehrt so genannte Cluster, bei denen eine große Anzahl von (meist preiswerten) Einzelrechnern zu einem großen Rechner vernetzt werden. Im Vergleich zu einem Vektorrechner besitzen die Knoten in einem Cluster eigene Peripherie und ausschließlich einen eigenen, lokalen Hauptspeicher. Cluster verwenden Standardkomponenten, deshalb bieten sie zunächst Kostenvorteile gegenüber Vektorrechnern. Sie erfordern aber einen weit höheren Programmieraufwand. Es ist abzuwägen, ob die eingesetzten Programme sich dafür eignen, auf viele Prozessoren verteilt zu werden. Supercomputer werden grundsätzlich in 64 Bit programmiert, Programmiersprachen sind unter anderem Fortran und C.
Eng verbunden mit dem Begriff Supercomputer ist die Firma Cray. Sie ist benannt nach ihrem Gründer Seymour Cray und stellte die ersten Supercomputer in den 1970er Jahren her. Der erste offiziell installierte Supercomputer Cray-1 schaffte 1976 130 MegaFLOPS. Zum Vergleich, ein normaler PC kann heutzutage mehrere GigaFLOPS ausführen.
Die schnellsten Supercomputer nach Leistung werden halbjährlich in der Top-500 Liste aufgeführt. Als Bewertungsgrundlage dient der Linpack-Benchmark.
Die schnellsten Supercomputer auch nach Energieeffizienz bzw. MFLOPS/W werden seit November 2007 in der Green500 Liste geführt. Hierbei führen derzeit Server mit Blue-Gene/P-Chips die Liste an, bei denen ein einziger Blue-Gene/P-Chip über jeweils vier niederfrequente (850 MHz) PowerPC-450-Prozessoren verfügt. [1]
Inhaltsverzeichnis |
Die Herstellungskosten eines Supercomputers aus der TOP10 bewegen sich derzeit in einem sehr hohen zweistelligen, oftmals bereits dreistelligen Euro-Millionenbetrag. Nach oben sind dabei keine Grenzen gesetzt. Für den in Planung stehenden neuen Supercomputer im Bereich um 10 PFLOPS werden derzeit fast 700 Millionen Euro veranschlagt. Bei diesen enormen Investitionssummen stellt sich zwangsläufig die Frage, wofür diese sehr teuren Geräte benötigt werden und ob sich die Investition in die Entwicklung eines solchen Gerätes, außer aus reinen Prestigegründen, rentiert.
Die heutigen Supercomputer werden überwiegend zu Simulationszwecken eingesetzt. Je realitätsnäher eine Simulation komplexer Zusammenhänge wird, desto mehr Rechenleistung wird in der Regel benötigt. Der Vorteil der Supercomputer ist außerdem, dass sie durch ihre extrem schnelle und große Rechenleistung immer mehr Interdependenzen berücksichtigen können. Dies erlaubt also das Einbeziehen immer weiterreichender, oftmals auch unscheinbarer Neben- oder Randbedingungen zur eigentlichen Simulation und gewährleistet dadurch ein immer aussagekräftigeres Gesamtergebnis.
Die derzeitigen Haupteinsatzgebiete der Supercomputer umfassen dabei die Bereiche Biologie, Chemie, Geologie, Luft- und Raumfahrt, Medizin, Wetter- sowie Klimaforschung, Militär und Physik.
Bis auf das Militär, welches hauptsächlich militärische Planspiele betreibt, kennzeichnen sich die Bereiche dadurch, dass es sich um sehr komplexe Systeme bzw. Teilsysteme handelt, die in weitreichendem Maße miteinander verknüpft sind. So haben Veränderungen in dem einen Teilsystem meist mehr oder minder starke Auswirkungen auf benachbarte oder angeschlossene Systeme. Durch den Einsatz von Supercomputern wird es immer leichter möglich viele solcher Konsequenzen zu berücksichtigen oder sogar zu prognostizieren, wodurch bereits weit im Vorfeld etwaige Gegenmaßnahmen getroffen werden könnten. Dies gilt z. B. bei Simulationen zum Klimawandel, der Vorhersagen von Erdbeben oder Vulkanausbrüchen sowie in der Medizin bei der Simulation neuer Wirkstoffe auf den Organismus. (Jedoch sind logischerweise solche Simulationen nur so genau, wie es die programmierten Parameter bzw. Modelle zur Berechnung zulassen.) Die enormen Investitionsummen in die stetige Steigerung der FLOPS und damit die Entwicklung von immer schnelleren Supercomputern werden vor allem mit den Nutzenvorteilen und dem eventuellen „Wissensvorsprung“ für die Menschheit gerechtfertigt, weniger aus den Aspekten des allgemeinen technischen Fortschritts.
Name | Standort | TeraFLOPS | Konfiguration | Zweck |
---|---|---|---|---|
IBM Roadrunner | Los Alamos National Laboratory (New Mexico, USA) | 1.026 | 6.000 AMD Dual-Core-Prozessoren, 13.000 IBM Cell-Prozessoren | Physikalische Simulationen (z. B. Atomwaffensimulationen) |
BlueGene/L | Lawrence Livermore National Laboratory Livermore (USA) | 478,2 | 212.992 PowerPC 440-Prozessoren 700 MHz , 73.728 GB RAM | Physikalische Simulationen |
JUGENE | Forschungszentrum Jülich (Deutschland) | 167 | 65.536 CPUs | Materialwissenschaften, theoretische Chemie, Elementarteilchenphysik, Umwelt, Astrophysik |
Blue Gene Watson | IBM Thomas J. Watson Research Center (USA) | 91,29 | 40.960 PowerPC 440 Prozessoren | Forschungsabteilung von IBM, aber auch Anwendungen aus Wissenschaft und Wirtschaft |
ASC Purple | Lawrence Livermore National Laboratory Livermore (USA) | 75,76 | 12.208 Power5 CPUs, 48.832 GB RAM | Physikalische Simulationen (z. B. Atomwaffensimulationen) |
MareNostrum | Universitat Politècnica de Catalunya (Spanien) | 63,63 | 10.240 PowerPC 970MP 2,3 GHz | Klima- und Genforschung, Pharmazie |
HLRB II | LRZ Garching bei München (Deutschland) | 56,52 | 9.728 CPUs 1,6 GHz Intel Itanium 2 (Montecito Dual Core), 39 TB RAM | Naturwissenschaften, Astrophysik und Materialforschung |
Columbia | NASA Ames Research Center (Silicon Valley, Kalifornien, USA) | 51,87 | 10.160 Intel Itanium 2 Prozessoren (Madison Kern) | Klimamodellierung, astrophysikalische Simulationen |
JUBL (Jülicher BlueGene/L) | Forschungszentrum Jülich (Deutschland) | 37,33 | 16.384 PowerPC 440-Prozessoren 700 MHz, 4096 GB RAM | Materialwissenschaften, theoretische Chemie, Elementarteilchenphysik, Umwelt, Astrophysik |
Earth Simulator | Yokohama Institute for Earth Sciences (Japan) | 35,86 | 5120 500 MHz NEC SX-6 CPUs, 10 TB RAM | Klimamodellierung |
ASCI Q | Los Alamos National Laboratory (New Mexico, USA) | 13,88 | 8192 DEC Alpha EV68 CPUs, 12 TB RAM | Simulation |
System X oder alt: Terascale Cluster | Virginia Polytechnic Institute and State University (USA) | 12,25 | 1100 Dual 2,3 GHz Apple Xserve G5 (IBM PPC970FX CPU), 4,4 TB RAM | Quantenchemie, Simulationen, Nanoelektronik und weitere |
NEC SX-8/576M72 | Höchstleistungsrechenzentrum Stuttgart (HLRS) | 8,92 (nur Vektorteil) | 576 CPUs 2 GHz SX-8, 9216 GB RAM | Ingenieurwissenschaftliche Anwendungen, Physik, Chemie, Lebenswissenschaften, Nutzung durch Industrie, CFD |
Albert2 | BMW Sauber F1 Team / Hinwil (Schweiz) | 12,2 | 512 CPU Intel Xeon 5160-Prozessoren (DualCore) 1.024 Kerne;2.048 GB RAM | Computergestützte Strömungssimulation (CFD) |
MCR Linux Cluster | Lawrence Livermore National Laboratory, Livermore (USA) | 7,63 | 2304 Intel 2,4 GHz Xeon CPUs, 4,6 TB RAM | Simulation von Nuklearwaffen |
Name | Standort | TeraFLOPS | Konfiguration | Zweck |
---|---|---|---|---|
JUGENE | Forschungszentrum Jülich | 167 | 65.536 CPUs | Materialwissenschaften, theoretische Chemie, Elementarteilchenphysik, Umwelt, Astrophysik |
HLRB II | LRZ Garching (Deutschland) | 56,52 | 9.728 CPUs 1,6 GHz Intel Itanium 2 (Montecito Dual Core), 39 TB RAM | Naturwissenschaften, Astrophysik und Materialforschung |
JUBL (Jülicher BlueGene/L) | Forschungszentrum Jülich | 37,33 | 16.384 PowerPC440-Prozessoren 700 MHz, 4096 GB RAM | Materialwissenschaften, theoretische Chemie, Elementarteilchenphysik, Umwelt, Astrophysik |
HP XC4000 | Höchstleistungsrechner-Kompetenzzentrum Baden-Württemberg (hkz-bw), Karlsruhe | über 15 | AMD Opteron, 12 TB RAM | Physikalische Simulationen |
SGI Altix 4700 | TU Dresden | 13,1 | 2048 Cores Intel Itanium II Montecito 1,6 GHz, 6656 GB RAM | Naturwissenschaften, Biologie |
NEC SX8/576M72 | Höchstleistungsrechenzentrum Stuttgart (HLRS) | 8,92 (nur Vektorteil) | 576 CPUs 2 GHz SX-8, 9216 GB RAM | Ingenieurwissenschaftliche Anwendungen, Physik, Chemie, Lebenswissenschaften, Nutzung durch Industrie |
CHiC Cluster (IBM x3455) | TU Chemnitz | 8,21 | 2152 Cores aus 1076 Dual-Core 64 bit AMD Opteron 2218 (2600 MHz) | Modellierung und numerische Simulation |
JUMP (IBM pSeries 690-Knoten) | Forschungszentrum Jülich | 5,57 | 1312 CPUs 1,7 GHz Power4+, 5000 GB RAM | Materialwissenschaften, theoretische Chemie, Elementarteilchenphysik, Umwelt, Astrophysik |
HLRN-I (IBM pSeries 690-Knoten) | Zuse-Institut Berlin, Rechenzentrum der Universität Hannover | 5,2 | 1024 CPUs 1,7 GHz Power4, 5 TB RAM | Physik, Chemie, Umwelt- und Meeresforschung, Ingenieurwissenschaften |
IBM eSeries p5 575-Knoten | Max-Planck-Gesellschaft MPI/IPP Garching | 4,56 | 688 CPUs 1,7 GHz Power5, 2816 GB RAM | Physikalische Simulationen, z. B. die Millennium-Simulation |
Sun Fire SMP-Cluster Primer | RWTH Aachen [1] | 3,5 | 480 Ultra Sparc IV, 1,2 GHz (dual core); 288 Ultra Sparc IV, 1,05 GHz (dual core); 3 TB RAM | |
IBM eSeries p5 575-Knoten | Deutscher Wetterdienst | 2,75 | 416 CPUs 1,9 GHz Power5 | |
ARMINIUS | Universität Paderborn | 2,56 | 200 Dual INTEL XEON je 3,2 GHz + 4 GB RAM, 16 Dual AMD Opteron je 2,2 GHz + 8 GB RAM | |
ALiCEnext | Bergische Universität Wuppertal | 2,08 | 1024 CPUs 1,8 GHz Opteron | Wissenschaftliche Anwendungen |
HHLR (Hessischer Hochleistungsrechner) | Technische Universität Darmstadt | 2,05 (siehe Diskussion) | 584 CPUs 1,5 – 1,9 GHz Power4 und Power5 | Wissenschaftliche Anwendungen |
Hitachi SR8000-F1/168 | LRZ Garching | 1,65 | 1512 CPUs, 1376 GB RAM | vektorisierbare Programme, 2006 stillgelegt |
NEC SX-6 | Deutsches Klimarechenzentrum | 1,5 | 192 Vektor-CPUs, 1,5 TB RAM | Klimamodellierung |
Beowulf-Cluster CLIC | TU Chemnitz | 0,2216 | 528 Pentium-III-Prozessoren (800 Mhz), 264 GB SDRAM | im Wesentlichen Forschung auf dem Gebiet der Physik an der TU-Chemnitz, 2007 stillgelegt |
Kepler-Cluster | Tübingen | 0,096 | 196 Pentium-III-Prozessoren mit 650 MHz, 100 GB RAM | Astrophysik und Strömungsmechanik, Entwicklung stabiler numerischer Verfahren |
(im weiteren Sinne)
Platz | Rechner (Hersteller) | Betreiber | Land | Platz im Juni 2007 |
Prozessoren | Rmax [TFlop/s] |
---|---|---|---|---|---|---|
1 | eServer BlueGene (IBM) | DOE/NNSA/LLNL | USA | 1 | 212992 PowerPC440, 700 MHz | 478,2 |
2 | JUGENE | Jülich[3] | Deutschland | - | 65536 PowerPC450, 850 Mhz | 167,3 |
3 | SGI Altix ICE8200 | SGI/New Mexico Computing | USA | - | 14336 Xeon Clovertown, 3 GHz | 126,9 |
4 | EKA (HP Cluster Platform 3000 BL460c) | CRL | Indien | - | 14240 Xeon Clovertown, 3 GHz | 117,9 |
5 | HP Cluster Platform 3000 BL460c | Government Agency | Schweden | - | 13728 Xeon Clovertown, 2,66 GHz | 102,8 |
6 | Red Storm (Cray) | Sandia National Labs | USA | 3 | 26569 DC-Opteron, 2,4 GHz | 102,2 |
7 | Jaguar (Cray TX3) | Oak Ridge National Lab | USA | 2 | 23016 DC-Opteron, 2,6 GHz | 101,7 |
8 | eServer BlueGene (IBM) | IBM, Thomas Watson | USA | 4 | 40960 PowerPC440, 700 MHz | 91,3 |
9 | Cray XT4 | NERSC/LBNL | USA | - | 19320 DC-Opteron, 2,4 GHz | 85,4 |
10 | eServer BlueGene (IBM) | Stony Brook, BNL | USA | 5 | 36864 PowerPC440, 700 MHz | 82,2 |