Massiv paralleler Rechner am ZIB

"Nr. 1" in Deutschland

Im November 1994 wurde mit dem Ausbau des Berliner Landeshöchstleistungsrechners das erste MPP-Rechnersystem (MPP=Massivly Parallel Processing) am Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) in Betrieb genommen. Es handelt sich dabei um das System CRAY T3D SC 192/464-8, bestehend aus 192 DEC-Alpha-Prozessoren, die durch ein leistungsfähiges dreidimensionales Torus-Netzwerk (T3D) verbunden sind, was die Bearbeitung von fein-granular parallelisierten Problemen erlaubt. Für den Betrieb des Parallelen Rechners ist der Vorrechner CRAY Y-MP4E/464 erforderlich. Eine gute Übersicht zur Hardware, dem Speicher- und Programmierkonzept sowie zu Werkzeugen und der erzielten Performance befinden sich in [1], [2].

Mit der Installation dieses Rechners am ZIB haben sich nicht nur die Rechenkapazitäten im Land Berlin auf attraktive Weise verbessert, sondern auch innerhalb des Norddeutschen Vektorrechnerverbundes (NVV), in den dieser integriert ist. Ein MPP-System CRAY T3D mit 128 Prozessoren wird im letzten Dongarra-Bericht in der Tabelle 3 "Highly Parallel Computing" mit einer Rmax-Leistung von 12,8 GFLOPS (Rmax=Performance für das größte auf dem Rechner gelaufene Problem) ausgewiesen, bei 192 Prozessoren müßte die Rmax-Leistung etwa bei 19 GFLOPS liegen. Für den Linpack-100x100-Benchmark nach Dongarra hat sich für einen Prozessor eine Leistung von 13 MFLOPS ergeben. Eine deutlich bessere Performance kann durch Nutzung der CRAY-Routinen erreicht werden.

Das ZIB belegt damit wieder den ersten Platz in Deutschland, in Europa haben nur noch Edinburgh und Lausanne mit je einem T3D mit 256 Prozessoren (Rmax=25,3 GFLOPS) leistungsfähigere Anlagen.

Nach erfolgreicher Probephase wurde der T3D in den Nutzerbetrieb überführt. Die Nutzung des Rechners kann im Interactive Mode oder im Batch Mode erfolgen, wobei das auszuführende Programm auf der CRAY Y-MP mit mppexec zu starten ist. Auf dem MPP-System wird dadurch eine Applikation generiert und gestartet, sobald die angeforderten Resourcen (Processing Elements=PEs) verfügbar sind. Die 192 PEs sind in drei Pools zusammengefaßt, die eine bestimmte Größe und eine eindeutige Lage innerhalb des Gesamtsystems haben. Pool0 und Pool1 enthalten je 32 PEs, und Pool3 umfaßt 128 PEs, wobei der letztere nur im Batch Mode genutzt werden kann. Der Batchzugang erfolgt über das NQS der CRAY Y-MP. Genauere Informationen zu den Projektklassen sowie den Limits in der Nutzerdatenbasis (User Database=UDB) und dem zu belegenden Speicherplatz finden sich in [2]. Besonderheiten zum Betrieb und der Nutzung des T3D am ZIB sind auch über die Newsgruppe bln.announce.zib.t3d nachzulesen.

Nutzer der Humboldt-Universität zu Berlin, die ihre Projekte am T3D rechnen möchten, haben einen Benutzerantrag zu stellen. Im Falle, daß sie bereits Nutzer der CRAY-Anlagen des ZIB sind, ist ein Ergänzungsantrag zu stellen. Die Berliner Universitäten erhalten je ein Kontingent von etwa 10% der Leistung der Berliner Höchstleistungsrechner, so daß sie eigenständig für kleinere Projekte bis zu 100 CRAY Y-MP-CPU-Stunden pro Projekt und Jahr, bzw. als T3D-Äquivalent 1600 Stunden PE Belegungszeit, vergeben können. Wird dieses Kontingent für das beabsichtigte Projekt nicht überschritten, so kann der Antrag [4] direkt an das Rechenzentrum der Humboldt-Universität, Abt. Systemsoftware- und Kommunikation, ZIB-Beratung: Daniela-Maria Subklew (2093-2724), gestellt werden. Sollte dieses Kontingent nicht ausreichend sein, so ist ein Großprojektantrag an den Zulassungsausschuß des ZIB zu stellen [3]. Vorher ist es sinnvoll, einen der Fachberater des ZIB zu konsultieren, ob für das entsprechende Projekt der T3D geeignet ist.

Folgende Fachberater des ZIB stehen zur Verfügung:

Daniela-Maria Subklew

Last Update: 28.7.95, 13:00 do