Frage

Hat jeden migriert MPI (Message Passing Interface) oder PVM immer noch weit verbreitet in Supercomputern und HPC verwendet?

War es hilfreich?

Lösung

Meine Erfahrung ist, dass PVM ist nicht ist weit verbreitet in High-Performance-Computing genutzt. MPI scheint weit verbreitet und so etwas wie Co-Array Fortran könnte der Weg in die Zukunft sein für massiv parallele Systeme der Zukunft.

verwende ich eine Bibliothek namens InterComm Paar Physik Modelle zusammen als separate ausführbare Dateien. InterComm nutzt aktuell PVM für die Kommunikation zwischen diesen gekoppelten Modellen. PVM und InterComm rühmen, dass sie auf homogene und heterogene Netzwerkumgebungen arbeiten (ich habe MPI gesagt nicht unterstützt heterogene Compute / Netzwerkumgebungen). Dies ist jedoch ein Merkmal, dass wir nie benutzt haben (und ich sehr bezweifle, dass wir jemals werden).

Ich habe auf akademische Rechenumgebungen eine schwierige Zeit läuft PVM hatte. Einig sys-admin / Support-Typ Menschen bei namhaften nationalen Rechenzentren haben sogar vorgeschlagen, dass wir „nur“ re-Code unserer 20jährige O (10 ^ 4) Leitungscode MPI zu verwenden, weil die Probleme, die wir liefen in, während der Portierung Code zu einem bestimmten Supercomputer, in dem der Router / Umgebung queing tat nicht wie mehrere parallel ausführbare Dateien neben PVM starten.

Wenn man sich die Architektur / Design Phase eines Projekts sind, dann würde ich empfehlen, weg von PVM zu bleiben, wenn Sie zur Arbeit in heterogenen Rechen / Netzwerkumgebungen müssen!

Andere Tipps

Es kann sehr ortsabhängig sein, aber in meiner Erfahrung MPI komplett vorherrscht PVM in dem (akademischen mindestens) HPC Raum. Sie können nicht realistisch eine neue HPC-Verbindung starten, ohne MPI Unterstützung, sondern PVM scheint entschieden optional zu sein. Gibt es eine PVM-Implementierung für Infiniband zum Beispiel?

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top