mpi

MPI ist die Message Passing-Schnittstelle, eine Bibliothek für die parallele Programmierung verteilter Speicher und die De-facto-Standardmethode für die Verwendung verteilter Speichercluster für technisches Hochleistungsrechnen. Fragen zur Verwendung von MPI für die parallele Programmierung gehen unter diesem Tag; Fragen zu zB Installationsproblemen bei MPI-Implementierungen werden am besten mit dem entsprechenden implementierungsspezifischen Tag, zB MPICH oder OpenMPI, versehen.
2
Antworten

So senden / empfangen Sie in MPI mit allen Prozessoren

Dieses Programm wurde mit C Lagrange und MPI geschrieben. Ich bin neu in MPI und möchte alle Prozessoren verwenden, um einige Berechnungen durchzuführen, einschließlich Prozess 0. Um dieses Konzept zu lernen, habe ich das folgende einfache Progr...
10.10.2016, 22:46
5
Antworten

MPI_B sendet ein dynamisches 2d-Array

Ich versuche ein dynamisches 2d-Array mit bcast an alle Ränge zu übergeben. Ich habe den folgenden Code. %Vor% Aus irgendeinem Grund kann ich nicht verstehen, dass ich einen Segmentierungsfehler bekomme. Wer weiß, wo das Problem ist?     
24.02.2011, 12:45
1
Antwort

Senden von 2D-Arrays in Fortran mit MPI_Gather

Ich möchte 2d Datenblöcke mit MPI_GATHER senden. Zum Beispiel habe ich 2x3 Arrays auf jedem Knoten und ich möchte 8x3 Array auf Root, wenn ich 4 Knoten habe. Für 1D-Arrays sortiert MPI_GATHER Daten nach MPI-Rang, aber für 2d-Daten schafft es Cha...
07.07.2013, 02:03
5
Antworten

MATLAB auf mehreren Kernen, mehreren Prozessoren und MPI verstehen

Ich habe mehrere eng verwandte Fragen darüber, wie MATLAB die parallele Hardware ausnutzt. Sie sind kurz, also dachte ich, es wäre das Beste, sie in den gleichen Post zu setzen: Hilft / nutzen MATLAB mehrere Kerne, wenn nicht die Parallel...
04.11.2011, 21:49
1
Antwort

MPI_Recv - Wie ermittelt man die Anzahl?

Sagen wir also, ich habe ein MPI-Programm mit zwei Prozessen, Rang 0 und Rang 1. %Vor% Im Prozess mit Rang 0 habe ich %Vor% und sagen wir, Prozess mit Rang 1 macht dann %Vor% Meine Frage ist, in der obigen Aussage, muss "Größe" erklä...
01.03.2011, 18:42
2
Antworten

OpenMP und MPI-Hybridprogramm

Ich habe eine Maschine mit 8 Prozessoren. Ich möchte mit OpenMP und MPI auf meinen Code wie folgt alternieren: OpenMP-Phase: Ränge 1-7 warten auf eine MPI_Barrier Rang 0 verwendet alle 8 Prozessoren mit OpenMP MPI-Phase: Rang...
30.10.2012, 17:30
2
Antworten

schlagen ein Benchmark-Programm vor, um MPICH und OpenMPI zu vergleichen

Ich bin neu bei HPC und die Aufgabe besteht darin, eine Leistungsanalyse und einen Vergleich zwischen MPICH und OpenMPI in einem Cluster durchzuführen, der aus IBM Servern mit Dual-Core AMD Opteron Prozessoren besteht, die auf einem ClusterVisio...
19.03.2011, 05:26
2
Antworten

mpirun - nicht genügend Slots verfügbar

Normalerweise, wenn ich mpirun benutze, kann ich es "überladen", indem ich mehr Prozessoren benutze, als es tatsächlich auf meinem Computer gibt. Zum Beispiel kann ich auf meinem Vierkern-Mac mpirun -np 29 python -c "print 'hey'" kein Problem...
29.02.2016, 16:32
3
Antworten

Open MPI "Hallo, Welt!" kompiliert nicht

Hier ist ein einfaches MPI "Hallo, Welt!" Programm. %Vor% Es scheint jedoch nicht zu kompilieren: %Vor% Ich habe viel gegooglet, Mailinglisten gesehen, Tausende von ihnen. Sie sagen, dass libmpi_cxx nicht verlinkt. Aber es ist in den...
25.12.2012, 06:02
1
Antwort

gethostbyname schlägt nach dem Wechsel der Internetverbindung fehl

Ich bekomme oft (aber nicht immer) den folgenden Fehler, wenn MPI-Jobs nach dem Wechsel von WLAN-Hosts ausgeführt werden. %Vor% Im Café funktioniert alles gut, und wenn ich nach Hause komme, bekomme ich den obigen Fehler. Nichts anderes hat...
25.06.2015, 18:10