Inhalt
Inhalt
MPI-Grundlagen
Übersicht
Geschichte
Grundlegende Konzepte
Übersicht über die Bibliothek
Erste Schritte mit MPI
Grundfunktionen von MPI
Berechnen von Pi mit der Monte-Carlo-Methode
Parallelisierung von PI mit dem Master-Slave-Modell
Modellierung der Performance
Bemerkungen zu PI
Kollektive Operationen
PICOLL - kollektive Operationen für PI
Profiling-Interface
Arbeiten mit MPI
Weiterführende Konzepte in MPI
Datentypen
Grundlegende Definitionen
Grundfunktionen zum Datentyp-Management
Datentypen für Matrizen
Message Passing mit Datentypen
LBPI - Lastverteilung mit Auswertung
Bemerkungen zu LBPI
Prozeß-Topologie
Übersicht
Wichtige Funktionen
POISSON - skalarer Algorithmus
POISSON - Parallelisierung durch Gebietszerlegung
POISSON - Bemerkungen zur Implementation
POISSON - Performance-Analyse
POISSON mit 2d-Verteilung - Performance-Analyse
Verbesserung der Kommunikation
Probleme mit einfachem Send/Recv
Routinen für nicht-blockierende Kommunikation
Anpassen der Exchange-Routine
Überlappen von Rechnung und Kommunikation
Gruppen und Communicator: Grundlagen
Gruppen
Communicator
einige wichtige Funktionen
Das Beispielprogramm TRACE
Parallele Bibliotheken
Kapselung der Kommunikation
Lineare Algebra
Verteilung der Daten
Objekte in LALIB
Routinen in LALIB
Bemerkungen zur Implementierung
Asynchrone Kommunikation
Nicht-blockierender Broadcast
Backmasking
Caching
Programm-Struktur
Bemerkungen zur Implementierung
Ergänzungen
Sourcen der Beispielprogramme
MPI-Grundlagen
PI
PICOLL
Weiterführende Konzepte in MPI
LBPI
POISSON
poisson.c
array.h
array.c
poisson.h
startup.c
oned_init.c
exchange.c
sweep1d.c
dump.c
finalize.c
POISSON_I
POISSON_O
poisson_o.c
exch-swp.c
TRACE
Parallele Bibliotheken
LALIB
lalib.h
grid.c
vector.c
latest.c
IBCAST
ibcast.h
ibcast.c
ibctest.c
Peter Junglas 11.5.2000