OpenMPI, une librairie pour la programmation parallèle distribuée

Abonnements, magazines... Notre catalogue complet au bas de cette page.

MPI est une norme définissant une bibliothèque de fonctions pour la programmation parallèle. Elle permet de travailler avec des ordinateurs distants ou multi-coeurs via un mécanisme de passage de messages. Nous découvrons tout cela à travers Open MPI, une implémentation Open Source pour système Unix.

Le standard MPI ne date pas d'hier. Des experts en programmation parallèle ont travaillé sur sa première mouture MPI-1 en 1992. En 1995 des conclusions ont été tirées de son utilisation et le standard a été étendu sous le nom de MPI-2 en 2003. On appelle application parallèle distribuée une application dont le code s'exécute simultanément sur plusieurs ordinateurs. En 1992 cette approche acrobatique n'intéressait essentiellement que les milieux scientifiques qui palliaient ainsi la faible puissance des machines en répartissant les calculs à effectuer sur des groupes de machines, ou clusters.

Aujourd'hui, la programmation parallèle trouve un intérêt pour le grand public. Rien de plus facile que de s'installer un petit réseau de machines, et, surtout, toutes les machines modernes sont équipées de microprocesseurs multi-coeurs avec lesquels les implémentations de MPI peuvent pleinement s'exprimer. MPI est conçu pour les langages C, C++ et Fortran. Nous travaillerons avec C. D'autre part, MPI est une librairie très complexe comptant des centaines de fonctions. Dans cet article nous nous limiterons aux fonctions MPI- 1, principalement utilisées en programmation MPI. Une fois que les principes de base seront assimilés, le lecteur intéressé pourra facilement s'attaquer au moins populaire MPI-2

Frédéric Mazué

S'ABONNER
Egalement au sommaire de :
Programmez! #112