Back to Search Start Over

Hybrid MPI-Thread Parallelization of the Fast Multipole Method

Authors :
Olivier Coulaud
Pierre Fortin
Jean Roman
Algorithms and high performance computing for grand challenge applications (SCALAPPLIX)
INRIA Futurs
Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Université Bordeaux Segalen - Bordeaux 2-Université Sciences et Technologies - Bordeaux 1-École Nationale Supérieure d'Électronique, Informatique et Radiocommunications de Bordeaux (ENSEIRB)-Centre National de la Recherche Scientifique (CNRS)
Laboratoire Bordelais de Recherche en Informatique (LaBRI)
Université de Bordeaux (UB)-Centre National de la Recherche Scientifique (CNRS)-École Nationale Supérieure d'Électronique, Informatique et Radiocommunications de Bordeaux (ENSEIRB)
IEEE Computer Society
Fortin, Pierre
Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Université Bordeaux Segalen - Bordeaux 2-Université Sciences et Technologies - Bordeaux 1 (UB)-École Nationale Supérieure d'Électronique, Informatique et Radiocommunications de Bordeaux (ENSEIRB)-Centre National de la Recherche Scientifique (CNRS)
Université de Bordeaux (UB)-École Nationale Supérieure d'Électronique, Informatique et Radiocommunications de Bordeaux (ENSEIRB)-Centre National de la Recherche Scientifique (CNRS)
Source :
ISPDC, ISPDC 2007, 6th International Symposium on Parallel and Distributed Computing, ISPDC 2007, 6th International Symposium on Parallel and Distributed Computing, Jul 2007, Hagenberg, Austria, Australia. pp.391-398
Publication Year :
2007
Publisher :
IEEE, 2007.

Abstract

We present in this paper multi-thread and multi-process parallelizations of the Fast Multipole Method (FMM) for Laplace equation, for uniform and non uniform distributions. These parallelizations apply to the original FMM formulation and to our new matrix formulation with BLAS (Basic Linear Algebra Subprograms) routines. Differences between the multi-thread and the multi-process versions are detailed, and a hybrid MPI-thread approach enables to gain parallel efficiency and memory scalability over the pure MPI one on clusters of SMP nodes. On 128 processors, we obtain 85% (respectively 75%) parallel efficiency for uniform (respectively non uniform) distributions with up to 100 million particles.

Details

Database :
OpenAIRE
Journal :
Sixth International Symposium on Parallel and Distributed Computing (ISPDC'07)
Accession number :
edsair.doi.dedup.....a8c2b0daf6e15a0a6a74b3f6b5f4a16c
Full Text :
https://doi.org/10.1109/ispdc.2007.29