<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, May 5, 2020 at 12:30 PM <<a href="mailto:discuss-request@mpich.org">discuss-request@mpich.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Send discuss mailing list submissions to<br>
        <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="https://lists.mpich.org/mailman/listinfo/discuss" rel="noreferrer" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
or, via email, send a message with subject or body 'help' to<br>
        <a href="mailto:discuss-request@mpich.org" target="_blank">discuss-request@mpich.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:discuss-owner@mpich.org" target="_blank">discuss-owner@mpich.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than "Re: Contents of discuss digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1.  Better alternatives of MPI_Allreduce() (hritikesh semwal)<br>
   2. Re:  Better alternatives of MPI_Allreduce() (Benson Muite)<br>
   3. Re:  Better alternatives of MPI_Allreduce() (Benson Muite)<br>
   4. Re:  Better alternatives of MPI_Allreduce() (Joachim Protze)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Tue, 5 May 2020 11:08:20 +0530<br>
From: hritikesh semwal <<a href="mailto:hritikesh.semwal@gmail.com" target="_blank">hritikesh.semwal@gmail.com</a>><br>
To: <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
Subject: [mpich-discuss] Better alternatives of MPI_Allreduce()<br>
Message-ID:<br>
        <CAA+35d1zgxVjcfH=<a href="mailto:jpio5rLm1FkjxMC3Bis-qB9D43qjfEogRw@mail.gmail.com" target="_blank">jpio5rLm1FkjxMC3Bis-qB9D43qjfEogRw@mail.gmail.com</a>><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
Hello all,<br>
<br>
I am working on the development of a parallel CFD solver and I am using<br>
MPI_Allreduce for the global summation of the local errors calculated on<br>
all processes of a group and the summation is to be used by all the<br>
processes. My concern is that MPI_Allreduce is taking almost 27-30% of the<br>
total time used, which is a significant amount. So, I want to ask if anyone<br>
can suggest me better alternative/s to replace MPI_Allreduce which can<br>
reduce the time consumption.<br>
<br>
Thank you.<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://lists.mpich.org/pipermail/discuss/attachments/20200505/b2c8224a/attachment-0001.html" rel="noreferrer" target="_blank">http://lists.mpich.org/pipermail/discuss/attachments/20200505/b2c8224a/attachment-0001.html</a>><br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Tue, 05 May 2020 09:57:43 +0300<br>
From: "Benson Muite" <<a href="mailto:benson_muite@emailplus.org" target="_blank">benson_muite@emailplus.org</a>><br>
To: <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
Subject: Re: [mpich-discuss] Better alternatives of MPI_Allreduce()<br>
Message-ID: <<a href="mailto:d3cfd641-1849-4ed8-a036-7db371ebb225@www.fastmail.com" target="_blank">d3cfd641-1849-4ed8-a036-7db371ebb225@www.fastmail.com</a>><br>
Content-Type: text/plain; charset="us-ascii"<br>
<br>
<br>
<br>
<br>
On Tue, May 5, 2020, at 8:38 AM, hritikesh semwal via discuss wrote:<br>
> Hello all,<br>
> <br>
> I am working on the development of a parallel CFD solver and I am using MPI_Allreduce for the global summation of the local errors calculated on all processes of a group and the summation is to be used by all the processes. My concern is that MPI_Allreduce is taking almost 27-30% of the total time used, which is a significant amount. So, I want to ask if anyone can suggest me better alternative/s to replace MPI_Allreduce which can reduce the time consumption.<br>
> <br>
> Thank you.<br>
> _______________________________________________<br>
> discuss mailing list <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
> To manage subscription options or unsubscribe:<br>
> <a href="https://lists.mpich.org/mailman/listinfo/discuss" rel="noreferrer" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
> <br>
<br>
Hi Hitesh,<br>
<br>
What hardware are you running on and what is the interconnect?<br>
Have you tried changing any of the MPI settings?<br>
Can the reduction be done asynchronously?<br>
<br>
Regards,<br>
Benson<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://lists.mpich.org/pipermail/discuss/attachments/20200505/d81885c3/attachment-0001.html" rel="noreferrer" target="_blank">http://lists.mpich.org/pipermail/discuss/attachments/20200505/d81885c3/attachment-0001.html</a>><br>
<br>
------------------------------<br>
<br>
Message: 3<br>
Date: Tue, 05 May 2020 09:59:37 +0300<br>
From: "Benson Muite" <<a href="mailto:benson_muite@emailplus.org" target="_blank">benson_muite@emailplus.org</a>><br>
To: <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
Subject: Re: [mpich-discuss] Better alternatives of MPI_Allreduce()<br>
Message-ID: <<a href="mailto:5ed0cd5f-c68c-404b-9041-a5189dd5e0e2@www.fastmail.com" target="_blank">5ed0cd5f-c68c-404b-9041-a5189dd5e0e2@www.fastmail.com</a>><br>
Content-Type: text/plain; charset="us-ascii"<br>
<br>
<br>
<br>
<br>
On Tue, May 5, 2020, at 9:57 AM, Benson Muite wrote:<br>
> <br>
> <br>
> <br>
> On Tue, May 5, 2020, at 8:38 AM, hritikesh semwal via discuss wrote:<br>
>> Hello all,<br>
>> <br>
>> I am working on the development of a parallel CFD solver and I am using MPI_Allreduce for the global summation of the local errors calculated on all processes of a group and the summation is to be used by all the processes. My concern is that MPI_Allreduce is taking almost 27-30% of the total time used, which is a significant amount. So, I want to ask if anyone can suggest me better alternative/s to replace MPI_Allreduce which can reduce the time consumption.<br>
>> <br>
>> Thank you.<br>
>> _______________________________________________<br>
>> discuss mailing list <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
>> To manage subscription options or unsubscribe:<br>
>> <a href="https://lists.mpich.org/mailman/listinfo/discuss" rel="noreferrer" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
>> <br>
> <br>
> Hi Hitesh,<br>
> <br>
> What hardware are you running on and what is the interconnect?<br></blockquote><div> </div><div>Right now I am using a cluster.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
> Have you tried changing any of the MPI settings?<br></blockquote><div> </div><div>What do you mean by MPI settings?</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
> Can the reduction be done asynchronously?<br></blockquote><div> </div><div>I did not get your question.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
> <br>
> Regards,<br>
> Benson<br>
<br>
Also, is your work load balanced? One way to check this might be to place a barrier just before the all-reduce call. If the barrier ends up taking most of your time, then it is likely you will need to determine a better way to distribute the computational work.<br></blockquote><div><br></div> Thanks for your response.<div><br></div><div>Yes, you are right. I have put barrier just before Allreduce and out of the total time consumed by Allreduce, 79% time is consumed by the barrier. But my computational work is balanced. Right now, I have distributed 97336 cells among 24 processors and maximum and minimum cell distribution among all processors is 4057 and 4055 respectively which is not too bad. Is there any solution to get rid of this. </div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://lists.mpich.org/pipermail/discuss/attachments/20200505/f773f670/attachment-0001.html" rel="noreferrer" target="_blank">http://lists.mpich.org/pipermail/discuss/attachments/20200505/f773f670/attachment-0001.html</a>><br>
<br>
------------------------------<br>
<br>
Message: 4<br>
Date: Tue, 5 May 2020 09:00:20 +0200<br>
From: Joachim Protze <<a href="mailto:protze@itc.rwth-aachen.de" target="_blank">protze@itc.rwth-aachen.de</a>><br>
To: <<a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a>><br>
Cc: hritikesh semwal <<a href="mailto:hritikesh.semwal@gmail.com" target="_blank">hritikesh.semwal@gmail.com</a>><br>
Subject: Re: [mpich-discuss] Better alternatives of MPI_Allreduce()<br>
Message-ID: <<a href="mailto:1189df11-a53f-059d-8fb3-16887890a606@itc.rwth-aachen.de" target="_blank">1189df11-a53f-059d-8fb3-16887890a606@itc.rwth-aachen.de</a>><br>
Content-Type: text/plain; charset="utf-8"; Format="flowed"<br>
<br>
Hello,<br>
<br>
it is important to understand, that most of the time you see is not the <br>
cost of the allreduce, but the cost of synchronization (caused by load <br>
imbalance).<br>
<br>
You can do an easy experiment and add a barrier before the allreduce. <br>
Then you will see the actual cost of the allreduce, while the cost of <br>
synchronization will go into the barrier.<br>
<br>
Now, think about dependencies in your algorithm: do you need the output <br>
value immediately? Is this the same time, where you have the input value <br>
ready?<br>
-> otherwise use non-blocking communication and perform independent work <br>
in between<br>
<br>
In any case: fix your load imbalance (the root cause of synchronization <br>
cost).<br>
<br>
Best<br>
Joachim<br>
<br>
Am 05.05.20 um 07:38 schrieb hritikesh semwal via discuss:<br>
> Hello all,<br>
> <br>
> I am working on the development of a parallel CFD solver and I am using <br>
> MPI_Allreduce for the global summation of the local errors calculated on <br>
> all processes of a group and the summation is to be used by all the <br>
> processes. My concern is that MPI_Allreduce is taking almost 27-30% of <br>
> the total time used, which is a significant amount. So, I want to ask if <br>
> anyone can suggest me better alternative/s to replace MPI_Allreduce <br>
> which can reduce the time consumption.<br>
> <br>
> Thank you.<br>
> <br>
> _______________________________________________<br>
> discuss mailing list     <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
> To manage subscription options or unsubscribe:<br>
> <a href="https://lists.mpich.org/mailman/listinfo/discuss" rel="noreferrer" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
> <br>
<br>
<br>
-- <br>
Dipl.-Inf. Joachim Protze<br>
<br>
IT Center<br>
Group: High Performance Computing<br>
Division: Computational Science and Engineering<br>
RWTH Aachen University<br>
Seffenter Weg 23<br>
D 52074  Aachen (Germany)<br>
Tel: +49 241 80- 24765<br>
Fax: +49 241 80-624765<br>
<a href="mailto:protze@itc.rwth-aachen.de" target="_blank">protze@itc.rwth-aachen.de</a><br>
<a href="http://www.itc.rwth-aachen.de" rel="noreferrer" target="_blank">www.itc.rwth-aachen.de</a><br>
<br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: smime.p7s<br>
Type: application/pkcs7-signature<br>
Size: 5327 bytes<br>
Desc: S/MIME Cryptographic Signature<br>
URL: <<a href="http://lists.mpich.org/pipermail/discuss/attachments/20200505/f09fd7f5/attachment.p7s" rel="noreferrer" target="_blank">http://lists.mpich.org/pipermail/discuss/attachments/20200505/f09fd7f5/attachment.p7s</a>><br>
<br>
------------------------------<br>
<br>
Subject: Digest Footer<br>
<br>
_______________________________________________<br>
discuss mailing list<br>
<a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" rel="noreferrer" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
<br>
<br>
------------------------------<br>
<br>
End of discuss Digest, Vol 91, Issue 3<br>
**************************************<br>
</blockquote></div></div>