<meta http-equiv="Content-Type" content="text/html; charset=utf-8"><div dir="ltr">Dear MPICH.<div>I have a problem with poling MPICH mechanism.</div><div>I'm working on cluster. There are 2-4 processes on each computer (I can't execute single process per computer because of application requirements).</div><div>My system has 2 states:</div><div>Ready - slaves listen to master (but no data flow)</div><div>Run - masters start communication, then there is data flow.</div><div>When system in ready state (all processes except master executed MPI_Recv requests on master) but Master process still net sending data I see CPU usage > 100% (more than 1 core used) per process. When 4 processes are in ready state (waiting for data) computer begins to slow down other processes, I think because of polling.</div><div>I tried to build MPICH with <span style="color:rgb(0,0,0);font-family:arial,sans-serif;font-size:12.666666984558105px"> </span><span style="color:rgb(0,0,0);font-family:arial,sans-serif;font-size:12.666666984558105px">--with-device=ch3:sock, then I get 0% CPU usage in ready state, but I have a problem with Fault tolerance feature.</span></div><div><span style="color:rgb(0,0,0);font-family:arial,sans-serif;font-size:12.666666984558105px">My questions are:</span></div><div><font color="#000000" face="arial, sans-serif"><span style="font-size:12.6666669845581px">1) Is such behavior expected that build with </span></font><span style="color:rgb(0,0,0);font-family:arial,sans-serif;font-size:12.666666984558105px">--with-device=ch3:sock causes Fault tolerance not work? Does Fault tolerance based on polling mechanism?</span></div><div><span style="color:rgb(0,0,0);font-family:arial,sans-serif;font-size:12.666666984558105px">2) Can I change polling rate to reduce CPU payload? I understand that penalty is transfer rate slow down.</span></div><div><span style="color:rgb(0,0,0);font-family:arial,sans-serif;font-size:12.666666984558105px">3) Can I use any other MPI APIs to check if message from master is arrived w/o activating polling mechanism?</span></div><div><span style="color:rgb(0,0,0);font-family:arial,sans-serif;font-size:12.666666984558105px"><br></span></div><div><span style="color:rgb(0,0,0);font-family:arial,sans-serif;font-size:12.666666984558105px">Regards,</span></div><div><span style="color:rgb(0,0,0);font-family:arial,sans-serif;font-size:12.666666984558105px">Anatoly. </span></div><div><span style="color:rgb(0,0,0);font-family:arial,sans-serif;font-size:12.666666984558105px"><br></span></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, May 8, 2014 at 3:57 PM, Balaji, Pavan <span dir="ltr"><<a href="mailto:balaji@anl.gov" target="_blank">balaji@anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
This is expected.  Currently, the only way to not have MPICH poll is to configure with --with-device=ch3:sock.  Please note that this can cause performance loss (the polling is helpful for performance in the common case).<br>
<br>
We are planning to allow this in the default build as well in the future.<br>
<br>
  — Pavan<br>
<div><div class="h5"><br>
On May 8, 2014, at 7:54 AM, Anatoly G <<a href="mailto:anatolyrishon@gmail.com">anatolyrishon@gmail.com</a>> wrote:<br>
<br>
> Dear MPICH forum.<br>
> I created an endless MPI program.<br>
> In this program each process calls MPI_Recv from other process, w/o any MPI_Send.<br>
> When I execute this program I see each process takes ~ 100% CPU core.<br>
> Is this behavior (I suppose polling) is normal?<br>
> May I reduce MPI_Recv CPU penalty?<br>
><br>
> Regards,<br>
> Anatoly.<br>
</div></div>> <mpi_polling.cpp>_______________________________________________<br>
> discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
> To manage subscription options or unsubscribe:<br>
> <a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
<br>
_______________________________________________<br>
discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
</blockquote></div><br></div>