<div dir="ltr">sorry for giving such little information.<div><br></div><div style>ok here is the output after a long hang (which sometimes comes out)</div><div style><br></div><div style>================START OF OUTPUT=====================</div>
<div style><br></div><div style><div>linaro@weiser1:/mnt/nfs/jahanzeb/bench/hpl/hpl-2.1/bin/armv7-a$ mpirun -np 8 -machinefile machines ./xhp                               l</div><div>Fatal error in MPI_Send: A process has failed, error stack:</div>
<div>MPI_Send(171)..............: MPI_Send(buf=0xbe84fc50, count=1, MPI_INT, dest=0, tag=9001, MPI_COMM_WORLD                               ) failed</div><div>MPID_nem_tcp_connpoll(1826): Communication error with rank 0: Connection refused</div>
<div><br></div><div>===================================================================================</div><div>=   BAD TERMINATION OF ONE OF YOUR APPLICATION PROCESSES</div><div>=   EXIT CODE: 1</div><div>=   CLEANING UP REMAINING PROCESSES</div>
<div>=   YOU CAN IGNORE THE BELOW CLEANUP MESSAGES</div><div>===================================================================================</div><div>[proxy:0:0@weiser1] HYD_pmcd_pmip_control_cmd_cb (./pm/pmiserv/pmip_cb.c:886): assert (!closed) failed</div>
<div>[proxy:0:0@weiser1] HYDT_dmxu_poll_wait_for_event (./tools/demux/demux_poll.c:77): callback returned error status</div><div>[proxy:0:0@weiser1] main (./pm/pmiserv/pmip.c:206): demux engine error waiting for event</div>
<div>[mpiexec@weiser1] HYDT_bscu_wait_for_completion (./tools/bootstrap/utils/bscu_wait.c:76): one of the processes terminated badly; aborting</div><div>[mpiexec@weiser1] HYDT_bsci_wait_for_completion (./tools/bootstrap/src/bsci_wait.c:23): launcher returned error waiting for completion</div>
<div>[mpiexec@weiser1] HYD_pmci_wait_for_completion (./pm/pmiserv/pmiserv_pmci.c:217): launcher returned error waiting for completion</div><div>[mpiexec@weiser1] main (./ui/mpich/mpiexec.c:331): process manager error waiting for completion</div>
<div><br></div></div><div style>================ENDOF OUTPUT=====================<br></div><div style><br></div><div style><br></div><div style><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Fri, Jun 28, 2013 at 11:39 AM, Pavan Balaji <span dir="ltr"><<a href="mailto:balaji@mcs.anl.gov" target="_blank">balaji@mcs.anl.gov</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="HOEnZb"><div class="h5"><br>
On 06/27/2013 09:36 PM, Syed. Jahanzeb Maqbool Hashmi wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
I am trying to run HPL on a cluster of nodes. The problem I am facing is<br>
with mpich, as I have successfully configured mpich. The program runs on<br>
single node without passing -machinefile argument. But as long as I<br>
execute of multiple nodes (-machinefile nodes) then the program hangs on<br>
indefinitely right after issuing the command.<br>
</blockquote>
<br></div></div>
Given how little information you have provided, here's the only response I can give:<br>
<br>
You are doing something wrong.<span class="HOEnZb"><font color="#888888"><br>
<br>
 -- Pavan<br>
<br>
-- <br>
Pavan Balaji<br>
<a href="http://www.mcs.anl.gov/~balaji" target="_blank">http://www.mcs.anl.gov/~balaji</a><br>
</font></span></blockquote></div><br></div>