<div dir="ltr"><div style>Hi, Pavan,</div><div><br></div>Thanks a lot! you are correct, I gonna re-install the Linux for servers.<div><br></div><div style>Best,</div><div style>Sufeng</div></div><div class="gmail_extra"><br>
<br><div class="gmail_quote">On Sun, Jun 16, 2013 at 8:15 AM, Pavan Balaji <span dir="ltr"><<a href="mailto:balaji@mcs.anl.gov" target="_blank">balaji@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi Sufeng,<div class="im"><br>
<br>
On 06/14/2013 04:35 PM, Sufeng Niu wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
1. when I run a simple MPI hello world on multiple nodes, (I already<br>
installed mpich3 library on master node, mount the nfs, shared the<br>
executable file and mpi library, set slave node to be keyless ssh), my<br>
program was stoped there say:<br>
bash: /mnt/mpi/mpich-install/bin/<u></u>hydra_pmi_proxy: /lib/ld-linux.so.2:<br>
bad ELF interpreter: No such file or directory.<br>
</blockquote>
<br></div>
1. Did you make sure /mnt/mpi/mpich-install/bin/<u></u>hydra_pmi_proxy is available on each node?<br>
<br>
2. Did you also make sure all libraries it is linked to are available on each node?<br>
<br>
You can check these libraries using "ldd /mnt/mpi/mpich-install/bin/<u></u>hydra_pmi_proxy"<span class="HOEnZb"><font color="#888888"><br>
<br>
 -- Pavan</font></span><div class="HOEnZb"><div class="h5"><br>
<br>
-- <br>
Pavan Balaji<br>
<a href="http://www.mcs.anl.gov/~balaji" target="_blank">http://www.mcs.anl.gov/~balaji</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br>Best Regards,<div>Sufeng Niu</div><div>ECASP lab, ECE department, Illinois Institute of Technology</div><div>Tel: 312-731-7219</div>
</div>