<meta http-equiv="Content-Type" content="text/html; charset=utf-8"><div dir="ltr">Yes, I can get right results, but it does not always happen. It happen sometimes, sometimes it is OK. It is really weird. </div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Nov 26, 2014 at 2:26 PM, Junchao Zhang <span dir="ltr"><<a href="mailto:jczhang@mcs.anl.gov" target="_blank">jczhang@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Do you run your program on one node with 20 processes, and the result is correct except the time is slower?<div>If yes, then it seems only one CPU of the node is used, which is weird. <span class="HOEnZb"><font color="#888888"><br><div><br></div><div><br><div><br></div></div></font></span></div></div><div class="gmail_extra"><span class="HOEnZb"><font color="#888888"><br clear="all"><div><div><div dir="ltr">--Junchao Zhang</div></div></div></font></span><div><div class="h5">
<br><div class="gmail_quote">On Wed, Nov 26, 2014 at 1:22 PM, Shuchi Yang <span dir="ltr"><<a href="mailto:yang.shuchi@gmail.com" target="_blank">yang.shuchi@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">I am doing CFD simulation.<div>With MPI, I can split the computational domain to different parts so that each process works on different part. In this case, we can reduce the total computational time. </div><div><br></div><div>When I tried to run at another different system, it looks all the cpu are working on the whole computational domain. It looks like every CPU is working on the whole computational domain so that the computational efficiency is very low.</div><div><br></div><div><br></div></div><div><div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Nov 26, 2014 at 11:45 AM, Junchao Zhang <span dir="ltr"><<a href="mailto:jczhang@mcs.anl.gov" target="_blank">jczhang@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">I guess it is not an MPI problem. When you say "<span style="font-family:arial,sans-serif;font-size:13px">every CPU works on all the data", you need a clear idea of what is the data decomposition in your code.</span><span><font color="#888888"><div><br></div></font></span></div><div class="gmail_extra"><span><font color="#888888"><br clear="all"><div><div><div dir="ltr">--Junchao Zhang</div></div></div></font></span><div><div>
<br><div class="gmail_quote">On Wed, Nov 26, 2014 at 11:28 AM, Shuchi Yang <span dir="ltr"><<a href="mailto:yang.shuchi@gmail.com" target="_blank">yang.shuchi@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Thanks for your reply. I am trying it in the way you mentioned. <div>But I met one problem is that on my original machine, I can run the code with 20 CPUs so that each CPU works on part of the job. But at the new machine, it starts the process with 20 CPUS, but every CPU works on all the data, so that it looks like it is running 20 times the job at same time. Is that because of MPI problem? </div><div>Thanks,</div><div><br></div><div>Shuchi </div></div><div><div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Nov 26, 2014 at 9:50 AM, Junchao Zhang <span dir="ltr"><<a href="mailto:jczhang@mcs.anl.gov" target="_blank">jczhang@mcs.anl.gov</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">You can copy MPI libraries installed on the Ubuntu machine to the Suse machine, then add that path to LD_LIBRARY_PATH on the Suse.</div><div class="gmail_extra"><br clear="all"><div><div><div dir="ltr">--Junchao Zhang</div></div></div>
<br><div class="gmail_quote"><div><div>On Wed, Nov 26, 2014 at 9:55 AM, Shuchi Yang <span dir="ltr"><<a href="mailto:yang.shuchi@gmail.com" target="_blank">yang.shuchi@gmail.com</a>></span> wrote:<br></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><div dir="ltr">I met some problem. <div>The question is that<div><div>I compile a fortran code at ubuntu, but I need run the code at Suse Linux, I was always told </div><div><i>    error while loading shared libraries: libmpifort.so.12: cannot open shared object file: No such file or directory</i></div><div><br></div><div>Furthermore, will this be a problem, I mean, if I compile the code with mpich-gcc and run the code at another type of Linux? </div></div></div><div><br></div><div>Thanks,</div><div><br></div><div>Shuchi </div></div>
<br></div></div>_______________________________________________<br>
discuss mailing list     <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br></blockquote></div><br></div>
<br>_______________________________________________<br>
discuss mailing list     <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br></blockquote></div><br></div>
</div></div><br>_______________________________________________<br>
discuss mailing list     <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br></blockquote></div><br></div></div></div>
<br>_______________________________________________<br>
discuss mailing list     <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br></blockquote></div><br></div>
</div></div><br>_______________________________________________<br>
discuss mailing list     <a href="mailto:discuss@mpich.org" target="_blank">discuss@mpich.org</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br></blockquote></div><br></div></div></div>
<br>_______________________________________________<br>
discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br></blockquote></div><br></div>