<meta http-equiv="Content-Type" content="text/html; charset=utf-8"><div dir="ltr">Maybe it is a problem of your code, and is irrelevant to MPI implementations. <div>For example, you can add printfs in your code to print out size of MPI_COMM_WORLD. Then, run your code with "mpirun -n 4 ..." on one node without specifying machinefile.  If it works, then re-run it with machinefile and see what happens.</div></div><div class="gmail_extra"><br clear="all"><div><div class="gmail_signature"><div dir="ltr">--Junchao Zhang</div></div></div>
<br><div class="gmail_quote">On Wed, May 27, 2015 at 1:35 PM, Heerdt, Lanze M. <span dir="ltr"><<a href="mailto:HeerdtLM1@gcc.edu" target="_blank">HeerdtLM1@gcc.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">I am sorry but I am not sure how to go about doing that, can you give me a little more guide on how to do it? I honestly only just started working with mpich/python/mpi4py/HPL just before the weekend.<br>
<br>
The compiling with one and running with another might be possible now because I have both openmpi and mpich installed, but when I was first getting the error I only had mpich so that makes me skeptical.<br>
Also is it possible my Make.rpi file is not correct for my system? I copied over the lines from the guides but I really have no way of verifying their veracity since I really don't know the system very well at all.<br>
<div><div class="h5"><br>
-----Original Message-----<br>
From: Rajeev Thakur [mailto:<a href="mailto:thakur@mcs.anl.gov">thakur@mcs.anl.gov</a>]<br>
Sent: Wednesday, May 27, 2015 1:49 PM<br>
To: <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
Subject: Re: [mpich-discuss] Running HPL on RPi cluster, seems like MPI is somehow not configured properly since it work with 1 node but not more<br>
<br>
This problem usually happens when you compile a program with the mpicc/mpif77 from one MPI implementation and run it with the mpiexec from another MPI implementation. Or if the mpif.h header file is picked up from some other implementation. Make sure all these are taken from the same implementation. Give full paths if necessary.<br>
<br>
Rajeev<br>
<br>
<br>
On May 27, 2015, at 11:33 AM, "Heerdt, Lanze M." <<a href="mailto:HeerdtLM1@GCC.EDU">HeerdtLM1@GCC.EDU</a>><br>
 wrote:<br>
<br>
> Yes I am sorry I should have added that in the original post. "-n 4 Hostname" prints out the names of my 4 Pis in the cluster and "...-n 16 helloworld.py" prints out as expected as shown in the attached image. So I know that those work correctly. It is just the strangest problem. If I ever specify more than 1 processes it says "you need _ number of processes to run the following tests" even though I have it set to run with said number of processes.<br>
><br>
> Thank you for getting back to me so quickly. This problem is giving me grey hairs and I am only a college student.<br>
><br>
> -Lanze<br>
><br>
> -----Original Message-----<br>
> From: Kenneth Raffenetti [mailto:<a href="mailto:raffenet@mcs.anl.gov">raffenet@mcs.anl.gov</a>]<br>
> Sent: Wednesday, May 27, 2015 8:21 AM<br>
> To: <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
> Subject: Re: [mpich-discuss] Running HPL on RPi cluster, seems like<br>
> MPI is somehow not configured properly since it work with 1 node but<br>
> not more<br>
><br>
> Please try a simple test to ensure your mpiexec is working correctly.<br>
> Something like:<br>
><br>
>   mpiexec -machinefile ~/machinefile -n 4 hostname<br>
><br>
> That should output the hostnames of the machines you are attempting to run on.<br>
><br>
> Second, you should ensure that the mpiexec and MPI library your program is linked against come from the same distribution. A common error we see is mixing MPICH's mpiexec with Open MPI's library, or vice versa.<br>
><br>
> Ken<br>
><br>
> On 05/26/2015 03:32 PM, Heerdt, Lanze M. wrote:<br>
>> I realize this may be a bit off topic, but since what I am doing<br>
>> seems to be a pretty commonly done thing I am hoping to find someone<br>
>> who has done it before/can help since I've been at my wits end for so<br>
>> long they are calling me Mr. Whittaker.<br>
>><br>
>> I am trying to run HPL on a Raspberry Pi cluster. I used the<br>
>> following guides to get to where I am now:<br>
>><br>
>> <a href="http://www.tinkernut.com/2014/04/make-cluster-computer/" target="_blank">http://www.tinkernut.com/2014/04/make-cluster-computer/</a><br>
>><br>
>> <a href="http://www.tinkernut.com/2014/05/make-cluster-computer-part-2/" target="_blank">http://www.tinkernut.com/2014/05/make-cluster-computer-part-2/</a><br>
>><br>
>> <a href="https://www.howtoforge.com/tutorial/hpl-high-performance-linpack-benc" target="_blank">https://www.howtoforge.com/tutorial/hpl-high-performance-linpack-benc</a><br>
>> h<br>
>> mark-raspberry-pi/#comments<br>
>><br>
>> and a bit of:<br>
>> <a href="https://www.raspberrypi.org/forums/viewtopic.php?p=301458#p301458" target="_blank">https://www.raspberrypi.org/forums/viewtopic.php?p=301458#p301458</a><br>
>> when the above guide wasn't working<br>
>><br>
>> basically when I run: "mpiexec -machinefile ~/machinefile -n 1 xhpl"<br>
>> it works just fine<br>
>><br>
>> but when I run "mpiexec -machinefile ~/machinefile -n 4 xhpl" it<br>
</div></div>>> errors with the attached image. (if I use "mpirun..." I get the exact<br>
<div class="HOEnZb"><div class="h5">>> same behavior)<br>
>><br>
>> [Note: I HAVE changed the HPL.dat to have "2    Ps" and "2    Qs" from 1<br>
>> and 1 for when I try to run it with 4 processes]<br>
>><br>
>> This is for a project of mine which I need done by the end of the<br>
>> week so if you see this after 5/29 thank you but don't bother<br>
>> responding<br>
>><br>
>> I have hpl-2.1, mpi4py-1.3.1, mpich-3.1, and openmpi-1.8.5 at my<br>
>> disposal<br>
>><br>
>> In the machinefile are the 4 IP addresses of my 4 RPi nodes<br>
>><br>
>> 10.15.106.107<br>
>><br>
>> 10.15.101.29<br>
>><br>
>> 10.15.106.108<br>
>><br>
>> 10.15.101.30<br>
>><br>
>> Any other information you need I can easily get to you so please do<br>
>> not hesitate to ask. I have nothing else to do but try and get this<br>
>> to work :P<br>
>><br>
>><br>
>><br>
>> _______________________________________________<br>
>> discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
>> To manage subscription options or unsubscribe:<br>
>> <a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
>><br>
> _______________________________________________<br>
> discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
> To manage subscription options or unsubscribe:<br>
> <a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
> <Zoop.PNG>_______________________________________________<br>
> discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
> To manage subscription options or unsubscribe:<br>
> <a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
<br>
_______________________________________________<br>
discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
_______________________________________________<br>
discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
To manage subscription options or unsubscribe:<br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
</div></div></blockquote></div><br></div>