<div dir="ltr">It causes no problem at all, since the categories/buckets are large enough. Only the malloc()  function causes the problem. I read that it is not 'interrupt safe'. What does that mean and what should be done against it?</div>
<div class="gmail_extra"><br><br><div class="gmail_quote">On Wed, Feb 19, 2014 at 8:08 AM,  <span dir="ltr"><<a href="mailto:discuss-request@mpich.org" target="_blank">discuss-request@mpich.org</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Send discuss mailing list submissions to<br>
        <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
or, via email, send a message with subject or body 'help' to<br>
        <a href="mailto:discuss-request@mpich.org">discuss-request@mpich.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:discuss-owner@mpich.org">discuss-owner@mpich.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than "Re: Contents of discuss digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1. Re:  dynamic 2D array creation error (Kenneth Raffenetti)<br>
   2. Re:  urgent-malloc problem (Gilles Gouaillardet)<br>
   3. Re:  Communication Error when installing MPICH on multi<br>
      HOSTS. (Balaji, Pavan)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Tue, 18 Feb 2014 07:48:39 -0600<br>
From: Kenneth Raffenetti <<a href="mailto:raffenet@mcs.anl.gov">raffenet@mcs.anl.gov</a>><br>
To: <<a href="mailto:discuss@mpich.org">discuss@mpich.org</a>><br>
Subject: Re: [mpich-discuss] dynamic 2D array creation error<br>
Message-ID: <<a href="mailto:530364B7.5040908@mcs.anl.gov">530364B7.5040908@mcs.anl.gov</a>><br>
Content-Type: text/plain; charset="UTF-8"; format=flowed<br>
<br>
This list is for asking questions about the usage of mpich. General<br>
programming questions like the below are better suited for a forum like<br>
Stackoverflow.<br>
<br>
On 02/18/2014 12:44 AM, Soheil Hooshdaran wrote:<br>
> Hello. What's wrong with this code snippet?<br>
><br>
> |1<br>
> 2<br>
> 3<br>
> 4<br>
> 5<br>
> 6<br>
> |<br>
><br>
><br>
><br>
> |        int     **lBucket;<br>
><br>
>         lBucket =new  int*[iWorldSize];//iWorldSize is the nummber of processors<br>
><br>
>       for(i=0;i<iWorldSize;++i)<br>
>           lBucket[i] =new  int[m];|<br>
><br>
><br>
><br>
> Thanks in advance<br>
><br>
><br>
><br>
><br>
> _______________________________________________<br>
> discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
> To manage subscription options or unsubscribe:<br>
> <a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
><br>
<br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Wed, 19 Feb 2014 12:07:43 +0900<br>
From: Gilles Gouaillardet <<a href="mailto:gilles.gouaillardet@iferc.org">gilles.gouaillardet@iferc.org</a>><br>
To: <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
Subject: Re: [mpich-discuss] urgent-malloc problem<br>
Message-ID: <<a href="mailto:53041FFF.4040101@iferc.org">53041FFF.4040101@iferc.org</a>><br>
Content-Type: text/plain; charset=ISO-8859-1<br>
<br>
Hello,<br>
<br>
how do you run your program ?<br>
e.g.<br>
./a.out <m> <base> <r><br>
which values for m, base and r ?<br>
<br>
there is no check on boundaries, and depending on the input parameters,<br>
<br>
cat[count][ cursor[count]++ ]<br>
<br>
indexes can be out of bound<br>
<br>
imho, this is not mpich related at all<br>
<br>
Best regards,<br>
<br>
Gilles<br>
<br>
<br>
On 2014/02/13 0:22, Soheil Hooshdaran wrote:<br>
> Hello.<br>
> I have a memory allocation problem (using malloc). I can't figure out its<br>
> cause. Could you help me please?<br>
><br>
<br>
<br>
<br>
------------------------------<br>
<br>
Message: 3<br>
Date: Wed, 19 Feb 2014 04:38:38 +0000<br>
From: "Balaji, Pavan" <<a href="mailto:balaji@anl.gov">balaji@anl.gov</a>><br>
To: "<a href="mailto:discuss@mpich.org">discuss@mpich.org</a>" <<a href="mailto:discuss@mpich.org">discuss@mpich.org</a>><br>
Subject: Re: [mpich-discuss] Communication Error when installing MPICH<br>
        on multi HOSTS.<br>
Message-ID: <<a href="mailto:CF29912C.5996E%25balaji@anl.gov">CF29912C.5996E%balaji@anl.gov</a>><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
<br>
It?s hard to tell, but this does indicate some problem with your communication setup.  Did you verify your /etc/hosts like described on the FAQ page?<br>
<br>
  ? Pavan<br>
<br>
From: ???? <<a href="mailto:wu_0317@qq.com">wu_0317@qq.com</a><mailto:<a href="mailto:wu_0317@qq.com">wu_0317@qq.com</a>>><br>
Reply-To: "<a href="mailto:discuss@mpich.org">discuss@mpich.org</a><mailto:<a href="mailto:discuss@mpich.org">discuss@mpich.org</a>>" <<a href="mailto:discuss@mpich.org">discuss@mpich.org</a><mailto:<a href="mailto:discuss@mpich.org">discuss@mpich.org</a>>><br>

Date: Tuesday, February 18, 2014 at 5:21 AM<br>
To: discuss <<a href="mailto:discuss@mpich.org">discuss@mpich.org</a><mailto:<a href="mailto:discuss@mpich.org">discuss@mpich.org</a>>><br>
Subject: [mpich-discuss] Communication Error when installing MPICH on multi HOSTS.<br>
<br>
HI.<br>
<br>
My environment:<br>
Two Vmware VMs with ubuntu-server12.04 OS, called mpimaster,mpislaver1<br>
they both linked to a virtual network 10.0.0.1;<br>
they can ssh to each other without password;<br>
I have disabled the fire walls with "sudo ufw disable"<br>
I  install  mpich3.0.4 on a NFS servered by mpimaster.<br>
<br>
I installed mpich3.0.4 follow the "readme.txt", it has Communication problem when progresses from different host comunicate with each other.<br>
[cid:E1179051@3853243A.43420353.png]<br>
<br>
>From picture above we can see it's ok to run "cpi" on both hosts separately.<br>
<br>
If you can't see the picture,plz see the shell's below.<br>
<br>
ailab@mpimaster:~/Downloads/mpich-3.0.4$ mpiexec -n 4 ./examples/cpi<br>
Process 0 of 4 is on mpimaster<br>
Process 1 of 4 is on mpimaster<br>
Process 2 of 4 is on mpimaster<br>
Process 3 of 4 is on mpimaster<br>
pi is approximately 3.1415926544231239, Error is 0.0000000008333307<br>
wall clock time = 0.028108<br>
ailab@mpimaster:~/Downloads/mpich-3.0.4$ mpiexec -hosts mpimaster -n 4 ./examples/cpi<br>
Process 2 of 4 is on mpimaster<br>
Process 0 of 4 is on mpimaster<br>
Process 1 of 4 is on mpimaster<br>
Process 3 of 4 is on mpimaster<br>
pi is approximately 3.1415926544231239, Error is 0.0000000008333307<br>
wall clock time = 0.027234<br>
ailab@mpimaster:~/Downloads/mpich-3.0.4$ mpiexec -hosts mpislaver1 -n 4 ./examples/cpi<br>
Process 0 of 4 is on mpislaver1<br>
pi is approximately 3.1415926544231239, Error is 0.0000000008333307<br>
wall clock time = 0.000093<br>
Process 1 of 4 is on mpislaver1<br>
Process 2 of 4 is on mpislaver1<br>
Process 3 of 4 is on mpislaver1<br>
ailab@mpimaster:~/Downloads/mpich-3.0.4$ mpiexec -hosts mpimaster,mpislaver1 -n 4 ./examples/cpi<br>
Process 0 of 4 is on mpimaster<br>
Process 2 of 4 is on mpimaster<br>
Fatal error in PMPI_Reduce: A process has failed, error stack:<br>
PMPI_Reduce(1217)...............: MPI_Reduce(sbuf=0x7fff73a51ce8, rbuf=0x7fff73a51cf0, count=1, MPI_DOUBLE, MPI_SUM, root=0, MPI_COMM_WORLD) failed<br>
MPIR_Reduce_impl(1029)..........:<br>
MPIR_Reduce_intra(779)..........:<br>
MPIR_Reduce_impl(1029)..........:<br>
MPIR_Reduce_intra(835)..........:<br>
MPIR_Reduce_binomial(144).......:<br>
MPIDI_CH3U_Recvq_FDU_or_AEP(667): Communication error with rank 1<br>
MPIR_Reduce_intra(799)..........:<br>
MPIR_Reduce_impl(1029)..........:<br>
MPIR_Reduce_intra(835)..........:<br>
MPIR_Reduce_binomial(206).......: Failure during collective<br>
<br>
================================================================================<br>
=   BAD TERMINATION OF ONE OF YOUR APPLICATION PROCESSES<br>
=   EXIT CODE: 1<br>
=   CLEANING UP REMAINING PROCESSES<br>
=   YOU CAN IGNORE THE BELOW CLEANUP MESSAGES<br>
================================================================================<br>
[proxy:0:1@mpislaver1] HYD_pmcd_pmip_control_cmd_cb (./pm/pmiserv/pmip_cb.c:886)<br>
[proxy:0:1@mpislaver1] HYDT_dmxu_poll_wait_for_event (./tools/demux/demux_poll.c<br>
[proxy:0:1@mpislaver1] main (./pm/pmiserv/pmip.c:206): demux engine error waitin<br>
[mpiexec@mpimaster] HYDT_bscu_wait_for_completion (./tools/bootstrap/utils/bscu_<br>
[mpiexec@mpimaster] HYDT_bsci_wait_for_completion (./tools/bootstrap/src/bsci_wa<br>
[mpiexec@mpimaster] HYD_pmci_wait_for_completion (./pm/pmiserv/pmiserv_pmci.c:21<br>
[mpiexec@mpimaster] main (./ui/mpich/mpiexec.c:331): process manager error waiti<br>
ailab@mpimaster:~/Downloads/mpich-3.0.4$<br>
<br>
plz help,THX!<br>
<br>
<br>
------------------<br>
Jie-Jun Wu<br>
Department of Computer Science,<br>
Sun Yat-sen University,<br>
Guangzhou,<br>
P.R. China<br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://lists.mpich.org/pipermail/discuss/attachments/20140219/d9519600/attachment.html" target="_blank">http://lists.mpich.org/pipermail/discuss/attachments/20140219/d9519600/attachment.html</a>><br>

-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: E1179051@3853243A.43420353.png<br>
Type: application/octet-stream<br>
Size: 68330 bytes<br>
Desc: E1179051@3853243A.43420353.png<br>
URL: <<a href="http://lists.mpich.org/pipermail/discuss/attachments/20140219/d9519600/attachment.obj" target="_blank">http://lists.mpich.org/pipermail/discuss/attachments/20140219/d9519600/attachment.obj</a>><br>
<br>
------------------------------<br>
<br>
_______________________________________________<br>
discuss mailing list<br>
<a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
<a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
<br>
End of discuss Digest, Vol 16, Issue 7<br>
**************************************<br>
</blockquote></div><br><br clear="all"><div><br></div>-- <br><div dir="ltr"><div dir="rtl">قال المصطفی علیه السلام: ‌«إرحموا ثلاثا عزیزاً، قوم الذل  و غنی قوم افتقر و عالماً یلعب به الجُهّال»<br></div><div dir="rtl"><br>
</div></div>
</div>