<html><head><meta http-equiv="Content-Type" content="text/html charset=iso-8859-1"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><div><div><div><div>On Jul 8, 2013, at 10:39 AM, Reem Alraddadi <<a href="mailto:raba500@york.ac.uk">raba500@york.ac.uk</a>> wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite"><div dir="ltr"><div><div>Hi Pavan,<br><br>Could you explain more what do you mean by that? I am sorry I am still beginner in MPICH.<br></div></div></div></blockquote><div><br></div>This isn't specific to MPICH. This would be the case with any MPI implementation. What he means is that you need to make sure that when you are done using a communicator, you call MPI_Comm_free(communicator) so MPICH can free the internal resources used by the communicator. If you never free your communicators, then you will eventually run out. There is a limited number of communicators available internally.</div><div><br><blockquote type="cite"><div dir="ltr"><div><div><br>Hi Wesley,<br>apologize about my first confused reply I have forgotten to change the subject. However, as I mentioned I wrote the following line:<br>
<br>mpirun --np 4 --env MPIR_PARAM_CTXID_EAGER_SIZE 1 ./flash4<br><br>I am wondering if I made any mistake here as the problem is still the same <br></div></div></div></blockquote><div><br></div><div>Yes, that's the correct way to use it, so that means your problem is probably what we described above.</div><div><br></div><blockquote type="cite"><div dir="ltr"><div><div><br></div>Thanks, <br></div>Reem<br><div><div class="gmail_extra">
<br><br><div class="gmail_quote"><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
Message: 1<br>
Date: Mon, 08 Jul 2013 09:17:00 -0500<br>
From: Pavan Balaji <<a href="mailto:balaji@mcs.anl.gov">balaji@mcs.anl.gov</a>><br>
To: <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
Subject: Re: [mpich-discuss] mpich on Mac os x<br>
Message-ID: <<a href="mailto:51DAC9DC.5000502@mcs.anl.gov">51DAC9DC.5000502@mcs.anl.gov</a>><br>
Content-Type: text/plain; charset=ISO-8859-1; format=flowed<br>
<br>
<br>
Also make sure you are freeing unused communicators.<br>
<br>
  -- Pavan<br>
<br>
On 07/08/2013 08:14 AM, Wesley Bland wrote:<br>
> It seems that you're creating more communicators than MPICH can handle. It's possible that you might be able to get around this by setting the environment variable MPIR_PARAM_CTXID_EAGER_SIZE to something smaller than its default (which is 2). That frees up a few more communicators, but there is a pathological case where even with fewer communicators than the max, MPICH won't be able to agree on a new communicator id when needed. Try changing that environment variable and see if that fixes things.<br>

><br>
> Wesley<br>
><br>
> On Jul 8, 2013, at 5:33 AM, Reem Alraddadi <<a href="mailto:raba500@york.ac.uk">raba500@york.ac.uk</a>> wrote:<br>
><br>
>> Hi all,<br>
>> I am using mpich-3.0.4 on Mac os x version 10.7.5 to run FLASH code. It works fine in the beginning of the run and then I got the following error:<br>
>><br>
>> Fatal error in MPI_Comm_create: Other MPI error, error stack:<br>
>> MPI_Comm_create(600).................: MPI_Comm_create(comm=0x84000002, group=0xc8001349, new_comm=0x7fff606a8614) failed<br>
>> MPI_Comm_create(577).................:<br>
>> MPIR_Comm_create_intra(241)..........:<br>
>> MPIR_Get_contextid(799)..............:<br>
>> MPIR_Get_contextid_sparse_group(1146):  Cannot allocate context ID because of fragmentation (169/2048 free on this process; ignore_id=0)<br>
>> Fatal error in MPI_Comm_create: Other MPI error, error stack:<br>
>> MPI_Comm_create(600).................: MPI_Comm_create(comm=0x84000002, group=0xc80012b6, new_comm=0x7fff670cc614) failed<br>
>> MPI_Comm_create(577).................:<br>
>> MPIR_Comm_create_intra(241)..........:<br>
>> MPIR_Get_contextid(799)..............:<br>
>> MPIR_Get_contextid_sparse_group(1146):  Cannot allocate context ID because of fragmentation (316/2048 free on this process; ignore_id=0)<br>
>> Fatal error in MPI_Comm_create: Other MPI error, error stack:<br>
>> MPI_Comm_create(600).................: MPI_Comm_create(comm=0x84000004, group=0xc800000e, new_comm=0x7fff629d5614) failed<br>
>> MPI_Comm_create(577).................:<br>
>> MPIR_Comm_create_intra(241)..........:<br>
>> MPIR_Get_contextid(799)..............:<br>
>> MPIR_Get_contextid_sparse_group(1146):  Cannot allocate context ID because of fragmentation (2020/2048 free on this process; ignore_id=0)<br>
>> Fatal error in MPI_Comm_create: Other MPI error, error stack:<br>
>> MPI_Comm_create(600).................: MPI_Comm_create(comm=0x84000002, group=0xc8000020, new_comm=0x7fff639ae614) failed<br>
>> MPI_Comm_create(577).................:<br>
>> MPIR_Comm_create_intra(241)..........:<br>
>> MPIR_Get_contextid(799)..............:<br>
>> MPIR_Get_contextid_sparse_group(1146):  Cannot allocate context ID because of fragmentation (2002/2048 free on this process; ignore_id=0<br>
>><br>
>> Is there a way to fix that ?<br>
>><br>
>> Thanks,<br>
>> Reem<br>
>> _______________________________________________<br>
>> discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
>> To manage subscription options or unsubscribe:<br>
>> <a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
><br>
> _______________________________________________<br>
> discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>
> To manage subscription options or unsubscribe:<br>
> <a href="https://lists.mpich.org/mailman/listinfo/discuss" target="_blank">https://lists.mpich.org/mailman/listinfo/discuss</a><br>
><br>
<br>
--<br>
Pavan Balaji<br>
<a href="http://www.mcs.anl.gov/~balaji" target="_blank">http://www.mcs.anl.gov/~balaji</a><br></blockquote></div></div></div></div>
_______________________________________________<br>discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>To manage subscription options or unsubscribe:<br><a href="https://lists.mpich.org/mailman/listinfo/discuss">https://lists.mpich.org/mailman/listinfo/discuss</a></blockquote></div><br></div></div></body></html>