<meta http-equiv="Content-Type" content="text/html; charset=utf-8"><div dir="ltr">Thanks.  I vaguely remember that discussion but I was confused by the text until now.<div><br></div><div>Jeff<br><br><br>On Thu, Mar 30, 2017 at 7:57 PM, Balaji, Pavan <<a href="mailto:balaji@anl.gov">balaji@anl.gov</a>> wrote:<br>><br>><br>> MPI-2.2 page 347, line 31:<br>><br>> "Distinct access epochs for win at the same process must be disjoint."<br>><br>> We had a passionate discussion about this at the Forum for an entire day many years ago, even though every single person agreed that this restriction was silly.  Kind of hard to forget.  Fun times.  :-)<br>><br>>   -- Pavan<br>><br>> > On Mar 30, 2017, at 1:53 PM, Jeff Hammond <<a href="mailto:jeff.science@gmail.com">jeff.science@gmail.com</a>> wrote:<br>> ><br>> > I cannot find the text in MPI 2.1 that says one cannot initiate a shared lock at two processes at the same time.  I have some vague recollection, but I read the chapter twice and couldn't find the restriction.<br>> ><br>> > Jeff<br>> ><br>> > On Thu, Mar 30, 2017 at 9:54 AM, Balaji, Pavan <<a href="mailto:balaji@anl.gov">balaji@anl.gov</a>> wrote:<br>> ><br>> > No, it's not a bug.  PAMID only supports MPI-2.1.  Before you do locks to multiple targets, you need to check if MPI_VERSION >= 3.  MPI-2 only supported locks to a single target.  MPI-3 added multiple lock epochs.<br>> ><br>> > Also, pamid is not supported anymore in MPICH.  We recommend the MPICH-3.3/OFI/BGQ path for Blue Gene.<br>> ><br>> >   -- Pavan<br>> ><br>> > > On Mar 30, 2017, at 10:12 AM, Jeff Hammond <<a href="mailto:jeff.science@gmail.com">jeff.science@gmail.com</a>> wrote:<br>> > ><br>> > > I guess this is a bug but MPICH 3.1.x isn't the basis for the supported MPI on BGQ, so I doubt you will get much traction by reporting it.  IBM made an effort to support MPI-3 with PAMID but it was as an open-source, best effort project, and I recall there were some issues with it, including deadlock in certain asynchronous operations.<br>> > ><br>> > > You should try the supported MPI-2.2 implementation on BGQ or try the unsupported OFI-based implementation of MPI-3.<br>> > ><br>> > > Disclaimer: The comments above are spoken in my capacity as the person who used to support MPI at ALCF, not my current job role.<br>> > ><br>> > > Best,<br>> > ><br>> > > Jeff<br>> > ><br>> > > On Thu, Mar 30, 2017 at 3:21 AM, Sebastian Rinke <<a href="mailto:rinke@cs.tu-darmstadt.de">rinke@cs.tu-darmstadt.de</a>> wrote:<br>> > > Same window, i.e.:<br>> > ><br>> > > Process 0:<br>> > ><br>> > > Win_lock(MPI_LOCK_SHARED, target=A, window=win)<br>> > > Win_lock(MPI_LOCK_SHARED, target=B, window=win)<br>> > ><br>> > > Sebastian<br>> > ><br>> > ><br>> > > On 30 Mar 2017, at 06:24, Jeff Hammond <<a href="mailto:jeff.science@gmail.com">jeff.science@gmail.com</a>> wrote:<br>> > ><br>> > >> Same window or different windows?<br>> > >><br>> > >> Jeff<br>> > >><br>> > >> On Wed, Mar 29, 2017 at 5:59 PM Sebastian Rinke <<a href="mailto:rinke@cs.tu-darmstadt.de">rinke@cs.tu-darmstadt.de</a>> wrote:<br>> > >> Dear all,<br>> > >><br>> > >> I have some issue with MPI_Win_lock in MPICH-3.1.4 on Blue Gene/Q.<br>> > >><br>> > >> Here is my example:<br>> > >><br>> > >> Process 0:<br>> > >><br>> > >> Win_lock(MPI_LOCK_SHARED, target=A)<br>> > >> Win_lock(MPI_LOCK_SHARED, target=B)<br>> > >><br>> > >> No matter what I use for A and B (given A != B), a process cannot acquire more than one lock<br>> > >> at a time.<br>> > >><br>> > >> To my understanding, it should be possible to acquire more than one lock.<br>> > >><br>> > >> Can you confirm this issue?<br>> > >><br>> > >> Thanks,<br>> > >> Sebastian<br>> > >> _______________________________________________<br>> > >> discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>> > >> To manage subscription options or unsubscribe:<br>> > >> <a href="https://lists.mpich.org/mailman/listinfo/discuss">https://lists.mpich.org/mailman/listinfo/discuss</a><br>> > >> --<br>> > >> Jeff Hammond<br>> > >> <a href="mailto:jeff.science@gmail.com">jeff.science@gmail.com</a><br>> > >> <a href="http://jeffhammond.github.io/">http://jeffhammond.github.io/</a><br>> > >> _______________________________________________<br>> > >> discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>> > >> To manage subscription options or unsubscribe:<br>> > >> <a href="https://lists.mpich.org/mailman/listinfo/discuss">https://lists.mpich.org/mailman/listinfo/discuss</a><br>> > ><br>> > ><br>> > > _______________________________________________<br>> > > discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>> > > To manage subscription options or unsubscribe:<br>> > > <a href="https://lists.mpich.org/mailman/listinfo/discuss">https://lists.mpich.org/mailman/listinfo/discuss</a><br>> > ><br>> > ><br>> > ><br>> > > --<br>> > > Jeff Hammond<br>> > > <a href="mailto:jeff.science@gmail.com">jeff.science@gmail.com</a><br>> > > <a href="http://jeffhammond.github.io/">http://jeffhammond.github.io/</a><br>> > > _______________________________________________<br>> > > discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>> > > To manage subscription options or unsubscribe:<br>> > > <a href="https://lists.mpich.org/mailman/listinfo/discuss">https://lists.mpich.org/mailman/listinfo/discuss</a><br>> ><br>> > _______________________________________________<br>> > discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>> > To manage subscription options or unsubscribe:<br>> > <a href="https://lists.mpich.org/mailman/listinfo/discuss">https://lists.mpich.org/mailman/listinfo/discuss</a><br>> ><br>> ><br>> ><br>> > --<br>> > Jeff Hammond<br>> > <a href="mailto:jeff.science@gmail.com">jeff.science@gmail.com</a><br>> > <a href="http://jeffhammond.github.io/">http://jeffhammond.github.io/</a><br>> > _______________________________________________<br>> > discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>> > To manage subscription options or unsubscribe:<br>> > <a href="https://lists.mpich.org/mailman/listinfo/discuss">https://lists.mpich.org/mailman/listinfo/discuss</a><br>><br>> _______________________________________________<br>> discuss mailing list     <a href="mailto:discuss@mpich.org">discuss@mpich.org</a><br>> To manage subscription options or unsubscribe:<br>> <a href="https://lists.mpich.org/mailman/listinfo/discuss">https://lists.mpich.org/mailman/listinfo/discuss</a><br><br><br><br><br>--<br>Jeff Hammond<br><a href="mailto:jeff.science@gmail.com">jeff.science@gmail.com</a><br><a href="http://jeffhammond.github.io/">http://jeffhammond.github.io/</a><br><div class="gmail_extra">
</div></div></div>