<font size=2 face="sans-serif">Testcase is pretty simple.  I'll keep
poking at it myself and look at that ticket too.</font>
<br>
<br>
<br><font size=2 face="sans-serif"><br>
Bob Cernohous:  (T/L 553) 507-253-6093<br>
<br>
BobC@us.ibm.com<br>
IBM Rochester, Building 030-2(C335), Department 61L<br>
3605 Hwy 52 North, Rochester,  MN 55901-7829<br>
<br>
> Chaos reigns within.<br>
> Reflect, repent, and reboot.<br>
> Order shall return.<br>
</font>
<br>
<br><tt><font size=2>devel-bounces@mpich.org wrote on 04/25/2013 01:57:35
PM:<br>
<br>
> From: Dave Goodell <goodell@mcs.anl.gov></font></tt>
<br><tt><font size=2>> To: devel@mpich.org, </font></tt>
<br><tt><font size=2>> Date: 04/25/2013 01:58 PM</font></tt>
<br><tt><font size=2>> Subject: Re: [mpich-devel] MPI_Bsend under MPIU_THREAD_GRANULARITY_PER_OBJECT</font></tt>
<br><tt><font size=2>> Sent by: devel-bounces@mpich.org</font></tt>
<br><tt><font size=2>> <br>
> In that case, test programs to help us reproduce this are also welcome.</font></tt>
<br><tt><font size=2>> <br>
> There's also always a risk that one of the currently missing ALLFUNC<br>
> critical sections is affecting your user:</font></tt>
<br><tt><font size=2>> <br>
> </font></tt><a href=https://trac.mpich.org/projects/mpich/ticket/1797><tt><font size=2>https://trac.mpich.org/projects/mpich/ticket/1797</font></tt></a>
<br><tt><font size=2>> <br>
> -Dave</font></tt>
<br><tt><font size=2>> <br>
> On Apr 25, 2013, at 11:38 AM CDT, Bob Cernohous <bobc@us.ibm.com>
wrote:</font></tt>
<br><tt><font size=2>> <br>
> Patches could be tricky because I'm even seeing intermittent (and
<br>
> different) failures on our 'legacy' libraries which are not per-obj
<br>
> but use the big lock.  So there's probably more than one problem
here. <br>
> <br>
> Abort(1) on node 3 (rank 3 in comm 1140850688): Fatal error in <br>
> MPI_Bsend: Internal MPI error!, error stack: <br>
> MPI_Bsend(181)..............: MPI_Bsend(buf=0x19c8a06da0, <br>
> count=1024, MPI_CHAR, dest=0, tag=0, MPI_COMM_WORLD) failed <br>
> MPIR_Bsend_isend(226).......: <br>
> MPIR_Bsend_check_active(456): <br>
> MPIR_Test_impl(65)..........: <br>
> MPIR_Request_complete(234)..: INTERNAL ERROR: unexpected value in
<br>
> case statement (value=0) <br>
> <br>
> <br>
> Bob Cernohous:  (T/L 553) 507-253-6093<br>
> <br>
> BobC@us.ibm.com<br>
> IBM Rochester, Building 030-2(C335), Department 61L<br>
> 3605 Hwy 52 North, Rochester,  MN 55901-7829<br>
> <br>
> > Chaos reigns within.<br>
> > Reflect, repent, and reboot.<br>
> > Order shall return.<br>
> <br>
> <br>
> <br>
> <br>
> From:        Dave Goodell <goodell@mcs.anl.gov>
<br>
> To:        devel@mpich.org, <br>
> Date:        04/25/2013 11:14 AM <br>
> Subject:        Re: [mpich-devel] MPI_Bsend under
<br>
> MPIU_THREAD_GRANULARITY_PER_OBJECT <br>
> Sent by:        devel-bounces@mpich.org <br>
> <br>
> <br>
> <br>
> The Bsend paths almost certainly have not been protected correctly.
<br>
> Patches to fix the issue are most welcome.<br>
> <br>
> -Dave<br>
> <br>
> On Apr 25, 2013, at 10:49 AM CDT, Bob Cernohous <bobc@us.ibm.com>
wrote:<br>
> <br>
> > Start by saying that I have not been involved in the nitty gritty
<br>
> of the per-object locking design. <br>
> > <br>
> > What protects the attached buffer/data structures/request when
<br>
> doing multithreaded MPI_Bsend()'s?  All I see in the code path
is a <br>
> (no-op) MPIU_THREAD_CS_ENTER(ALLFUNC,). <br>
> > <br>
> > I have a customer test in which the threads seem to be walking
all<br>
> over the request around: <br>
> > <br>
> >         /bgusr/bobc/bgq/comm/lib/dev/mpich2/src/mpid/pamid/<br>
> include/../src/mpid_request.h:259 <br>
> > 0000000001088c0c MPIR_Request_complete <br>
> >         /bgusr/bobc/bgq/comm/lib/dev/mpich2/src/mpi/pt2pt/mpir_request.c:87
<br>
> > 000000000106e874 MPIR_Test_impl <br>
> >         /bgusr/bobc/bgq/comm/lib/dev/mpich2/src/mpi/pt2pt/test.c:62
<br>
> > 00000000010188f0 MPIR_Bsend_check_active <br>
> >         /bgusr/bobc/bgq/comm/lib/dev/mpich2/src/mpi/pt2pt/bsendutil.c:455
<br>
> > 0000000001018dc0 MPIR_Bsend_isend <br>
> >         /bgusr/bobc/bgq/comm/lib/dev/mpich2/src/mpi/pt2pt/bsendutil.c:226
<br>
> > 0000000001008734 PMPI_Bsend <br>
> >         /bgusr/bobc/bgq/comm/lib/dev/mpich2/src/mpi/pt2pt/bsend.c:163
<br>
> > 00000000010009c0 00000012.long_branch_r2off.__libc_start_main+0
<br>
> >         :0 <br>
> > 000000000130cbc0 start_thread <br>
> > <br>
> > eg. (fprinting from MPIU_HANDLE_LOG_REFCOUNT_CHANGE) <br>
> > <br>
> > stderr[8]: set 0x15f8048 (0xac0000ff kind=REQUEST) refcount to
2 <br>
> > stderr[8]: decr 0x15f8048 (0xac0000ff kind=REQUEST) refcount
to 1 <br>
> > stderr[8]: decr 0x15f8048 (0xac0000ff kind=REQUEST) refcount
to 0 <br>
> > stderr[8]: decr 0x15f8048 (0xac0000ff kind=REQUEST) refcount
to -1 <br>
> > stderr[8]: decr 0x15f8048 (0xac0000ff kind=REQUEST) refcount
to -2 <br>
> > stderr[8]: decr 0x15f8048 (0xac0000ff kind=REQUEST) refcount
to -3 <br>
> > stderr[8]: decr 0x15f8048 (0xac0000ff kind=REQUEST) refcount
to -4 <br>
> > stderr[8]: decr 0x15f8048 (0xac0000ff kind=REQUEST) refcount
to -5 <br>
> > stderr[8]: decr 0x15f8048 (0xac0000ff kind=REQUEST) refcount
to -6 <br>
> > stderr[8]: decr 0x15f8048 (0xac0000ff kind=REQUEST) refcount
to -7 <br>
> > stderr[8]: decr 0x15f8048 (0xac0000ff kind=REQUEST) refcount
to -8 <br>
> > <br>
> > <br>
> > Bob Cernohous:  (T/L 553) 507-253-6093<br>
> > <br>
> > BobC@us.ibm.com<br>
> > IBM Rochester, Building 030-2(C335), Department 61L<br>
> > 3605 Hwy 52 North, Rochester,  MN 55901-7829<br>
> > <br>
> > > Chaos reigns within.<br>
> > > Reflect, repent, and reboot.<br>
> > > Order shall return.<br>
> <br>
</font></tt>