<div dir="ltr">I hate to bug, but this is a pretty serious issue.  I suspect it is why we get segfaults trying to use similar variables like MPI_STATUSES_IGNORE.  Any insight would be appreciated.<div><br></div><div>Thanks,</div><div>Patrick</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, May 27, 2020 at 10:25 AM Patrick McNally <<a href="mailto:rpmcnally@gmail.com">rpmcnally@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Our application consists primarily of a Python head calling into Fortran routines to do the heavy lifting.  We have never been able to successfully use MPI_IN_PLACE in Fortran but weren't sure why.  Recently, we discovered that it works fine in standalone Fortran code and is only broken when the Fortran code is run through our Python modules.<br><br>The issue appears to be related to having code that only links to the C libmpi library loaded first and with RTLD_LOCAL, as happens when we load mpi4py.  It works if you load something linked to libmpifort first or load everything with RTLD_GLOBAL.  I'm assuming this has something to do with how MPICH tests the address of MPIR_F08_MPI_IN_PLACE but I don't understand SO loading well enough to fully grasp the issue.  Below is some standalone code to show the issue.  I'd appreciate any insight you can provide into why this is happening.<br><br>Relevant system details:<br>RHEL 7.8<br>Python 2.7<br>GCC 7.3.0<br>MPICH 3.3.2 (and 3.2)<br><br>The below files are also available towards the end of the bug report at the following link:<br><a href="https://bitbucket.org/mpi4py/mpi4py/issues/162/mpi4py-initialization-breaks-fortran" target="_blank">https://bitbucket.org/mpi4py/mpi4py/issues/162/mpi4py-initialization-breaks-fortran</a><div><div><br></div><div>Thanks,</div><div>Patrick</div><div><br>makefile<br>-----------<br>libs = testc.so testf.so<br>all: $(libs)<br><br>testc.so: testc.c<br>        mpicc   -shared -fPIC $< -o $@<br><br>testf.so: testf.f90<br>        mpifort -shared -fPIC $< -o $@<br><br>clean:<br>        $(RM) $(libs)<br><br>testc.c<br>---------<br>#include <stddef.h><br>#include <stdio.h><br>#include <mpi.h><br><br>extern void initc(void);<br>extern void testc(void);<br><br>void initc(void)<br>{<br>  MPI_Init(NULL,NULL);<br>}<br><br>void testc(void)<br>{<br>  int val = 1;<br>  MPI_Allreduce(MPI_IN_PLACE, &val, 1, MPI_INT, MPI_SUM, MPI_COMM_WORLD);<br>  printf("C val: %2d\n",val);<br>}<br><br>testf.f90<br>-----------<br>subroutine initf() bind(C)<br>  use mpi<br>  integer ierr<br>  call MPI_Init(ierr)<br>end subroutine initf<br><br>subroutine testf() bind(C)<br>  use mpi<br>  integer ierr<br>  integer val<br>  val = 1<br>  call MPI_Allreduce(MPI_IN_PLACE, val, 1, MPI_INTEGER, MPI_SUM, MPI_COMM_WORLD, ierr)<br>  print '(A,I2)', 'F val: ', val<br>end subroutine testf<br><br>test.py<br>---------<br>from ctypes import CDLL, RTLD_LOCAL, RTLD_GLOBAL<br><br>mode = RTLD_LOCAL<br>cfirst = True<br><br>if cfirst: # it does not work!<br>    libc = CDLL("./testc.so", mode)<br>    libf = CDLL("./testf.so", mode)<br>else: # it works!<br>    libf = CDLL("./testf.so", mode)<br>    libc = CDLL("./testc.so", mode)<br><br>libc.initc.restype  = None<br>libc.testc.argtypes = []<br>libf.initf.restype  = None<br>libf.testf.argtypes = []<br><br>libc.initc()<br>libc.testc()<br>libf.testf()</div></div></div>
</blockquote></div>