<div dir="ltr">Hi Hui,<div><br></div><div>I just searched the whole code. There is no MPI_T_* name in the code. I may tried the newer version later on. Thank you very much</div><div><br></div><div>Zhifeng</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr">On Mon, Nov 19, 2018 at 12:14 PM Zhou, Hui <<a href="mailto:zhouh@anl.gov">zhouh@anl.gov</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Zhifeng,<br>
<br>
We just had a new mpich release: mpich-3.3rc1. You may try that <br>
release see if you still have the same error. <br>
<br>
That aside, does your code uses MPI_T_ interfaces? You may try search <br>
MPI_T_ prefixes in your code base. In particular, I am interested in <br>
any MPI_T_ calls before MPI_Init call.<br>
<br>
-- <br>
Hui Zhou<br>
<br>
On Mon, Nov 19, 2018 at 10:39:20AM -0500, Zhifeng Yang wrote:<br>
>Hi Hui,<br>
>Here are the outputs. I tried the following commands<br>
>mpirun --version<br>
>./cpi<br>
>mpirun ./cpi<br>
>mpirun -np 1 ./cpi<br>
><br>
>[vy57456@maya-usr1 em_real]$mpirun --version<br>
>HYDRA build details:<br>
>    Version:                                 3.2.1<br>
>    Release Date:                            Fri Nov 10 20:21:01 CST 2017<br>
>    CC:                              gcc<br>
>    CXX:                             g++<br>
>    F77:                             gfortran<br>
>    F90:                             gfortran<br>
>    Configure options:                       '--disable-option-checking'<br>
>'--prefix=/umbc/xfs1/zzbatmos/users/vy57456/application/gfortran/mpich-3.2.1'<br>
>'CC=gcc' 'CXX=g++' 'FC=gfortran' 'F77=gfortran' '--cache-file=/dev/null'<br>
>'--srcdir=.' 'CFLAGS= -O2' 'LDFLAGS=' 'LIBS=-lpthread ' 'CPPFLAGS=<br>
>-I/home/vy57456/zzbatmos_user/application/gfortran/source_code/mpich-3.2.1/src/mpl/include<br>
>-I/home/vy57456/zzbatmos_user/application/gfortran/source_code/mpich-3.2.1/src/mpl/include<br>
>-I/home/vy57456/zzbatmos_user/application/gfortran/source_code/mpich-3.2.1/src/openpa/src<br>
>-I/home/vy57456/zzbatmos_user/application/gfortran/source_code/mpich-3.2.1/src/openpa/src<br>
>-D_REENTRANT<br>
>-I/home/vy57456/zzbatmos_user/application/gfortran/source_code/mpich-3.2.1/src/mpi/romio/include'<br>
>'MPLLIBNAME=mpl'<br>
>    Process Manager:                         pmi<br>
>    Launchers available:                     ssh rsh fork slurm ll lsf sge<br>
>manual persist<br>
>    Topology libraries available:            hwloc<br>
>    Resource management kernels available:   user slurm ll lsf sge pbs<br>
>cobalt<br>
>    Checkpointing libraries available:<br>
>    Demux engines available:                 poll select<br>
><br>
><br>
>[vy57456@maya-usr1 examples]$./cpi<br>
>Process 0 of 1 is on maya-usr1<br>
>pi is approximately 3.1415926544231341, Error is 0.0000000008333410<br>
>wall clock time = 0.000066<br>
><br>
><br>
>[vy57456@maya-usr1 examples]$mpirun ./cpi<br>
>Process 0 of 1 is on maya-usr1<br>
>pi is approximately 3.1415926544231341, Error is 0.0000000008333410<br>
>wall clock time = 0.000095<br>
><br>
>[vy57456@maya-usr1 examples]$mpirun -np 1 ./cpi<br>
>Process 0 of 1 is on maya-usr1<br>
>pi is approximately 3.1415926544231341, Error is 0.0000000008333410<br>
>wall clock time = 0.000093<br>
><br>
>There is no error.<br>
><br>
>Zhifeng<br>
><br>
><br>
>On Mon, Nov 19, 2018 at 10:33 AM Zhou, Hui <<a href="mailto:zhouh@anl.gov" target="_blank">zhouh@anl.gov</a>> wrote:<br>
><br>
>> On Mon, Nov 19, 2018 at 10:14:54AM -0500, Zhifeng Yang wrote:<br>
>> >Thank you for helping me on this error. Actually, real.exe is a portion of<br>
>> >a very large weather model. It is very difficult to extract it or<br>
>> duplicate<br>
>> >the error in a simple fortran code, since I am not sure where the problem<br>
>> >is. From your discussion, I barely can understand them, in fact. Even I do<br>
>> >not know what is "_get_addr". Is it related to MPI?<br>
>><br>
>> It is difficult to pin-point the problem without reproducing it.<br>
>><br>
>> Anyway, let's start with mpirun. What is your output if you try:<br>
>><br>
>>     mpirun --version<br>
>><br>
>> Next, what is your mpich version? If you built mpich, locate the `cpi`<br>
>> program in the examples folder and try `./cpi` and `mpirun ./cpi`. Do<br>
>> you have error?<br>
>><br>
>> --<br>
>> Hui Zhou<br>
>><br>
</blockquote></div>