<div dir="ltr"><div><div>Hi, all<br><br></div>I'm using SLEPc as an eigensolver, which implemented MPICH for multiprocess usage. <br><br></div>I compile SLEPc code into a .so library B.<br><div><div><br><div>My executable program A calls .so library B, and .so libraryB calls SLEPclibrary.<br>
</div>I used to put MPI_Init() only in A. But it will got stuck. Then I try to put it in A,B( and C,SLEPc init will call this function).<br><br>INTERNAL ERROR: Invalid error class (59) encountered while returning from<br>
MPI_Init.  Please file a bug report.<br>Fatal error in MPI_Init: Unknown error.  Please file a bug report., error stack:<br>(unknown)(): unable to bind socket to port<br>INTERNAL ERROR: Invalid error class (59) encountered while returning from<br>
MPI_Init.  Please file a bug report.<br>Fatal error in MPI_Init: Unknown error.  Please file a bug report., error stack:<br>(unknown)(): unable to bind socket to port<br>[cli_1]: aborting job:<br>Fatal error in MPI_Init: Unknown error.  Please file a bug report., error stack:<br>
(unknown)(): unable to bind socket to port<br>INTERNAL ERROR: Invalid error class (59) encountered while returning from<br>MPI_Init.  Please file a bug report.<br>INTERNAL ERROR: Invalid error class (59) encountered while returning from<br>
MPI_Init.  Please file a bug report.<br>Fatal error in MPI_Init: Unknown error.  Please file a bug report., error stack:<br>(unknown)(): unable to bind socket to port<br>[cli_3]: aborting job:<br>Fatal error in MPI_Init: Unknown error.  Please file a bug report., error stack:<br>
(unknown)(): unable to bind socket to port<br>[cli_0]: aborting job:<br>Fatal error in MPI_Init: Unknown error.  Please file a bug report., error stack:<br>(unknown)(): unable to bind socket to port<br>Fatal error in MPI_Init: Unknown error.  Please file a bug report., error stack:<br>
(unknown)(): unable to bind socket to port<br>[cli_2]: aborting job:<br>Fatal error in MPI_Init: Unknown error.  Please file a bug report., error stack:<br>(unknown)(): unable to bind socket to port<br><br>===================================================================================<br>
=   BAD TERMINATION OF ONE OF YOUR APPLICATION PROCESSES<br>=   EXIT CODE: 1<br>=   CLEANING UP REMAINING PROCESSES<br>=   YOU CAN IGNORE THE BELOW CLEANUP MESSAGES<br>===================================================================================<br>
root@altria-Aspire-5830TG:/home/altria/software/rememode-1.1alpha/Examples/c++# /home/altria/software/petsc-3.4.4/arch-linux2-c-debug/bin/mpiexec -np 4 ./fd_guide<br>INTERNAL ERROR: Invalid error class (59) encountered while returning from<br>
MPI_Init.  Please file a bug report.<br>INTERNAL ERROR: Invalid error class (59) encountered while returning from<br>MPI_Init.  Please file a bug report.<br>Fatal error in MPI_Init: Unknown error.  Please file a bug report., error stack:<br>
(unknown)(): unable to bind socket to port<br>[cli_1]: aborting job:<br>Fatal error in MPI_Init: Unknown error.  Please file a bug report., error stack:<br>(unknown)(): unable to bind socket to port<br>INTERNAL ERROR: Invalid error class (59) encountered while returning from<br>
MPI_Init.  Please file a bug report.<br>Fatal error in MPI_Init: Unknown error.  Please file a bug report., error stack:<br>(unknown)(): unable to bind socket to port<br>[cli_2]: aborting job:<br>Fatal error in MPI_Init: Unknown error.  Please file a bug report., error stack:<br>
(unknown)(): unable to bind socket to port<br><br>===================================================================================<br>=   BAD TERMINATION OF ONE OF YOUR APPLICATION PROCESSES<br>=   EXIT CODE: 1<br>=   CLEANING UP REMAINING PROCESSES<br>
=   YOU CAN IGNORE THE BELOW CLEANUP MESSAGES<br>===================================================================================<br><br></div><div>I think it is because I called MPI_Init for more than one times. Because if I only call it in A, and C(SLEPc call), code in A,B will be executed, but stuck at C. If I call it in A,B,C. Code in A will be executed, and stop at B.<br>
<br></div><div>I think even if I call MPI_Init for more than one times, it should return to me something like "MPI_Init has been called". Do anyone know how to fix it?Thanks.<br><br></div><div>Your sincerely,<br>
Guoxi<br></div></div></div>