<meta http-equiv="Content-Type" content="text/html; charset=utf-8"><div dir="ltr">Hello <div> I am using a cross compiled version of MPICH3, I was trying simple containing MPI_Send and MPI_Recv, it was working but suddenly I keep receiving this error messsage: can anyone point out what is wrong and how to fix it.</div><div><br></div><div><div> $ mpiexec -v -n 4 /data/parallelCode                             </div><div>host: tab</div><div><br></div><div>==================================================================================================</div><div>mpiexec options:</div><div>----------------</div><div>  Base path: /system/xbin/</div><div>  Launcher: (null)</div><div>  Debug level: 1</div><div>  Enable X: -1</div><div><br></div><div>  Global environment:</div><div>  -------------------</div><div>    _=/system/xbin/mpiexec</div><div>    PATH=/sbin:/vendor/bin:/system/sbin:/system/bin:/system/xbin</div><div>    LOOP_MOUNTPOINT=/mnt/obb</div><div>    ANDROID_ROOT=/system</div><div>    SHELL=/system/bin/sh</div><div>    ANDROID_DATA=/data</div><div>    ANDROID_ASSETS=/system/app</div><div>    TERM=vt100</div><div>    ANDROID_PROPERTY_WORKSPACE=8,0</div><div>    ANDROID_BOOTLOGO=1</div><div>    HOSTNAME=hwt1701</div><div>    LD_LIBRARY_PATH=/vendor/lib:/system/lib</div><div>    BOOTCLASSPATH=/system/framework/core.jar:/system/framework/conscrypt.jar:/system/framework/okhttp.jar:/system/framework/core-junit.jar:/system/framework/bouncycastle.jar:/system/framework/ext.jar:/system/framework/framework.jar:/system/framework/framework2.jar:/system/framework/hwframework.jar:/system/framework/hwcustframework.jar:/system/framework/telephony-common.jar:/system/framework/voip-common.jar:/system/framework/mms-common.jar:/system/framework/android.policy.jar:/system/framework/services.jar:/system/framework/apache-xml.jar:/system/framework/webviewchromium.jar:/system/framework/hwEmui.jar:/system/framework/hwServices.jar:/system/framework/hwAndroid.policy.jar:/system/framework/hwTelephony-common.jar:/system/framework/hwpadext.jar</div><div>    EMULATED_STORAGE_SOURCE=/mnt/shell/emulated</div><div>    ANDROID_SOCKET_adbd=10</div><div>    EMULATED_STORAGE_TARGET=/storage/emulated</div><div>    ANDROID_STORAGE=/storage</div><div>    MKSH=/system/bin/sh</div><div>    EXTERNAL_STORAGE=/storage/emulated/legacy</div><div>    USBHOST_STORAGE=/storage/usbdisk</div><div>    RANDOM=11338</div><div>    ASEC_MOUNTPOINT=/mnt/asec</div><div>    SECONDARY_STORAGE=/storage/sdcard1</div><div>    USER=shell</div><div>    LEGACY_STORAGE=/storage/emulated/legacy</div><div>    HOME=/data</div><div><br></div><div>  Hydra internal environment:</div><div>  ---------------------------</div><div>    GFORTRAN_UNBUFFERED_PRECONNECTED=y</div><div><br></div><div><br></div><div>    Proxy information:</div><div>    *********************</div><div>      [1] proxy: tab (1 cores)</div><div>      Exec list: /data/mmp100 (4 processes); </div><div><br></div><div><br></div><div>==================================================================================================</div><div><br></div><div>[mpiexec@tab] Timeout set to -1 (-1 means infinite)</div><div>[mpiexec@tab] Got a control port string of tab:48661</div><div><br></div><div>Proxy launch args: /system/xbin/hydra_pmi_proxy --control-port tab:48661 --debug --rmk user --launcher ssh --demux poll --pgid 0 --retries 10 --usize -2 --proxy-id </div><div><br></div><div>Arguments being passed to proxy 0:</div><div>--version 3.2 --iface-ip-env-name MPIR_CVAR_CH3_INTERFACE_HOSTNAME --hostname tab --global-core-map 0,1,1 --pmi-id-map 0,0 --global-process-count 4 --auto-cleanup 1 --pmi-kvsname kvs_10003_0 --pmi-process-mapping (vector,(0,1,1)) --ckpoint-num -1 --global-inherited-env 26 '_=/system/xbin/mpiexec' 'PATH=/sbin:/vendor/bin:/system/sbin:/system/bin:/system/xbin' 'LOOP_MOUNTPOINT=/mnt/obb' 'ANDROID_ROOT=/system' 'SHELL=/system/bin/sh' 'ANDROID_DATA=/data' 'ANDROID_ASSETS=/system/app' 'TERM=vt100' 'ANDROID_PROPERTY_WORKSPACE=8,0' 'ANDROID_BOOTLOGO=1' 'HOSTNAME=hwt1701' 'LD_LIBRARY_PATH=/vendor/lib:/system/lib' 'BOOTCLASSPATH=/system/framework/core.jar:/system/framework/conscrypt.jar:/system/framework/okhttp.jar:/system/framework/core-junit.jar:/system/framework/bouncycastle.jar:/system/framework/ext.jar:/system/framework/framework.jar:/system/framework/framework2.jar:/system/framework/hwframework.jar:/system/framework/hwcustframework.jar:/system/framework/telephony-common.jar:/system/framework/voip-common.jar:/system/framework/mms-common.jar:/system/framework/android.policy.jar:/system/framework/services.jar:/system/framework/apache-xml.jar:/system/framework/webviewchromium.jar:/system/framework/hwEmui.jar:/system/framework/hwServices.jar:/system/framework/hwAndroid.policy.jar:/system/framework/hwTelephony-common.jar:/system/framework/hwpadext.jar' 'EMULATED_STORAGE_SOURCE=/mnt/shell/emulated' 'ANDROID_SOCKET_adbd=10' 'EMULATED_STORAGE_TARGET=/storage/emulated' 'ANDROID_STORAGE=/storage' 'MKSH=/system/bin/sh' 'EXTERNAL_STORAGE=/storage/emulated/legacy' 'USBHOST_STORAGE=/storage/usbdisk' 'RANDOM=11338' 'ASEC_MOUNTPOINT=/mnt/asec' 'SECONDARY_STORAGE=/storage/sdcard1' 'USER=shell' 'LEGACY_STORAGE=/storage/emulated/legacy' 'HOME=/data' --global-user-env 0 --global-system-env 1 'GFORTRAN_UNBUFFERED_PRECONNECTED=y' --proxy-core-count 1 --exec --exec-appnum 0 --exec-proc-count 4 --exec-local-env 0 --exec-wdir / --exec-args 1 /data/mmp100 </div><div><br></div><div>[mpiexec@tab] Launch arguments: /system/xbin/hydra_pmi_proxy --control-port tab:48661 --debug --rmk user --launcher ssh --demux poll --pgid 0 --retries 10 --usize -2 --proxy-id 0 </div><div>[proxy:0:0@tab] got pmi command (from 0): init</div><div>pmi_version=1 pmi_subversion=1 </div><div>[proxy:0:0@tab] PMI response: cmd=response_to_init pmi_version=1 pmi_subversion=1 rc=0</div><div>[proxy:0:0@tab] got pmi command (from 0): get_maxes</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=maxes kvsname_max=256 keylen_max=64 vallen_max=1024</div><div>[proxy:0:0@tab] got pmi command (from 6): init</div><div>pmi_version=1 pmi_subversion=1 </div><div>[proxy:0:0@tab] PMI response: cmd=response_to_init pmi_version=1 pmi_subversion=1 rc=0</div><div>[proxy:0:0@tab] got pmi command (from 6): get_maxes</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=maxes kvsname_max=256 keylen_max=64 vallen_max=1024</div><div>[proxy:0:0@tab] got pmi command (from 9): init</div><div>pmi_version=1 pmi_subversion=1 </div><div>[proxy:0:0@tab] PMI response: cmd=response_to_init pmi_version=1 pmi_subversion=1 rc=0</div><div>[proxy:0:0@tab] got pmi command (from 15): init</div><div>pmi_version=1 pmi_subversion=1 </div><div>[proxy:0:0@tab] PMI response: cmd=response_to_init pmi_version=1 pmi_subversion=1 rc=0</div><div>[proxy:0:0@tab] got pmi command (from 0): get_appnum</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=appnum appnum=0</div><div>[proxy:0:0@tab] got pmi command (from 9): get_maxes</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=maxes kvsname_max=256 keylen_max=64 vallen_max=1024</div><div>[proxy:0:0@tab] got pmi command (from 0): get_my_kvsname</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=my_kvsname kvsname=kvs_10003_0</div><div>[proxy:0:0@tab] got pmi command (from 15): get_maxes</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=maxes kvsname_max=256 keylen_max=64 vallen_max=1024</div><div>[proxy:0:0@tab] got pmi command (from 0): get_my_kvsname</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=my_kvsname kvsname=kvs_10003_0</div><div>[proxy:0:0@tab] got pmi command (from 9): get_appnum</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=appnum appnum=0</div><div>[proxy:0:0@tab] got pmi command (from 0): get</div><div>kvsname=kvs_10003_0 key=PMI_process_mapping </div><div>[proxy:0:0@tab] PMI response: cmd=get_result rc=0 msg=success value=(vector,(0,1,1))</div><div>[proxy:0:0@tab] got pmi command (from 15): get_appnum</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=appnum appnum=0</div><div>[proxy:0:0@tab] got pmi command (from 6): get_appnum</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=appnum appnum=0</div><div>[proxy:0:0@tab] got pmi command (from 9): get_my_kvsname</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=my_kvsname kvsname=kvs_10003_0</div><div>[proxy:0:0@tab] got pmi command (from 15): get_my_kvsname</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=my_kvsname kvsname=kvs_10003_0</div><div>[proxy:0:0@tab] got pmi command (from 6): get_my_kvsname</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=my_kvsname kvsname=kvs_10003_0</div><div>[proxy:0:0@tab] got pmi command (from 6): get_my_kvsname</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=my_kvsname kvsname=kvs_10003_0</div><div>[proxy:0:0@tab] got pmi command (from 9): get_my_kvsname</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=my_kvsname kvsname=kvs_10003_0</div><div>[proxy:0:0@tab] got pmi command (from 0): put</div><div>kvsname=kvs_10003_0 key=P0-businesscard value=port#49751$description#tab$ifname#192.168.1.4$ </div><div>[proxy:0:0@tab] cached command: P0-businesscard=port#49751$description#tab$ifname#192.168.1.4$</div><div>[proxy:0:0@tab] PMI response: cmd=put_result rc=0 msg=success</div><div>[proxy:0:0@tab] got pmi command (from 9): get</div><div>kvsname=kvs_10003_0 key=PMI_process_mapping </div><div>[proxy:0:0@tab] PMI response: cmd=get_result rc=0 msg=success value=(vector,(0,1,1))</div><div>[proxy:0:0@tab] got pmi command (from 0): barrier_in</div><div><br></div><div>[proxy:0:0@tab] got pmi command (from 6): get</div><div>kvsname=kvs_10003_0 key=PMI_process_mapping </div><div>[proxy:0:0@tab] PMI response: cmd=get_result rc=0 msg=success value=(vector,(0,1,1))</div><div>[proxy:0:0@tab] got pmi command (from 15): get_my_kvsname</div><div><br></div><div>[proxy:0:0@tab] PMI response: cmd=my_kvsname kvsname=kvs_10003_0</div><div>[proxy:0:0@tab] got pmi command (from 9): put</div><div>kvsname=kvs_10003_0 key=P2-businesscard value=port#60729$description#tab$ifname#192.168.1.4$ </div><div>[proxy:0:0@tab] cached command: P2-businesscard=port#60729$description#tab$ifname#192.168.1.4$</div><div>[proxy:0:0@tab] PMI response: cmd=put_result rc=0 msg=success</div><div>[proxy:0:0@tab] got pmi command (from 15): get</div><div>kvsname=kvs_10003_0 key=PMI_process_mapping </div><div>[proxy:0:0@tab] PMI response: cmd=get_result rc=0 msg=success value=(vector,(0,1,1))</div><div>[proxy:0:0@tab] got pmi command (from 9): barrier_in</div><div><br></div><div>[proxy:0:0@tab] got pmi command (from 6): put</div><div>kvsname=kvs_10003_0 key=P1-businesscard value=port#44344$description#tab$ifname#192.168.1.4$ </div><div>[proxy:0:0@tab] cached command: P1-businesscard=port#44344$description#tab$ifname#192.168.1.4$</div><div>[proxy:0:0@tab] PMI response: cmd=put_result rc=0 msg=success</div><div>[proxy:0:0@tab] got pmi command (from 15): put</div><div>kvsname=kvs_10003_0 key=P3-businesscard value=port#51326$description#tab$ifname#192.168.1.4$ </div><div>[proxy:0:0@tab] cached command: P3-businesscard=port#51326$description#tab$ifname#192.168.1.4$</div><div>[proxy:0:0@tab] PMI response: cmd=put_result rc=0 msg=success</div><div>[proxy:0:0@tab] got pmi command (from 6): barrier_in</div><div><br></div><div>[proxy:0:0@tab] got pmi command (from 15): barrier_in</div><div><br></div><div>[proxy:0:0@tab] flushing 4 put command(s) out</div><div>[mpiexec@tab] [pgid: 0] got PMI command: cmd=put P0-businesscard=port#49751$description#tab$ifname#192.168.1.4$ P2-businesscard=port#60729$description#tab$ifname#192.168.1.4$ P1-businesscard=port#44344$description#tab$ifname#192.168.1.4$ P3-businesscard=port#51326$description#tab$ifname#192.168.1.4$</div><div>[proxy:0:0@tab] forwarding command (cmd=put P0-businesscard=port#49751$description#tab$ifname#192.168.1.4$ P2-businesscard=port#60729$description#tab$ifname#192.168.1.4$ P1-businesscard=port#44344$description#tab$ifname#192.168.1.4$ P3-businesscard=port#51326$description#tab$ifname#192.168.1.4$) upstream</div><div>[proxy:0:0@tab] forwarding command (cmd=barrier_in) upstream</div><div>[mpiexec@tab] [pgid: 0] got PMI command: cmd=barrier_in</div><div>[mpiexec@tab] PMI response to fd 6 pid 15: cmd=keyval_cache P0-businesscard=port#49751$description#tab$ifname#192.168.1.4$ P2-businesscard=port#60729$description#tab$ifname#192.168.1.4$ P1-businesscard=port#44344$description#tab$ifname#192.168.1.4$ P3-businesscard=port#51326$description#tab$ifname#192.168.1.4$ </div><div>[mpiexec@tab] PMI response to fd 6 pid 15: cmd=barrier_out</div><div>[proxy:0:0@tab] PMI response: cmd=barrier_out</div><div>[proxy:0:0@tab] PMI response: cmd=barrier_out</div><div>[proxy:0:0@tab] PMI response: cmd=barrier_out</div><div>[proxy:0:0@tab] PMI response: cmd=barrier_out</div><div>[proxy:0:0@tab] got pmi command (from 0): get</div><div>kvsname=kvs_10003_0 key=P1-businesscard </div><div>[proxy:0:0@tab] PMI response: cmd=get_result rc=0 msg=success value=port#44344$description#tab$ifname#192.168.1.4$</div><div>Fatal error in MPI_Send: Unknown error class, error stack:</div><div>MPI_Send(174)...............................: MPI_Send(buf=0x15c56c, count=1, MPI_INT, dest=1, tag=1, MPI_COMM_WORLD) failed</div><div>MPIDI_CH3i_Progress_wait(242)...............: an error occurred while handling an event returned by MPIDU_Sock_Wait()</div><div>MPIDI_CH3I_Progress_handle_sock_event(697)..: </div><div>MPIDI_CH3_Sockconn_handle_connect_event(597): [ch3:sock] failed to connnect to remote process</div><div>MPIDU_Socki_handle_connect(808).............: connection failure (set=0,sock=1,errno=113:No route to host)</div><div>[proxy:0:0@tab] got pmi command (from 0): abort</div><div>exitcode=69331543 </div><div>[proxy:0:0@tab] we don't understand this command abort; forwarding upstream</div><div>[mpiexec@tab] [pgid: 0] got PMI command: cmd=abort exitcode=69331543</div></div><div><br></div><div><br></div></div>