<div dir="ltr">Dear Wien2k community,<br><div><br></div><div>I am trying to perform calculation on a system of ~100 in-equivalent atoms using mpi+k point parallelization on a cluster. Everything goes fine when the program was run on a single node. However, if I perform the calculation across different nodes, the follow error occurs. How to solve this problem? I am a newbie to mpi programming, any help would be appreciated. Thanks.</div><div><br></div><div>The error message (MVAPICH2 2.0a):</div><div>---------------------------------------------------------------------------------------------------</div><div><div>Warning: no access to tty (Bad file descriptor).</div><div>Thus no job control in this shell.</div><div>z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1</div><div>-13 z1-13 z1-13 z1-13 z1-13 z1-13</div><div>number of processors: 32</div><div> LAPW0 END</div><div>[z1-2:mpirun_rsh][process_mpispawn_connection] mpispawn_0 from node z1-13 aborted: Error while reading a PMI socket (4)</div><div>[z1-13:mpispawn_0][child_handler] MPI process (rank: 11, pid: 8546) terminated with signal 9 -> abort job</div><div>[z1-13:mpispawn_0][readline] Unexpected End-Of-File on file descriptor 8. MPI process died?</div><div>[z1-13:mpispawn_0][mtpmi_processops] Error while reading PMI socket. MPI process died?</div><div>[z1-2:mpispawn_0][readline] Unexpected End-Of-File on file descriptor 12. MPI process died?</div><div>[z1-2:mpispawn_0][mtpmi_processops] Error while reading PMI socket. MPI process died?</div><div>[z1-2:mpispawn_0][child_handler] MPI process (rank: 0, pid: 35454) terminated with signal 9 -> abort job</div><div>[z1-2:mpirun_rsh][process_mpispawn_connection] mpispawn_0 from node z1-2 aborted: MPI process error (1)</div><div>[cli_15]: aborting job:</div><div>application called MPI_Abort(MPI_COMM_WORLD, 0) - process 15</div><div><br></div><div>>   stop error</div></div><div>------------------------------------------------------------------------------------------------------</div><div><br></div><div>The .machines file:</div><div><div>#</div><div>1:z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2</div><div>1:z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13</div><div>granularity:1</div><div>extrafine:1</div></div><div>--------------------------------------------------------------------------------------------------------</div><div>The parallel_options:</div><div><div><br></div><div>setenv TASKSET "no"</div><div>setenv USE_REMOTE 0</div><div>setenv MPI_REMOTE 1</div><div>setenv WIEN_GRANULARITY 1</div></div><div><br></div><div>--------------------------------------------------------------------------------------------------------</div><div><br></div><div>Thanks.</div><div><br></div><div>Regards,</div><div>Fermin</div></div>