<p dir="ltr">You appear to be missing the line</p>
<p dir="ltr">setenv WIEN_MPIRUN=...</p>
<p dir="ltr">This is setup when you run siteconfig, and provides the information on how mpi is run on your system.</p>
<p dir="ltr">N.B., did you setup and compile the mpi code?</p>
<p dir="ltr">___________________________<br>
Professor Laurence Marks<br>
Department of Materials Science and Engineering<br>
Northwestern University<br>
<a href="http://www.numis.northwestern.edu">www.numis.northwestern.edu</a><br>
<a href="http://MURI4D.numis.northwestern.edu">MURI4D.numis.northwestern.edu</a><br>
Co-Editor, Acta Cryst A<br>
"Research is to see what everybody else has seen, and to think what nobody else has thought"<br>
Albert Szent-Gyorgi</p>
<div class="gmail_quote">On Apr 28, 2015 4:22 AM, "lung Fermin" <<a href="mailto:ferminlung@gmail.com">ferminlung@gmail.com</a>> wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">



<div>
<div dir="ltr">Dear Wien2k community,<br>
<div><br>
</div>
<div>I am trying to perform calculation on a system of ~100 in-equivalent atoms using mpi+k point parallelization on a cluster. Everything goes fine when the program was run on a single node. However, if I perform the calculation across different nodes, the
 follow error occurs. How to solve this problem? I am a newbie to mpi programming, any help would be appreciated. Thanks.</div>
<div><br>
</div>
<div>The error message (MVAPICH2 2.0a):</div>
<div>---------------------------------------------------------------------------------------------------</div>
<div>
<div>Warning: no access to tty (Bad file descriptor).</div>
<div>Thus no job control in this shell.</div>
<div>z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1</div>
<div>-13 z1-13 z1-13 z1-13 z1-13 z1-13</div>
<div>number of processors: 32</div>
<div> LAPW0 END</div>
<div>[z1-2:mpirun_rsh][process_mpispawn_connection] mpispawn_0 from node z1-13 aborted: Error while reading a PMI socket (4)</div>
<div>[z1-13:mpispawn_0][child_handler] MPI process (rank: 11, pid: 8546) terminated with signal 9 -> abort job</div>
<div>[z1-13:mpispawn_0][readline] Unexpected End-Of-File on file descriptor 8. MPI process died?</div>
<div>[z1-13:mpispawn_0][mtpmi_processops] Error while reading PMI socket. MPI process died?</div>
<div>[z1-2:mpispawn_0][readline] Unexpected End-Of-File on file descriptor 12. MPI process died?</div>
<div>[z1-2:mpispawn_0][mtpmi_processops] Error while reading PMI socket. MPI process died?</div>
<div>[z1-2:mpispawn_0][child_handler] MPI process (rank: 0, pid: 35454) terminated with signal 9 -> abort job</div>
<div>[z1-2:mpirun_rsh][process_mpispawn_connection] mpispawn_0 from node z1-2 aborted: MPI process error (1)</div>
<div>[cli_15]: aborting job:</div>
<div>application called MPI_Abort(MPI_COMM_WORLD, 0) - process 15</div>
<div><br>
</div>
<div>>   stop error</div>
</div>
<div>------------------------------------------------------------------------------------------------------</div>
<div><br>
</div>
<div>The .machines file:</div>
<div>
<div>#</div>
<div>1:z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2 z1-2</div>
<div>1:z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13 z1-13</div>
<div>granularity:1</div>
<div>extrafine:1</div>
</div>
<div>--------------------------------------------------------------------------------------------------------</div>
<div>The parallel_options:</div>
<div>
<div><br>
</div>
<div>setenv TASKSET "no"</div>
<div>setenv USE_REMOTE 0</div>
<div>setenv MPI_REMOTE 1</div>
<div>setenv WIEN_GRANULARITY 1</div>
</div>
<div><br>
</div>
<div>--------------------------------------------------------------------------------------------------------</div>
<div><br>
</div>
<div>Thanks.</div>
<div><br>
</div>
<div>Regards,</div>
<div>Fermin</div>
</div>
</div>

</blockquote></div>