<div dir="ltr">Dear Prof. Blaha, Marks, Rubel and Abo,<div><br></div><div>   First of all, I would like to thank your attention concerning my mpiexec_mpt problem. It is now solved. The hint was in the documentation sent by Prof. Marks and Abo ( <a href="http://techpubs.sgi.com/library/tpl/cgi-bin/getdoc.cgi?coll=linux&amp;db=man&amp;fname=/usr/share/catman/man1/mpiexec_mpt.1.html" target="_blank">http://techpubs.sgi.com/library/tpl/cgi-bin/getdoc.cgi?coll=linux&amp;db=man&amp;fname=/usr/share/catman/man1/mpiexec_mpt.1.html</a> ). At its end it is written : </div>
<div><br></div><div><div>&quot; The mpiexec_mpt  command reads the node list from the $PBS_NODEFILE file. &quot;</div></div><div><br><div class="gmail_extra">what means that the -machinefile option must be omitted in the &quot; setenv WIEN_MPIRUN &quot; line of parallel_options file when one is using mpiexec_mpt.</div>
<div class="gmail_extra"><br></div><div class="gmail_extra">   I would like to ask another question: is it dangerous to use &quot; extrafine &quot; and &quot; -it &quot; simultaneously in a parallel calculation ?</div><div class="gmail_extra">
   I have some indications (using the SGI cluster and a DELL workstation) that:</div><div class="gmail_extra"><br></div><div class="gmail_extra">1) &quot; extrafine &quot; WITHOUT &quot; -it &quot; is fine</div><div class="gmail_extra">
2) &quot; -it &quot; WITHOUT &quot; extrafine &quot; is fine</div><div class="gmail_extra">3) &quot; extrafine &quot; WITH &quot; -it &quot; does not succeed, giving rise to the following error message in the SGI cluster (scratch is the working directory) :</div>
<div class="gmail_extra"><br></div><div class="gmail_extra"><div class="gmail_extra">forrtl: severe (41): insufficient virtual memory</div><div class="gmail_extra">Image              PC                Routine            Line        Source             </div>
<div class="gmail_extra">lapw1c             000000000052E04A  Unknown               Unknown  Unknown</div><div class="gmail_extra">lapw1c             000000000052CB46  Unknown               Unknown  Unknown</div><div class="gmail_extra">
lapw1c             00000000004D6B50  Unknown               Unknown  Unknown</div><div class="gmail_extra">lapw1c             00000000004895CF  Unknown               Unknown  Unknown</div><div class="gmail_extra">lapw1c             00000000004BA106  Unknown               Unknown  Unknown</div>
<div class="gmail_extra">lapw1c             0000000000478D9A  jacdavblock_              240  jacdavblock_tmp_.F</div><div class="gmail_extra">lapw1c             0000000000470690  seclr5_                   277  seclr5_tmp_.F</div>
<div class="gmail_extra">lapw1c             000000000040FA16  calkpt_                   241  calkpt_tmp_.F</div><div class="gmail_extra">lapw1c             0000000000449EB3  MAIN__                     61  lapw1_tmp_.F</div>
<div class="gmail_extra">lapw1c             000000000040515C  Unknown               Unknown  Unknown</div><div class="gmail_extra">libc.so.6          00002ABBA7930BC6  Unknown               Unknown  Unknown</div><div class="gmail_extra">
lapw1c             0000000000405059  Unknown               Unknown  Unknown</div><div class="gmail_extra"><br></div><div class="gmail_extra"><br></div><div class="gmail_extra" style>only for some processors, not all of them. This is a little bit strange, remembering that all the nodes are equal in the cluster. May this have relation with the (number of k-points)/(number of processors) ratio ?</div>
<div class="gmail_extra" style><br></div><div class="gmail_extra" style>   Well, many thanks again.</div><div class="gmail_extra" style>   All the best,</div><div class="gmail_extra" style>                    Luis</div><div class="gmail_extra" style>
<br></div><div class="gmail_extra"><br></div><div class="gmail_extra"><br></div><div class="gmail_extra"><br></div><div class="gmail_extra"><br></div><br><div class="gmail_quote">2013/7/11 Laurence Marks <span dir="ltr">&lt;<a href="mailto:L-marks@northwestern.edu" target="_blank">L-marks@northwestern.edu</a>&gt;</span><br>
<blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">I 99,9% agree with what Peter just said.<br>
<br>
According to the man page at<br>
<a href="http://techpubs.sgi.com/library/tpl/cgi-bin/getdoc.cgi?coll=linux&amp;db=man&amp;fname=/usr/share/catman/man1/mpiexec_mpt.1.html" target="_blank">http://techpubs.sgi.com/library/tpl/cgi-bin/getdoc.cgi?coll=linux&amp;db=man&amp;fname=/usr/share/catman/man1/mpiexec_mpt.1.html</a><br>

(which may be wrong for you), the same global options as mpirun<br>
accepts will work. Therefore just use &quot; mpirun --help&quot; and look for<br>
whatever is the option for file mapping procs to machines on your<br>
system, then change WIEN_MPIRUN in parallel_options.<br>
<br>
A word of other advice concerning talking to the sys_admins at your<br>
center. I have found without exception that they expect people to<br>
launch just one mpi task which runs for hours to days. All the<br>
schedulers that I have come across expect this. Wien2k is much smarter<br>
than this, and can exploit the cores much better. Therefore you will<br>
have to &quot;filter&quot; (i.e. in some cases ignore) what you are told if it<br>
is not appropriate. Sometimes this takes more time than anything else!<br>
<div class="im"><br>
On Thu, Jul 11, 2013 at 9:41 AM, Peter Blaha<br>
&lt;<a href="mailto:pblaha@theochem.tuwien.ac.at">pblaha@theochem.tuwien.ac.at</a>&gt; wrote:<br>
&gt; But I&#39;m afraid, only YOU have access to the specific doku of your system.<br>
&gt;<br>
&gt; As was mentioned before, I would   ALWAYS recommend to use   mpirun,<br>
&gt; which should be a &quot;standardized wrapper&quot; to the specific mpi-scheduler.<br>
&gt;<br>
&gt; Only, when you mpi does not have mpirun, use the more specific calls.<br>
&gt;<br>
&gt; For your case it seems &quot;trivial:<br>
&gt;<br>
&gt;  &gt;         *mpiexec_mpt error: -machinefile option not supported.*<br>
&gt;<br>
&gt; the option   -machinefile     does not exist for mpiexec_mpt<br>
&gt;<br>
&gt; sometimes it is called    -hostfile<br>
&gt;<br>
&gt; but you should easily find it out by<br>
&gt;<br>
&gt; man mpiexec_mpt<br>
&gt;<br>
&gt; or    mpiexec_mpt --help<br>
&gt;<br>
&gt;<br>
&gt; On 07/11/2013 04:30 PM, Luis Ogando wrote:<br>
</div><div class="im">&gt;&gt; Dear Oleg Rubel,<br>
&gt;&gt;<br>
&gt;&gt;     I agree with you ! This is the reason I asked for hints from someone<br>
&gt;&gt; that uses WIEN with mpiexec_mpt (to save efforts and time).<br>
&gt;&gt;     Thank you again !<br>
&gt;&gt;     All the best,<br>
&gt;&gt;                   Luis<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
</div>&gt;&gt; 2013/7/11 Oleg Rubel &lt;<a href="mailto:orubel@lakeheadu.ca">orubel@lakeheadu.ca</a> &lt;mailto:<a href="mailto:orubel@lakeheadu.ca">orubel@lakeheadu.ca</a>&gt;&gt;<br>
<div class="im">&gt;&gt;<br>
&gt;&gt;     Dear Luis,<br>
&gt;&gt;<br>
&gt;&gt;     It looks like the problem is not in Wien2k. I would recommend to<br>
&gt;&gt;     make sure that you can get a list of host names correctly before<br>
&gt;&gt;     proceeding with wien. There are slight difference between various<br>
&gt;&gt;     mpi implementation in a way of passing the host name list.<br>
&gt;&gt;<br>
&gt;&gt;     Oleg<br>
&gt;&gt;<br>
&gt;&gt;     On 2013-07-11 9:52 AM, &quot;Luis Ogando&quot; &lt;<a href="mailto:lcodacal@gmail.com">lcodacal@gmail.com</a><br>
</div><div class="im">&gt;&gt;     &lt;mailto:<a href="mailto:lcodacal@gmail.com">lcodacal@gmail.com</a>&gt;&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt;         Dear Prof. Marks and Rubel,<br>
&gt;&gt;<br>
&gt;&gt;             Many thanks for your kind responses.<br>
&gt;&gt;             I am forwarding your messages to the computation center. As<br>
&gt;&gt;         soon as I have any reply, I will contact you.<br>
&gt;&gt;<br>
&gt;&gt;             I know that they have other wrappers (Intel MPI, for<br>
&gt;&gt;         example), but they argue that mpiexec_mpt is the optimized option.<br>
&gt;&gt;             I really doubt that this option will succeed, because I am<br>
&gt;&gt;         getting the following error message in case.dayfile (bold)<br>
&gt;&gt;<br>
&gt;&gt;         ================================================================================<br>
&gt;&gt;         Calculating InPwurt15InPzb3 in<br>
&gt;&gt;         /home/ice/proj/proj546/ogando/Wien/Calculos/InP/InPwurtInPzb/15camadasWZ+3ZB/InPwurt15InPzb3<br>
&gt;&gt;         on r1i0n8 with PID 6433<br>
&gt;&gt;         using WIEN2k_12.1 (Release 22/7/2012) in<br>
&gt;&gt;         /home/ice/proj/proj546/ogando/RICARDO2/wien/src<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;              start (Wed Jul 10 13:29:42 BRT 2013) with lapw0 (150/99 to go)<br>
&gt;&gt;<br>
&gt;&gt;              cycle 1 (Wed Jul 10 13:29:42 BRT 2013) (150/99 to go)<br>
&gt;&gt;<br>
</div>&gt;&gt;          &gt;   lapw0 -grr -p(13:29:42) starting parallel lapw0 at Wed Jul<br>
<div class="im">&gt;&gt;         10 13:29:42 BRT 2013<br>
&gt;&gt;         -------- .machine0 : 12 processors<br>
</div><div class="im">&gt;&gt;         *mpiexec_mpt error: -machinefile option not supported.*<br>
</div>&gt;&gt;         0.016u 0.008s 0:00.40 2.5%0+0k 0+176io 0pf+0w<br>
<div class="im">&gt;&gt;         error: command<br>
&gt;&gt;         /home/ice/proj/proj546/ogando/RICARDO2/wien/src/lapw0para -c<br>
&gt;&gt;         lapw0.def   failed<br>
&gt;&gt;<br>
&gt;&gt;          &gt;   stop error<br>
&gt;&gt;         ================================================================================<br>
&gt;&gt;<br>
&gt;&gt;             Related to -sgi option, I am using -pbs option because PBS<br>
&gt;&gt;         is the queueing system. As I said, I works well for parallel<br>
&gt;&gt;         execution that uses just one node.<br>
&gt;&gt;             Many thanks again,<br>
&gt;&gt;                           Luis<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;         2013/7/11 Oleg Rubel &lt;<a href="mailto:orubel@lakeheadu.ca">orubel@lakeheadu.ca</a><br>
</div>&gt;&gt;         &lt;mailto:<a href="mailto:orubel@lakeheadu.ca">orubel@lakeheadu.ca</a>&gt;&gt;<br>
<div><div class="h5">&gt;&gt;<br>
&gt;&gt;             Dear Luis,<br>
&gt;&gt;<br>
&gt;&gt;             Can you run other MPI codes under SGI scheduler on your<br>
&gt;&gt;             cluster? In any case, I would suggest first to try the<br>
&gt;&gt;             simplest check<br>
&gt;&gt;<br>
&gt;&gt;             mpiexec -n $NSLOTS hostname<br>
&gt;&gt;<br>
&gt;&gt;             this is what we use for Wien2k<br>
&gt;&gt;<br>
&gt;&gt;             mpiexec -machinefile _HOSTS_ -n _NP_ _EXEC_<br>
&gt;&gt;<br>
&gt;&gt;             the next line is also useful to ensure a proper CPU load<br>
&gt;&gt;<br>
&gt;&gt;             setenv MV2_ENABLE_AFFINITY 0<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;             I hope this will help<br>
&gt;&gt;             Oleg<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;             On 13-07-11 8:32 AM, Luis Ogando wrote:<br>
&gt;&gt;<br>
&gt;&gt;                 Dear WIEN2k community,<br>
&gt;&gt;<br>
&gt;&gt;                      I am trying to use WIEN2k 12.1 in a SGI cluster.<br>
&gt;&gt;                 When I perform<br>
&gt;&gt;                 parallel calculations using  just &quot;one&quot; node, I can use<br>
&gt;&gt;                 mpirun and<br>
&gt;&gt;                 everything goes fine (many thanks to Prof. Marks and his<br>
&gt;&gt;                 SRC_mpiutil<br>
&gt;&gt;                 directory).<br>
&gt;&gt;                      On the other hand, when I want to use more than one<br>
&gt;&gt;                 node, I have to<br>
&gt;&gt;                 use mpiexec_mpt and the calculation fails. I also tried<br>
&gt;&gt;                 the mpirun for<br>
&gt;&gt;                 more than one node, but this is not the proper way in a<br>
&gt;&gt;                 SGI system and I<br>
&gt;&gt;                 did not succeed.<br>
&gt;&gt;                      Well, I would like to know if anyone has experience<br>
&gt;&gt;                 in using WIEN2k<br>
&gt;&gt;                 with mpiexec_mpt and could give me any hint.<br>
&gt;&gt;                       I can give more information. This is only an<br>
&gt;&gt;                 initial ask for help.<br>
&gt;&gt;                      All the best,<br>
&gt;&gt;                                         Luis<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
</div></div><div class="im">&gt;&gt;                 _________________________________________________<br>
&gt;&gt;                 Wien mailing list<br>
&gt;&gt;                 Wien@zeus.theochem.tuwien.ac.__at<br>
&gt;&gt;                 &lt;mailto:<a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a>&gt;<br>
</div>&gt;&gt;                 <a href="http://zeus.theochem.tuwien." target="_blank">http://zeus.theochem.tuwien.</a>__<a href="http://ac.at/mailman/listinfo/wien" target="_blank">ac.at/mailman/listinfo/wien</a> &lt;<a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien</a>&gt;<br>

&gt;&gt;                 SEARCH the MAILING-LIST at:<br>
<div class="im">&gt;&gt;                 <a href="http://www.mail-archive.com/__wien@zeus.theochem.tuwien.ac.__at/index.html" target="_blank">http://www.mail-archive.com/__wien@zeus.theochem.tuwien.ac.__at/index.html</a><br>

&gt;&gt;                 &lt;<a href="http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html" target="_blank">http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html</a>&gt;<br>
&gt;&gt;<br>
&gt;&gt;             _________________________________________________<br>
&gt;&gt;             Wien mailing list<br>
&gt;&gt;             Wien@zeus.theochem.tuwien.ac.__at<br>
&gt;&gt;             &lt;mailto:<a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a>&gt;<br>
&gt;&gt;             <a href="http://zeus.theochem.tuwien." target="_blank">http://zeus.theochem.tuwien.</a>__<a href="http://ac.at/mailman/listinfo/wien" target="_blank">ac.at/mailman/listinfo/wien</a><br>
</div><div class="im">&gt;&gt;             &lt;<a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien</a>&gt;<br>
&gt;&gt;             SEARCH the MAILING-LIST at:<br>
</div>&gt;&gt;             <a href="http://www.mail-archive.com/__wien@zeus.theochem.tuwien.ac.__at/index.html" target="_blank">http://www.mail-archive.com/__wien@zeus.theochem.tuwien.ac.__at/index.html</a><br>
<div class="im">&gt;&gt;             &lt;<a href="http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html" target="_blank">http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html</a>&gt;<br>

&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;         _______________________________________________<br>
&gt;&gt;         Wien mailing list<br>
&gt;&gt;         <a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a><br>
</div>&gt;&gt;         &lt;mailto:<a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a>&gt;<br>
<div class="im">&gt;&gt;         <a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien</a><br>
&gt;&gt;         SEARCH the MAILING-LIST at:<br>
&gt;&gt;         <a href="http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html" target="_blank">http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html</a><br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;     _______________________________________________<br>
&gt;&gt;     Wien mailing list<br>
</div>&gt;&gt;     <a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a> &lt;mailto:<a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a>&gt;<br>
<div class="im">&gt;&gt;     <a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien</a><br>
&gt;&gt;     SEARCH the MAILING-LIST at:<br>
&gt;&gt;     <a href="http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html" target="_blank">http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html</a><br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Wien mailing list<br>
&gt;&gt; <a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a><br>
&gt;&gt; <a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien</a><br>
&gt;&gt; SEARCH the MAILING-LIST at:  <a href="http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html" target="_blank">http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html</a><br>
&gt;&gt;<br>
&gt;<br>
</div><div class="im">&gt; --<br>
&gt;<br>
&gt;                                        P.Blaha<br>
&gt; --------------------------------------------------------------------------<br>
&gt; Peter BLAHA, Inst.f. Materials Chemistry, TU Vienna, A-1060 Vienna<br>
&gt; Phone: <a href="tel:%2B43-1-58801-165300" value="+43158801165300">+43-1-58801-165300</a>             FAX: <a href="tel:%2B43-1-58801-165982" value="+43158801165982">+43-1-58801-165982</a><br>
&gt; Email: <a href="mailto:blaha@theochem.tuwien.ac.at">blaha@theochem.tuwien.ac.at</a>    WWW:<br>
&gt; <a href="http://info.tuwien.ac.at/theochem/" target="_blank">http://info.tuwien.ac.at/theochem/</a><br>
&gt; --------------------------------------------------------------------------<br>
</div><div class="im">&gt; _______________________________________________<br>
&gt; Wien mailing list<br>
&gt; <a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a><br>
&gt; <a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien</a><br>
&gt; SEARCH the MAILING-LIST at:  <a href="http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html" target="_blank">http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html</a><br>
<br>
<br>
<br>
</div>--<br>
<div class="im">Professor Laurence Marks<br>
Department of Materials Science and Engineering<br>
Northwestern University<br>
<a href="http://www.numis.northwestern.edu" target="_blank">www.numis.northwestern.edu</a> <a href="tel:1-847-491-3996" value="+18474913996">1-847-491-3996</a><br>
&quot;Research is to see what everybody else has seen, and to think what<br>
nobody else has thought&quot;<br>
Albert Szent-Gyorgi<br>
</div><div class=""><div class="h5">_______________________________________________<br>
Wien mailing list<br>
<a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a><br>
<a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien</a><br>
SEARCH the MAILING-LIST at:  <a href="http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html" target="_blank">http://www.mail-archive.com/wien@zeus.theochem.tuwien.ac.at/index.html</a><br>
</div></div></blockquote></div><br></div></div></div>