<p>Most errors are due to user mistakes in the input. You have not provided enough information for anyone to do more than make a guess.</p>
<p>My suspicion is that someone gave you the script and said &quot;use this&quot;. If you are an experienced user scripts are good. However, most experienced users know where to look to diagnose errors.</p>
<p>You probably should do the initialization by hand so you can understand the steps and work out what has gone wrong. Have you started by working through the examples in the user guide first?</p>
<p>---------------------------<br>
Professor Laurence Marks<br>
Department of Materials Science and Engineering<br>
Northwestern University<br>
<a href="http://www.numis.northwestern.edu">www.numis.northwestern.edu</a> 1-847-491-3996<br>
&quot;Research is to see what everybody else has seen, and to think what nobody else has thought&quot;<br>
Albert Szent-Gyorgi<br>
</p>
<div class="gmail_quote">On Aug 16, 2012 7:47 AM, &quot;Yunguo Li&quot; &lt;<a href="mailto:yunguo@kth.se">yunguo@kth.se</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Dear support,<br>
- I am running wien version WIEN2k_11.1 (Release 14/6/2011).<br>
- The purpose of my calculations is to calculate XAS, firstly I am running SCF, I considered ferromagnetic calculation.<br>
- I am running this case using this sbatch script:<br>
#!/bin/bash<br>
<br>
#SBATCH -A matter4<br>
#SBATCH -J tst<br>
#SBATCH -N 4<br>
#SBATCH -t 00:14:00<br>
<br>
<br>
export SCRATCH=/scratch/local<br>
export WIENROOT=/home/x_yunli/wien2k<br>
<br>
# set .machines for parallel job<br>
# lapw0 running on one node<br>
echo -n &quot;lapw0: &quot; &gt; .machines<br>
echo -n $(hostlist -e $SLURM_JOB_NODELIST | tail -1) &gt;&gt; .machines<br>
echo &quot;$i:8&quot; &gt;&gt; .machines<br>
# run one mpi job on each node (splitting k-mesh over nodes)<br>
for i in $(hostlist -e $SLURM_JOB_NODELIST)<br>
do<br>
 echo &quot;1:$i:8 &quot; &gt;&gt; .machines<br>
done<br>
echo granularity:1 &gt;&gt; .machines<br>
echo extrafine:1   &gt;&gt; .machines<br>
<br>
#start WIEN2k<br>
x_lapw -f GaNCu -up -c -p -fermi<br>
#initio<br>
init_lapw -sp -red 3 -ecut 8 -numk 144<br>
#main<br>
runsp_lapw -ec 0.0001Ry -i 40 -p -I<br>
<br>
- The program stops at this point,  This is the content of the day file:<br>
Calculating GaNCu in /home/x_yunli/WIEN2k/GaNCu<br>
on m371 with PID 18960<br>
using WIEN2k_11.1 (Release 14/6/2011) in /home/x_yunli/wien2k<br>
<br>
<br>
    start       (Thu Aug 16 13:56:39 CEST 2012) with lapw0 (40/99 to go)<br>
<br>
    cycle 1     (Thu Aug 16 13:56:39 CEST 2012)         (40/99 to go)<br>
<br>
&gt;   lapw0 -p    (13:56:39) starting parallel lapw0 at Thu Aug 16 13:56:39 CEST 2012<br>
-------- .machine0 : 8 processors<br>
mpprun INFO: Starting openmpi run on 4 nodes (32 ranks)...<br>
0.364u 0.590s 0:24.04 3.9%      0+0k 0+0io 27pf+0w<br>
&gt;   lapw1  -c -up -p    (13:57:03) starting parallel lapw1 at Thu Aug 16 13:57:03 CEST 2012<br>
-&gt;  starting parallel LAPW1 jobs at Thu Aug 16 13:57:03 CEST 2012<br>
running LAPW1 in parallel mode (using .machines)<br>
4 number_of_parallel_jobs<br>
     m371 m371 m371 m371 m371 m371 m371 m371(18) 0.010u 0.006s 0:00.02 50.0%    0+0k 0+0io 1pf+0w<br>
     m372 m372 m372 m372 m372 m372 m372 m372(18) 0.010u 0.005s 0:00.01 100.0%   0+0k 0+0io 0pf+0w<br>
     m373 m373 m373 m373 m373 m373 m373 m373(18) 0.012u 0.004s 0:00.01 100.0%   0+0k 0+0io 0pf+0w<br>
     m374 m374 m374 m374 m374 m374 m374 m374(18) 0.011u 0.006s 0:00.01 100.0%   0+0k 0+0io 0pf+0w<br>
   Summary of lapw1para:<br>
   m371  k=0     user=0  wallclock=0<br>
   m372  k=0     user=0  wallclock=0<br>
   m373  k=0     user=0  wallclock=0<br>
   m374  k=0     user=0  wallclock=0<br>
0.161u 0.239s 0:06.53 5.9%      0+0k 0+0io 11pf+0w<br>
&gt;   lapw1  -c -dn -p    (13:57:09) starting parallel lapw1 at Thu Aug 16 13:57:09 CEST 2012<br>
-&gt;  starting parallel LAPW1 jobs at Thu Aug 16 13:57:09 CEST 2012<br>
running LAPW1 in parallel mode (using .machines.help)<br>
4 number_of_parallel_jobs<br>
     m371 m371 m371 m371 m371 m371 m371 m371(18) 0.011u 0.005s 0:00.01 100.0%   0+0k 0+0io 0pf+0w<br>
     m372 m372 m372 m372 m372 m372 m372 m372(18) 0.009u 0.008s 0:00.02 0.0%     0+0k 0+0io 0pf+0w<br>
     m373 m373 m373 m373 m373 m373 m373 m373(18) 0.009u 0.006s 0:00.01 0.0%     0+0k 0+0io 0pf+0w<br>
     m374 m374 m374 m374 m374 m374 m374 m374(18) 0.008u 0.007s 0:00.01 0.0%     0+0k 0+0io 0pf+0w<br>
   Summary of lapw1para:<br>
   m371  k=0     user=0  wallclock=0<br>
   m372  k=0     user=0  wallclock=0<br>
   m373  k=0     user=0  wallclock=0<br>
   m374  k=0     user=0  wallclock=0<br>
0.138u 0.253s 0:06.39 5.9%      0+0k 0+0io 0pf+0w<br>
&gt;   lapw2 -c -up  -p    (13:57:16) running LAPW2 in parallel mode<br>
**  LAPW2 crashed!<br>
0.027u 0.039s 0:00.15 33.3%     0+0k 0+0io 0pf+0w<br>
error: command   /home/x_yunli/wien2k/lapw2cpara -up -c uplapw2.def   failed<br>
<br>
&gt;   stop error<br>
<br>
Could you please find the problem ?<br>
<br>
Best regards,<br>
Li<br>
_______________________________________________<br>
Wien mailing list<br>
<a href="mailto:Wien@zeus.theochem.tuwien.ac.at">Wien@zeus.theochem.tuwien.ac.at</a><br>
<a href="http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien" target="_blank">http://zeus.theochem.tuwien.ac.at/mailman/listinfo/wien</a><br>
</blockquote></div>