<p>I think these are semi-harmless, and you can add &quot;,iostat=i&quot; to the relevant lines. You may need to add the same to any write statements to unit 99 in errclr.f.</p>
<p>However, your timing seems strange, 6.5 serial versus 9.5 parallel. Is this CPU time, the WALL time may be more reliable.</p>
<p>---------------------------<br>
Professor Laurence Marks<br>
Department of Materials Science and Engineering<br>
Northwestern University<br>
<a href="http://www.numis.northwestern.edu">www.numis.northwestern.edu</a> 1-847-491-3996<br>
&quot;Research is to see what everybody else has seen, and to think what nobody else has thought&quot;<br>
Albert Szent-Gyorgi<br>
</p>
<div class="gmail_quote">On May 2, 2013 7:25 PM, &quot;Oliver Albertini&quot; &lt;<a href="mailto:ora@georgetown.edu">ora@georgetown.edu</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">




<div>
<div dir="ltr">Dear W2K, 
<div><br>
</div>
<div>On an AIX 560 server with 16 processors, I have been running scf for NiO supercell (2x2x2) in serial as well as MPI parallel (one kpoint). The serial version runs fine. When running in parallel, the following error appears:</div>

<div><br>
</div>
<div>
<div>STOP LAPW2 - FERMI; weighs written</div>
<div>&quot;errclr.f&quot;, line 64: 1525-014 The I/O operation on unit 99 cannot be completed because an errno value of 2 (A file or directory in the path name does not exist.) was received while opening the file.  The program will stop.</div>

<div><br>
</div>
<div>A similar error that appears which does not stop the program is the following:</div>
<div><br>
</div>
<div>
<div>
<div>STOP  LAPW0 END</div>
<div>&quot;inilpw.f&quot;, line 233: 1525-142 The CLOSE statement on unit 200 cannot be completed because an errno value of 2 (A file or directory in the path name does not exist.) was received while closing the file.  The program will stop.</div>

<div>STOP  LAPW1 END</div>
</div>
<div><br>
</div>
<div> </div>
<div>The second error is always there, while the former only appears with more than 2 (4,8 or 16) processors. Running the scf in serial took ~6.5 minutes, in parallel with two processors ~9.5 minutes. The problem occurs regardless of MPI/USER_REMOTE
 set to 0 or 1.</div>
<div><br>
</div>
<div><br>
</div>
</div>
<div>My compile options:</div>
<div><br>
</div>
<div>
<div>FC = xlf90</div>
<div>MPF = mpxlf90</div>
<div>CC = xlc -q64</div>
<div>FOPT =  -O5 -qarch=pwr6 -q64 -qextname=flush:w2k_catch_signal</div>
<div>FPOPT =  -O5 -qarch=pwr6 -q64 -qfree=f90 -qextname=flush:w2k_catch_signal:fftw_mpi_execute_dft</div>
<div>#DParallel = &#39;-WF,-DParallel&#39;</div>
<div>FGEN = $(PARALLEL)</div>
<div>LDFLAGS = -L /lapack-3.4.2/ -L /usr/lpp/ppe.poe/lib/ -L /usr/local/lib -I /usr/include -q64 -bnoquiet</div>
<div>R_LIBS     = -llapack -lessl -lfftw3 -lm -lfftw3_essl_64 </div>
<div>RP_LIBS = $(R_LIBS) -lpessl -lmpi -lfftw3_mpi  </div>
<div><br>
</div>
<div>WIEN_MPI_RUN=&#39;poe _EXEC_ -procs _NP_&#39;</div>
<div><br>
</div>
<div>.machines and host.list attached.</div>
<div><br>
</div>
<div>As always, any advice on this matter would be great, </div>
<div><br>
</div>
<div>Oliver Albertini</div>
</div>
</div>
</div>
</div>

</blockquote></div>