On our SGI system here i've noticed the same thing.. It doesn't seem to impact paraview's performance, but no matter what's going on all the processes are pegged at 100% utilization.<br><br>It'd kinda funny in a way to see the utilization actually *drop* when they start doing real work.
<br><br><div><span class="gmail_quote">On 4/18/06, <b class="gmail_sendername">John Patchett</b> &lt;<a href="mailto:patchett@lanl.gov">patchett@lanl.gov</a>&gt; wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
It's probably MPICH, we have also witnessed the CPU spinning using<br>MVAPICH.&nbsp;&nbsp;We wrote some code that found nodes with open receives show<br>high usage.&nbsp;&nbsp;This makes sense that process 0 shows normal CPU usage<br>while the rest of the nodes in the job have open receives while waiting
<br>for process 0 to tell them to do something.&nbsp;&nbsp;I believe the behavior<br>causing the high CPU usage is called polling and you can build MVAPICH<br>(as well as MPICH??) with polling turned off.&nbsp;&nbsp;I understand this will<br>
simply increase your latency.<br><br>-John<br><br>On Apr 18, 2006, at 12:22 PM, Sean Ziegeler, Contractor wrote:<br><br>&gt;&gt; I tried to run paraview which was compiled with mpich. I noticed that<br>&gt;&gt; cpu usage on paraview data servers (pvserver) is always around 99%
<br>&gt;&gt; even though no data processing at all. Only the first pvdataserver's<br>&gt;&gt; cpu usage was reasonable(where I started the mpirun command).<br>&gt;&gt;<br>&gt;&gt; Why did that happen? Does that mean paraview is not working properly
<br>&gt;&gt; on all paraivew data servers.<br>&gt;<br>&gt; That might be an MPI issue.&nbsp;&nbsp;We use MVAPICH (a derivative of MPICH) and<br>&gt; it also seems to peg-out the processors for all but the first process.<br>&gt; This happens with any MPI run, not just Paraview.&nbsp;&nbsp;I am guessing MPI is
<br>&gt; doing some sort of spin-wait on those processes.<br>&gt;<br>&gt; Anyway, to see if it truly is MPICH, you can try running some other MPI<br>&gt; program that can idle for a certain amount of time and see if those
<br>&gt; processes behave similarly.<br>&gt;<br>&gt; -Sean<br>&gt;<br>&gt; _______________________________________________<br>&gt; ParaView mailing list<br>&gt; <a href="mailto:ParaView@paraview.org">ParaView@paraview.org
</a><br>&gt; <a href="http://www.paraview.org/mailman/listinfo/paraview">http://www.paraview.org/mailman/listinfo/paraview</a><br><br>_______________________________________________<br>ParaView mailing list<br><a href="mailto:ParaView@paraview.org">
ParaView@paraview.org</a><br><a href="http://www.paraview.org/mailman/listinfo/paraview">http://www.paraview.org/mailman/listinfo/paraview</a><br></blockquote></div><br>