<div dir="ltr">This is pretty awesome. I am assuming that this has something to do with things not fitting on the GPU memory or exceeding some texture memory limitation. Can you provide some more details?<div><br></div><div>* Which version of ParaView are you using?</div><div>* It sounds like you have multiple GPUs and multiple nodes. What is the setup? Are you running in parallel with MPI?</div><div>* If you are running parallel with MPI and you have multiple GPUs per node, did you setup the DISPLAYs to leverage the GPUs?</div><div><br></div><div>Best,</div><div>-berk</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Sep 9, 2015 at 5:00 PM, David Trudgian <span dir="ltr"><<a href="mailto:david.trudgian@utsouthwestern.edu" target="_blank">david.trudgian@utsouthwestern.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
We have been experimenting with using Paraview to display very volumes from very<br>
large TIFF stacks generated by whole-brain microscopy equipment. The test stack<br>
has dimensions of 5,368x10,695x150. Stack is assembled in ImageJ from individual<br>
TIFFs, exported as a RAW and loaded into paraview. Saved as a .vti for<br>
convenience. Can view slices fine in standalone paraview client on a 256GB machine.<br>
<br>
When we attempt volume rendering on this data across multiple nodes with MPI<br>
nothing appears in the client. Surface view works as expected. On switching to<br>
volume rendering the client's display will show nothing. There are no messages<br>
from the client or servers - no output.<br>
<br>
This is happening when running pvserver across GPU nodes with NVIDIA Tesla<br>
cards, or using CPU only with OSMESA. pvserver memory usage is well below what<br>
we have on the nodes - no memory warnings/errors.<br>
<br>
Data is about 17GB, 8 billion cells. If we downsize to ~4GB or ~9GB then we can<br>
get working volume rendering. The 17GB never works regardless of scaling<br>
nodes/mpi processes. The 4/9GB will work on 1 or 2 nodes.<br>
<br>
Am confused by the lack of rendering, as we don't have memory issues, or an<br>
other messages at all. Am wondering if there are any inherent limitation, or I'm<br>
missing something stupid.<br>
<br>
Thanks,<br>
<br>
Dave Trudgian<br>
<br>
<br>
_______________________________________________<br>
Powered by <a href="http://www.kitware.com" rel="noreferrer" target="_blank">www.kitware.com</a><br>
<br>
Visit other Kitware open-source projects at <a href="http://www.kitware.com/opensource/opensource.html" rel="noreferrer" target="_blank">http://www.kitware.com/opensource/opensource.html</a><br>
<br>
Please keep messages on-topic and check the ParaView Wiki at: <a href="http://paraview.org/Wiki/ParaView" rel="noreferrer" target="_blank">http://paraview.org/Wiki/ParaView</a><br>
<br>
Search the list archives at: <a href="http://markmail.org/search/?q=ParaView" rel="noreferrer" target="_blank">http://markmail.org/search/?q=ParaView</a><br>
<br>
Follow this link to subscribe/unsubscribe:<br>
<a href="http://public.kitware.com/mailman/listinfo/paraview" rel="noreferrer" target="_blank">http://public.kitware.com/mailman/listinfo/paraview</a><br>
</blockquote></div><br></div>