<html>
  <head>
    <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <p>Hi Simon,</p>
    <p>thank you for the quick reply.  I'll try the splitting strategy.</p>
    <p>Best regards,</p>
    <p>Vincent<br>
    </p>
    <div class="moz-cite-prefix">On 15.10.19 17:53, Simon Rit wrote:<br>
    </div>
    <blockquote type="cite"
cite="mid:CAF0oig311aVwYvwGpo4eryr=7n1HVb-YagSNh53XrsqN45aHEA@mail.gmail.com">
      <meta http-equiv="content-type" content="text/html; charset=UTF-8">
      <div dir="ltr">
        <div>Hi,</div>
        <div>No. This is quite a challenge to implement this and we have
          no resources on this topic. My first attempt to do this would
          be to use <a href="http://www.astra-toolbox.com/"
            moz-do-not-send="true">ASTRA</a> from RTK. RTK only
          automagically select the "best" GPU, see <a
href="https://github.com/SimonRit/RTK/blob/master/utilities/ITKCudaCommon/src/itkCudaContextManager.cxx#L67"
            moz-do-not-send="true">here</a>.<br>
        </div>
        <div>For FDK, I think it would be easy to split the volume and
          ask each GPU to reconstruct a specific part of the volume (but
          I never did it and RTK would need to allow parameterization of
          the device which it currently doesn't).</div>
        <div>Note that we don't use the unified memory framework.<br>
        </div>
        <div>Simon</div>
      </div>
      <br>
      <div class="gmail_quote">
        <div dir="ltr" class="gmail_attr">On Tue, Oct 15, 2019 at 5:43
          PM vincent <<a href="mailto:vl@xris.eu"
            moz-do-not-send="true">vl@xris.eu</a>> wrote:<br>
        </div>
        <blockquote class="gmail_quote" style="margin:0px 0px 0px
          0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hello
          everyone,<br>
          <br>
          I was wondering if RTK automagically spread the workload over
          several <br>
          GPU's when available on a machine ?  I tried to find the
          answer by <br>
          myself, but up to now, the only information I could get were
          that:<br>
          <br>
          - cuda provides with a unified memory framework supposed to
          simplify <br>
          memory management,<br>
          <br>
          - class itkCudaUtil has members that identify all the GPU's
          present on <br>
          the computer.<br>
          <br>
          I had a look on the other itkCuda*** classes but found nothing
          that <br>
          could help me understand if multiple GPU's are managed by RTK.<br>
          <br>
          Would someone would be so kind as to help me find an answer ?<br>
          <br>
          I thank you very much in advance,<br>
          <br>
          best regards,<br>
          <br>
          Vincent<br>
          <br>
          _______________________________________________<br>
          Rtk-users mailing list<br>
          <a href="mailto:Rtk-users@public.kitware.com" target="_blank"
            moz-do-not-send="true">Rtk-users@public.kitware.com</a><br>
          <a
            href="https://public.kitware.com/mailman/listinfo/rtk-users"
            rel="noreferrer" target="_blank" moz-do-not-send="true">https://public.kitware.com/mailman/listinfo/rtk-users</a><br>
          <br>
        </blockquote>
      </div>
    </blockquote>
  </body>
</html>