<div dir="ltr">Dear RTK users,<div><br></div><div>I'm looking for a way to use exisiting ITK Images (either on GPU or in RAM) when transfering data from/to GPU. That is, not only re-using the Image object, but writing into the memory where its buffer is. </div><div><br></div><div>Why: As I'm using the Python bindings, I guess this ties in with ITK wrapping the CudaImage type. In <a href="https://github.com/SimonRit/RTK/blob/master/utilities/ITKCudaCommon/include/itkCudaImage.h#L32">https://github.com/SimonRit/RTK/blob/master/utilities/ITKCudaCommon/include/itkCudaImage.h#L32</a> I read that the memory management is done implicitly and the CudaImage can be used with CPU filters. However when using the bindings, only rtk.BackProjectionImageFilter can be used with CudaImages. The other filters complain about not being wrapped for that type. </div><div><br></div><div>That is why I want to explicitely transfer the data from/to GPU, but preferably using the exisiting Images and buffers. I can't rely on RTK managing GPU memory implicitly.</div><div><br></div><div><br></div><div>Thank you very much for your help!</div><div>Clemens</div><div><br></div><div><br></div></div>