1packagemain23import"fmt"45typeVector[]float6467func(vVector)DoSome(i,nint,uVector,cchanfloat64){8varsumfloat649for;i<…
在本节中,我们将学习如何利用DataParallel使用多个GPU。在PyTorch中使用多个GPU非常容易,你可以使用下面代码将模型放在GPU上:model.gpu()然后,你可以将所有张量拷贝到GPU上:mytensor=my_tens…