pytorch 在测试阶段,进行前向推断时,显存累加溢出问题

1、问题描述:

  pytorch中,在测试阶段进行前向推断运行时,随着for循环次数的增加,显存不断累加变大,最终导致显存溢出。

2、解决方法:

使用如下代码处理输入数据:

  假设X为模型的输入

  X = X.cuda()

  input_blobs = Variable(X, volatile=True)

  output = model(input_blobs)

  注意: 一定要设置 volatile=True 该参数,否则在for循环过程中,显存会不断累加。