tensorflow模型在实际上线进行预测的时候,使用CPU工作

最近已经训练好了一版基于DeepLearning的文本分类模型,TextCNN原理。在实际的预测中,如果默认模型会优先选择GPU那么每一次实例调用,都会加载GPU信息,这会造成很大的性能降低。

那么,在使用的过程中我们无关乎使用GPU还是CPU,使用CPU反而是很快的,所以在有GPU的服务器部署模型,代码之前加入os.environ["CUDA_VISIBLE_DEVICES"]=-1,这样事情就好解决了。