TensorFlow分布式训练
1、模型并行,in-graph replication;数据并行,between-graph replication。
tf.train.Supervisor
tf.train.MonitoredTrainingSession
参考链接:
https://github.com/tensorflow/examples/blob/master/community/en/docs/deploy/distributed.md
- 上一篇 »Python-分布式进程
- 下一篇 »『TensorFlow』SSD源码学习_其八:网络训练