在大规模分布式训练过程中,如何做到计算和通信重叠?
答主
程帅
NVIDIA 中国区HPC/DL 解决方案架构师
NVIDIA 中国区HPC/DL 解决方案架构师程帅: 在GPU里面的话,因为通信的过程中和训练过程中其实底层都是CUDA...
问题来源:飞桨平台多GPU并行训练方案解析
其他回答
发布
网友答案仅供其表达个人看法,并不表明智猩猩立场。