Deepspeed作为一种显存优化技术,那么就会有一个问题:
模型训练显存都被谁占用了?
参考论文(
https://arxiv.org/pdf/1910.02054)中的描述在一个
1.5B的
GPT-2模型参数量为
3G(半精度)但是一块32G的显卡可能无法训练下来,这是因为显存都被
模型状态 以及
剩余状态(
Residual Memory Consumption)
深度学习基础理论————DeepSpeed
未经允许不得转载:小狮博客 » 深度学习基础理论————DeepSpeed
小狮博客