当前位置:   article > 正文

LLM-模型大小:GPU显卡内存大小、模型大小、精度、batch_size关系_llama batch size 多大合适

llama batch size 多大合适

 对于LLaMa-6b模型来说

1、训练时模型本身参数、梯度值、优化器参数值需要的内存大小为:

2、 每个样本需要的内存大小():

3、基于第1/2条,对于A100显卡(80GB RAM)来说,batch_size最大可以设置为50

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号