在算力为王的时代,你的GPU可以顺畅的运行大模型(LLM)吗?对于这一问题,很多人都难以给出确切的回答,不知该如何计算GPU内存。因为查看GPU可以处理哪些LLM并不像查看模型大小那么容易,在推理期间(KV缓存)模型会占用大量内存,例如,llama-2-7b的序列长度为1000,需要1GB的额外内存。不仅如此,模型在训练期间,KV缓存、激活和量化都会占用大量内存。我们不禁要问,能不能提前了解上述内存的占用情况。近几日,GitHub上新出现了一个项目,可以帮你计算在训练或推理LLM的过程中需要多少GPU内存,不仅如此,借助该项目,你还能知道详细的内存分布情况、评估采用什么的量化方法、处理的最大上