在我们最近的几篇文章中,我们一直在提到围绕大型语言和生成AI模型的炒作,以及如何减少推理和训练时间。随着我们的用户开始使用这些模型并对其进行微调,他们自然希望微调和部署包含数千亿参数的模型,以提高其特定用例的性能。通常,这是一项要求非常高的任务,需要大量计算和40GB检查点的存储。这在普通计算机硬件上是不可行的。除了所需的电力和存储之外,这种性质的微调模型需要很长时间才能运行,而且本质上非常昂贵——直到现在。介绍Huggingface的PEFT库,该库支持LoRA、PrefixTuning等ParameterEfficientFine-tuning方法,无需对所有模型参数进行微调,即可使预训练