ChatGPT的持续爆火,早已让各大科技公司坐不住了。就在刚刚过去的一周,Meta「开源」了一个新的大模型系列——LLaMA(LargeLanguageModelMetaAI),参数量从70亿到650亿不等。因为LLaMA比之前发布的很多大模型参数更少,但性能更好,所以一经发布让很多研究者兴奋不已。例如,130亿参数的LLaMA模型「在大多数基准上」可以胜过参数量达1750亿的GPT-3,而且可以在单块V100GPU上运行;而最大的650亿参数的LLaMA模型可以媲美谷歌的Chinchilla-70B和PaLM-540B。参数量的减少对于普通研究者和商业机构来说都是好事,但LLaMA