草庐IT

MosaicML

全部标签

MosaicML 推出 30B 模型 — 挑战 LLaMA、Falcon 和 GPT

MosaicML正在推出其第二个开源大型语言模型(LLM),称为MPT-30B,这是继五月份首次推出的较小的MPT-7B模型之后。为了讨论新模型及其对开发人员的意义,我采访了MosaicML联合创始人兼首席执行官NaveenRao。他之前的创业公司是Nervana,这是一家深度学习公司,于2016年被英特尔收购,所以他最近在人工智能行业并不重要。顾名思义,MPT-30B是一个300亿参数模型。该公司声称它在质量上超过了OpenAI的GPT-3,尽管其参数数量约为1/6(GPT-3有1750亿个)。“这意味着MPT-30B更容易在本地硬件上运行,并且部署推理的成本要低得多,”该公司表示。Mosa

MosaicML 推出 30B 模型 — 挑战 LLaMA、Falcon 和 GPT

MosaicML正在推出其第二个开源大型语言模型(LLM),称为MPT-30B,这是继五月份首次推出的较小的MPT-7B模型之后。为了讨论新模型及其对开发人员的意义,我采访了MosaicML联合创始人兼首席执行官NaveenRao。他之前的创业公司是Nervana,这是一家深度学习公司,于2016年被英特尔收购,所以他最近在人工智能行业并不重要。顾名思义,MPT-30B是一个300亿参数模型。该公司声称它在质量上超过了OpenAI的GPT-3,尽管其参数数量约为1/6(GPT-3有1750亿个)。“这意味着MPT-30B更容易在本地硬件上运行,并且部署推理的成本要低得多,”该公司表示。Mosa