谷歌最近发布的Gemini掀起了不小的波澜。毕竟,大语言模型领域几乎是OpenAI的GPT一家独大的局面。不过作为吃瓜群众,当然希望科技公司都卷起来,大模型都打起来!所以,作为科技巨无霸谷歌的亲儿子,Gemini自然承受了很高的期待。虽然Gemini发布之后发生了一些奇奇怪怪的事情吧,什么视频造假啦,认为自己是文心一言啦。不过问题不大,咱们不看广告看疗效。最近在CMU,研究人员进行了一组公正、深入和可重复的实验测试,重点比较了Gemini和GPT在各项任务中的优劣,另外还加入了开源的竞争对手Mixtral。论文地址:https://arxiv.org/abs/2312.11444代码地址:ht
最近,「小语言模型」忽然成为热点。本周一,刚刚完成4.15亿美元融资的法国AI初创公司Mistral,发布了Mixtral8x7B模型。这个开源模型尽管尺寸不大,小到足以在一台内存100GB以上的电脑上运行,然而在某些基准测试中却能和GPT-3.5打平,因此迅速在开发者中赢得了一片称赞。之所以叫Mixtral8x7B,是因为它结合了为处理特定任务而训练的各种较小模型,从而提高了运行效率。这种「稀疏专家混合」模型并不容易实现,据说OpenAI在今年早些时候因为无法让MoE模型正常运行,而不得不放弃了模型的开发。紧接着,就在第二天,微软又发布了全新版本的Phi-2小模型。跟Mistral的70亿参
Mistral7B比Llama2更好的开源大模型Mistral7B是一个70亿参数的语言模型,旨在获得卓越的性能和效率。Mistral7B在所有评估的基准测试中都优于最好的开放13B模型(Llama2),在推理、数学和代码生成方面也优于最好的发布34B模型(Llama1)。Mistral7B模型利用分组查询注意力(GQA)进行更快的推理,再加上滑动窗口注意力(SWA),在降低推理成本的情况下有效处理任意长度的序列。本文学习分组查询注意力(GQA)的论文:GQA:TrainingGeneralizedMulti-QueryTransformerModelsfromMulti-HeadCheckp
前言如此前这篇文章《学术论文GPT的源码解读与微调:从chatpaper、gpt_academic到七月论文审稿GPT》中的第三部分所述,对于论文的摘要/总结、对话、翻译、语法检查而言,市面上的学术论文GPT的效果虽暂未有多好,可至少还过得去,而如果涉及到论文的修订/审稿,则市面上已有的学术论文GPT的效果则大打折扣原因在哪呢?本质原因在于无论什么功能,它们基本都是基于API实现的,而关键是API毕竟不是万能的,API做翻译/总结/对话还行,但如果要对论文提出审稿意见,则API就捉襟见肘了,故为实现更好的review效果,需要使用特定的对齐数据集进行微调来获得具备优秀review能力的模型继而