草庐IT

斯普林格

全部标签

【计算机领域EI会议!斯普林格独立出版 | 往届均已顺利完成EI和SCOPUS检索】第三届人工智能、机器人和通信国际会议(ICAIRC 2023)

 第三届人工智能、机器人和通信国际会议(ICAIRC2023)20233rd InternationalConferenceonArtificialIntelligence,Robotics,andCommunication 2023年12月22-24日  中国·厦门大会网站:https://ais.cn/u/6z22Yn(更多会议详情)截稿时间:以官网信息为准会议检索:EI、SCOPUSICAIRC2021&2022均已顺利完成EI和SCOPUS检索!*更多详细会议信息、投稿优惠、投稿事项、优先审核【click】组委会大会主席曾念寅副教授厦门大学大会主席黄风华教授大会主席EzenduAriw

OpenAI 与出版巨头施普林格达成史无前例的协议,为 ChatGPT 提供新闻数据

12月14日消息,新闻出版巨头施普林格出版集团(AxelSpringer)与ChatGPT开发机构OpenAI宣布达成一项史无前例的协议,允许ChatGPT对来自Politico和BusinessInsider等媒体的新闻文章进行总结摘要。施普林格也成为全球第一家与OpenAI合作将新闻业与人工智能技术进行更深入整合的出版机构,这是媒体为在人工智能工具中使用其内容而争取资金补偿的一个重要里程碑。IT之家注意到,这项协议的达成正值各出版社、艺术家、作家和科技专家纷纷对生成式人工智能工具的开发公司提起诉讼或考虑采取法律行动之际,原因是这些生成式人工智能工具被指控在其训练数据中使用了他们的内容或作品

颠覆Transformer霸权!CMU普林斯顿推Mamba新架构,解决致命bug推理速度暴增5倍

深度学习进入新纪元,Transformer的霸主地位,要被掀翻了?2017年6月12日横空出世,让NLP直接变天,制霸自然语言领域多年的Transformer,终于要被新的架构打破垄断了。Transformer虽强大,却有一个致命的bug:核心注意力层无法扩展到长期上下文。刚刚,CMU和普林斯顿的研究者发布了Mamba。这种SSM架构在语言建模上与Transformers不相上下,而且还能线性扩展,同时具有5倍的推理吞吐量!论文地址:https://arxiv.org/abs/2312.00752论文一作AlbertGu表示,二次注意力对于信息密集型模型是必不可少的,但现在,再也不需要了!论文

普林斯顿开源34B数学大模型:性能媲美谷歌Minerva,参数少一半!550亿token专业数据训练

数学,作为科学的基石,一直以来都是研究和创新的关键领域。最近,普林斯顿大学等七家机构联合发布了一个专门用于数学的大语言模型LLEMMA,性能媲美谷歌Minerva62B,并公开了其模型、数据集和代码,为数学研究带来了前所未有的机会和资源。论文地址:https://arxiv.org/abs/2310.10631数据集地址:https://huggingface.co/datasets/EleutherAI/proof-pile-2项目地址:https://github.com/EleutherAI/math-lmLLEMMA承袭了CodeLlama的基础,在Proof-Pile-2上进行了预训

Meta普林斯顿提出LLM上下文终极解决方案!让模型化身自主智能体,自行读取上下文节点树

到底什么才是LLM长上下文模型的终极解决方案?最近由普林斯顿大学和MetaAI的研究者提出了一种解决方案,将LLM视为一个交互式智能体,让它决定如何通过迭代提示来读取文本。论文地址:https://arxiv.org/abs/2310.05029他们设计了一种名为MemWalker的系统,可以将长上下文处理成一个摘要节点树。收到查询时,模型可以检索这个节点树来寻找相关信息,并在收集到足够信息后做出回应。在长文本问答任务中,这个方法明显优于使用长上下文窗口、递归和检索的基线方法。LeCun也在推上转发对他们的研究表示了支持。MemWalker主要由两个部分构成:首先需要构建记忆树:对长文本进行切

大模型无法替代码农!普林斯顿芝大惊人发现:GPT-4解决GitHub编程问题成功率为0

StackOverflow,已经被ChatGPT创飞了!因为码农大量涌向ChatGPT、GithubCopilot,StackOverflow今天不得已宣布裁员100多人,几乎占员工人数的1/3。所以,ChatGPT这类AI编码工具,真的要颠覆整个行业了?不过最近,普林斯顿和芝大的一项研究发现,LLM想要替代码农,其实没那么容易。论文地址:https://arxiv.org/abs/2310.06770在2294个GitHub真实问题面前,GPT-4解决随机GitHub问题的通过率,竟然是0%!而即使是最佳模型Claude2,也只能解决其中的1.96%而已。码农会因为ChatGPT而失业吗?答

将AI融入CG特效工作流;对谈Dify创始人张路宇;关于Llama 2的一切资源;普林斯顿LLM高阶课程;LLM当前的10大挑战 | ShowMeAI日报

👀日报&周刊合集|🎡生产力工具与行业应用大全|🧡点赞关注评论拜托啦!🤖将AI融入CG特效工作流,体验极致的效率提升BV1pP411r7HY这是B站UP主@特效小哥studio和@拓星研究所联合投稿的一个AI特效短篇「Flower」以及幕后制作花絮。在前2分钟的特效视频里,一片废土之上,机器人手持一朵紫色的小花,穿越漫长的激流终于来到一片花海,并最终殒身在目的地(实话说,最后一个镜头还是很震撼的)。在其后5分钟的视频内,UP主们分享了团队如何只在5天内完成本次制作,以及将哪些AI技术融入了影视制作的工作流。不同于一般的toyproject,这是真正的业内视角,探索人和AI如何更好地配合:剧本设计

推理飙升2倍!普林斯顿北大校友祭出多头「美杜莎」,33B模型与13B一样快

由于LLM架构固有的内存限制,使得生成又慢又贵。对此,很多大佬都在寻找一种挽救的方法。Karpathy曾多次提出,大模型「投机采样」对于推理时间优化是一个出色的方案。但是,尽管投机解码能够加速生成速度,但因其太过复杂,并没有被许多开发者采用。今天,来自普林斯顿、UIUC等机构的华人团队提出了全新的简单框架:Medusa(美杜莎)。没有额外的草稿模型,研究人员只是引入了几个额外的解码头,微调出「美杜莎头」,能够在单个A100-8GGPU,一天时间内完成训练。结果发现,Medusa直接让模型推理加速约2倍。Vicuna-7b与Medusa为什么LLM生成效率低?从系统角度来看,LLM生成遵循一种「

13万个注释神经元,5300万个突触,普林斯顿大学等发布首个完整「成年果蝇」大脑连接组

从秀丽隐杆线虫(302个神经元)到果蝇(约10万个神经元),截止到今天,已经有许多项目绘制了各种生物的全脑连接组图谱。而黑腹果蝇是被人类研究得最彻底的生物之一,截至2017年,已有8个诺贝尔奖颁发给使用果蝇的研究。研究者对果蝇的研究还在继续,近日,来自普林斯顿大学等机构的研究者发布了果蝇的全脑连接组,包括约130k个注释神经元和数千万个类型突触。大家多少都了解,从古老的动物开始就存在基本的神经系统,但大脑系统的出现要追溯到5亿年前。研究表明将大脑划分为不同区域有助于理解其功能。然而,多年来,关于神经元和突触层面的神经连接图一直存在争议,造成这一现象的主要原因在于人类缺乏能够重构此类连接图的技术

普林斯顿Infinigen矩阵开启!AI造物主100%创造大自然,逼真到炸裂

尼奥发现自己生活的世界并非真实存在,而是被精心设计的模拟现实。而你,有没有那么一瞬间,认为我们生活的世界,就是模拟的矩阵世界。而现在,矩阵正式开启。静心感受,这个人类生存已久的地球,大自然的一切,都是虚幻世界。北极冰川太阳升起。海底世界中的千奇百怪的鱼群、五彩斑斓的珊瑚礁。高山飞雪,老鹰在浩瀚无垠的天空中翱翔。炽热沙漠,凶险的蛇自由穿梭。河边小树,燃起熊熊烈火,烟雾缭绕。清澈见底的大海和小溪,海龟在沙滩慵懒地晒着太阳,许多蜻蜓在空中嬉戏。岩洞中光与影的变幻。哗哗坠落的雨滴、随风飘落的枫叶,时间瞬间戛然而止。你所见皆是人工智能设计的。它们的模拟是如此逼真,甚至被所有人误认为是现实本身。打开这扇矩
12