草庐IT

Meta-Transformer

全部标签

遭Llama 2诋毁,LSTM之父暴怒!Meta盗用32年前idea训模型,喊话让LeCun负责

LSTM之父暴脾气又来了!这...究竟是怎么回事?今天,JürgenSchmidhuber在社交媒体上表示,Meta用了自己在1991年的想法训练Llama2。用了我的idea不说,Llama2还暗示我参与了有害活动,并且没有对社会做出积极贡献。甚至,老爷子直接在线点名,让Meta和Llama负责人LeCun出面解决此事。图片附上的配图中,一位加州大学戴维斯分校的博士在与Llama2对话中,发现对Schmidhuber介绍非常地冒犯。底下还有网友煽风点火,这看起来像是YannLeCun自己加进去的答案。图片一向就爱热闹的马库斯也被炸出来了:「可以说是LLM诽谤的最典型案例了。Schmidhub

Attention机制竟有bug,Softmax是罪魁祸首,影响所有Transformer

「我发现注意力公式里有个bug,八年了都没有人发现。所有Transformer模型包括GPT、LLaMA都受到了影响。」昨天,一位名叫EvanMiller的统计工程师的话在AI领域掀起了轩然大波。我们知道,机器学习中注意力公式是这样的:图片自2017年Transformer问世,这个公式已被广泛使用,但现在,EvanMiller发现这个公式是错的,有bug!EvanMiller的这篇博客解释了当前流行的AI模型如何在关键位置出现错误,并使得所有Transformer模型都难以压缩和部署。总结而言,EvanMiller引入了一种新函数QuietAttention,也叫Softmax_1,这是对传

ChatGPT危了!「注意力公式」8年神秘bug首曝光,Transformer模型恐大受冲击

「注意力公式」中存在了8年的bug,竟被国外小哥发现了?瞬间,这个话题就在网上炸开了锅。现在基于Transformer打造的主流模型,GPT-4、Lalma2、PaLM等都将受到影响。Eppo初创公司的工程师EvanMiller今天在博客中介绍了这一重大发现,并表示:研究人员上个月分离了bug——但是他们误失了一个简单的解决方案,「为什么LLM设计人员应该停止使用Softmax?」图片那么,究竟是什么bug,能够暗藏8年?作者在博文中,引用了维特根斯坦别有蕴意的一句话,「对于无法言说之事,必须保持沉默」。图片注意力是OffByOne这篇博文标题为「注意力是OffByOne」。图片你能看到这个公

人人玩转Llama 2!Meta正式官宣免费用,微调羊驼指南大全集

今天,Llama2宣布正式开源,免费用于研究和商用。下载地址:https://ai.meta.com/resources/models-and-libraries/llama-downloads/?utm_source=twitter&utm_medium=organic_social&utm_campaign=llama2&utm_cnotallow=card发布不到一周的Llama2,已经在研究社区爆火,一系列性能评测、在线试用的demo纷纷出炉。就连OpenAI联合创始人Karpathy用C语言实现了对Llama2婴儿模型的推理。既然Llama2现已人人可用,那么如何去微调实现更多可能的

【时间序列】Transformer for TimeSeries时序预测算法详解

一、介绍1.1背景2017年,Google的一篇 AttentionIsAllYouNeed 为我们带来了Transformer,其在NLP领域的重大成功展示了它对时序数据的强大建模能力,自然有人想要把Transformer应用到时序数据预测上。在Transformer的基础上构建时序预测能力可以突破以往的诸多限制,最明显的一个增益点是,TransformerforTS可以基于Multi-headAttention结构具备同时建模长期和短期时序特征的能力。本文将要介绍的一个充分利用了Transformer的优势,并在Transformer的基础上改进了Attention的计算方式以适应时序数据

html5中的meta标签用法详解

meta标签用法详解来源:视频砖家html5中的meta标签主要用于描述网页的元数据,它可以用于描述网页的标题、关键词、描述、作者、版权等信息,还可以用于设置网页的字符集、设置网页的刷新时间、设置网页的跳转页面等。:用于定义网页的字符集为UTF-8,UTF-8-Unicode字符编码ISO-8859-1-拉丁字母表的字符编码。:用于设置网页的视口(viewport),视频砖家提示,移动设备上的viewport就是设备的屏幕上能用来显示我们的网页的那一块区域。:用于指定网页的描述,通常在搜索结果中显示。:用于指定网页的关键字,有助于搜索引擎更好地索引和识别网页内容。:用于指定网页的作者。:用于控

【Transformer开山之作】Attention is all you need原文解读

AttentionIsAllYouNeedTransformer原文解读与细节复现导读在Transformer出现以前,深度学习的基础主流模型可分为卷积神经网络CNN、循环神经网络RNN、图对抗神经网络GAN。而Transformer的横空出世,吸引了越来越多的研究者的关注:Transformer不仅在NLP领域取得了耀眼的成绩,近年来甚至一度屠榜CV领域的各大比赛,热度超前。所以,基于之前对Transformer的研究与理解,更基于对新技术的好奇与渴求,接下来的几篇文章我会从最经典的Transformer结构出发,沿着NLP和CV两大主线,为大家讲解几篇影响力巨大的paper。前言Trans

【论文笔记】Skill-based Meta Reinforcement Learning

【论文笔记】Skill-basedMetaReinforcementLearning文章目录【论文笔记】Skill-basedMetaReinforcementLearningAbstract1INTRODUCTION2RELATEDWORKMeta-ReinforcementLearningOfflinedatasetsOfflineMeta-RLSkill-basedLearning3PROBLEMFORMULATIONANDPRELIMINARIESProblemFormulation基于技能的方法如何解决这个问题?异策略元强化学习方法如何解决这个问题?4APPROACH4.1SKILL

Transformer在3D点云中的应用综述(检测/跟踪/分割/降噪/补全)

1摘要Transformer一直是自然语言处理(NLP)和计算机视觉(CV)的核心。NLP和CV的巨大成功激发了研究者对Transformer在点云处理中的使用的探索。但是,Transformer如何应对点云的不规则性和无序性?Transformer对不同的3D表示(例如点云或体素)的适用性如何?Transformer对各种3D处理任务的能力如何?到目前为止,还没有对这些问题的研究进行系统的调查。论文全面概述了用于3D点云分析的Transformer算法。首先介绍Transformer结构的理论并回顾其在2D/3D领域的应用。然后,提出了三种不同的分类法(即基于实现、数据表示和任务),可以从多

Transformer在3D点云中的应用综述(检测/跟踪/分割/降噪/补全)

1摘要Transformer一直是自然语言处理(NLP)和计算机视觉(CV)的核心。NLP和CV的巨大成功激发了研究者对Transformer在点云处理中的使用的探索。但是,Transformer如何应对点云的不规则性和无序性?Transformer对不同的3D表示(例如点云或体素)的适用性如何?Transformer对各种3D处理任务的能力如何?到目前为止,还没有对这些问题的研究进行系统的调查。论文全面概述了用于3D点云分析的Transformer算法。首先介绍Transformer结构的理论并回顾其在2D/3D领域的应用。然后,提出了三种不同的分类法(即基于实现、数据表示和任务),可以从多