草庐IT

Transformer-M

全部标签

PbRL Preference Transformer

论文题目:PreferenceTransformer:ModelingHumanPreferencesusingTransformersforRL,ICLR2023,5668,poster。pdf:https://arxiv.org/pdf/2303.00957.pdfhtml:https://ar5iv.labs.arxiv.org/html/2303.00957openreview:https://openreview.net/forum?id=Peot1SFDX0项目网站:https://sites.google.com/view/preference-transformerGitHub

老黄最新专访:芯片短缺难以结束,下个Transformer已经出现

英伟达的GPU正在吞噬这个世界。科技公司对英伟达的超级计算GPU有着近乎无尽的需求。不再是那个只为游戏显卡提供图形渲染服务的英伟达,现在的英伟达利用他的GPU开创了一个新时代:人类能够与计算机对话,计算机能够回应人类。而最终,计算机甚至可能超越人类。WIED最近对黄仁勋进行了一次专访,在访谈过程中,老黄用自己的幽默和智慧回答了几乎一切关于自己和英伟达过去和未来的问题。61岁的老黄穿着他标志性的皮夹克和极简主义黑色运动鞋出现。他说,他讨厌星期一的早晨,因为他周日也要工作一整天,这让他在一周的开始就已经感到很疲惫了。2012年,一小群研究人员推出了使用GPU而非CPU来运行代码的开创性图像识别系统

RNN效率媲美Transformer,谷歌新架构两连发:同等规模强于Mamba

这一次,谷歌DeepMind在基础模型方面又有了新动作。我们知道,循环神经网络(RNN)在深度学习和自然语言处理研究的早期发挥了核心作用,并在许多应用中取得了实功,包括谷歌第一个端到端机器翻译系统。不过近年来,深度学习和NLP都以Transformer架构为主,该架构融合了多层感知器(MLP)和多头注意力(MHA)。Transformer已经在实践中实现了比RNN更好的性能,并且在利用现代硬件方面也非常高效。基于Transformer的大语言模型在从网络收集的海量数据集上进行训练,取得了显著的成功。纵然取得了很大的成功,但Transformer架构仍有不足之处,比如由于全局注意力的二次复杂性,

DeepMind携Mamba华人作者推Transformer革命之作!性能暴涨媲美Llama 2,推理能效大幅碾压

Transformer又又又被挑战了!这次的挑战者来自大名鼎鼎的谷歌DeepMind,并且一口气推出了两种新架构,——Hawk和Griffin。论文地址:https://arxiv.org/abs/2402.19427这种将门控线性RNN与局部注意力混合在一起的模型新架构的表现相当亮眼。首先,同为线性RNN架构的Griffin,凭借着1/2的训练数据,在所有评测中全面优于之前大火的Mamba。更重要的是,Griffin将模型成功扩展到了14B,做到了Mamba想做却没能做的事。其次,面对基于Transformer架构的模型,Griffin则凭借着1/6的训练数据,打平甚至超越了同等参数量的Ll

【论文笔记】Mamba:挑战Transformer地位的新架构

MambaMamba:Linear-TimeSequenceModelingwithSelectiveStateSpacesMambaMamba摘要背景存在的问题本文的做法实验结果文章内容Transformer的缺点Structuredstatespacesequencemodels(SSMs)介绍本文的工作模型介绍StateSpaceModelsSelectiveStateSpaceModels本文的灵感来源ImprovingSSMswithSelectionEfficientImplementationofSelectiveSSMsASimplifiedSSMArchitectureSel

易懂AI自然语言处理算法:词嵌入模型(Word Embedding Models)Transformer模型(如BERT, GPT)无监督学习算法 K-均值聚类(K-Means Clustering)

继续写:https://blog.csdn.net/chenhao0568/article/details/134920391?spm=1001.2014.3001.5502词嵌入模型(WordEmbeddingModels)如Word2Vec,GloVe词嵌入模型,如Word2Vec和GloVe,是自然语言处理(NLP)领域的关键技术。它们的主要作用是将文字(特别是词汇)转换为计算机能够理解的数值形式。这些数值形式被称为“嵌入”(embeddings),它们捕捉了词汇的语义和语境信息。Word2VecWord2Vec是最著名的词嵌入方法之一。它由Google的研究团队开发,主要有两种模型结构

补齐Transformer规划短板,田渊栋团队的Searchformer火了

最近几年,基于Transformer的架构在多种任务上都表现卓越,吸引了世界的瞩目。使用这类架构搭配大量数据,得到的大型语言模型(LLM)等模型可以很好地泛化用于真实世界用例。尽管有如此成功,但基于Transformer的架构和LLM依然难以处理规划和推理任务。之前已有研究证明LLM难以应对多步规划任务或高阶推理任务。为了提升Transformer的推理和规划性能,近些年研究社区也提出了一些方法。一种最常见且有效的方法是模拟人类的思考过程:先生成中间「思维」,然后再输出响应。比如思维链(CoT)提示法就是鼓励模型预测中间步骤,进行按步骤的「思考」。思维树(ToT)则使用了分支策略和评判方法,让

国内高校打造类Sora模型VDT,通用视频扩散Transformer被ICLR 2024接收

2月16日,OpenAISora的发布无疑标志着视频生成领域的一次重大突破。Sora基于DiffusionTransformer架构,和市面上大部分主流方法(由2DStableDiffusion扩展)并不相同。为什么Sora坚持使用 DiffusionTransformer,其中的原因从同时期发表在ICLR2024(VDT:General-purposeVideoDiffusionTransformersviaMaskModeling)的论文可以窥见一二。这项工作由中国人民大学研究团队主导,并与加州大学伯克利分校、香港大学等进行了合作,最早于2023年5月公开在arXiv网站。研究团队提出了基

[论文精读]Community-Aware Transformer for Autism Prediction in fMRI Connectome

论文网址:[2307.10181]Community-AwareTransformerforAutismPredictioninfMRIConnectome(arxiv.org)论文代码:GitHub-ubc-tea/Com-BrainTF:TheofficialPytorchimplementationofpaper"Community-AwareTransformerforAutismPredictioninfMRIConnectome"acceptedbyMICCAI2023英文是纯手打的!论文原文的summarizingandparaphrasing。可能会出现难以避免的拼写错误和语法

论文阅读:EFFICIENTLY SCALING TRANSFORMER INFERENCE

论文阅读:EFFICIENTLYSCALINGTRANSFORMERINFERENCE原文链接:https://arxiv.org/abs/2211.05102Notes有挑战的环境:largedeepmodels,withtightlatencytargetsandlongsequencelengthsselectthebestmulti-dimensionalpartitioningtechniquesoptimizedforTPUv4slicesthelatencyandmodelFLOPSutilization(MFU)tradeoffson500B+parametermodelsmu