草庐IT

LLM-Augmenter

全部标签

Agent : 一文读懂LLM Agent架构,详解Profile,Memory,Planning,Action模块作用

原创 予墨 AI速览 2023-10-0713:30收录于合集#AI论文解读3个##Agent5个在人工智能领域,人们对Agent的期待日益增长。每当基于Agent的新开源工具或产品出现时,都能引发热烈的讨论,比如之前的AutoGPT。对于对Agent感兴趣的朋友们,我推荐一篇论文,它全面地介绍了Agent的架构,对于理解Agent的全局有着重要的价值。https://browse.arxiv.org/pdf/2308.11432.pdf这篇论文详细解读了Agent的概念、发展历史以及近期的研究热点。除了这些基础知识,我认为最有价值的部分在于,它总结了基于大型语言模型(LLM)的Agent的架

2023年最具影响力的 10 篇AI论文(Llama2、SAM、LLM、 Pythia、QLoRA、BloombergGPT、DPO、Mistral 7B、Orca 2、transformer)

  2023一年又过去,这一年,AI圈子以一种“狂飙突进”的速度飞速发展,哪怕在这个领域深耕多年的学者们也开始感叹“从没有见过哪个领域在哪一年如同AI领域在2023年这样如此飞速的发展与不断的进化”,毫无疑问,这一年AI,尤其是大模型的爆发将会深刻影响未来我们生活的方方面面。  抱着年终总结,也是对过去的2023这一里程碑式的一年回顾与展望的态度,来自AheadAI的SebastianRaschka博士为我们带来了2023年最值得大家关注,也是最有影响力的十篇AI论文,这里我们就和大家一起,用这十篇工作再次为2023年写下一段注脚(十篇论文不分先后)一、Pythia—大模型该如何训练?  来自

扩散模型更懂复杂提示词!Pika北大斯坦福开源新框架,利用LLM提升理解力

Pika北大斯坦福联手,开源最新文本-图像生成/编辑框架!无需额外训练,即可让扩散模型拥有更强提示词理解能力。面对超长、超复杂提示词,准确性更高、细节把控更强,而且生成图片更加自然。效果超越最强图像生成模型Dall·E3和SDXL。比如要求图片左右冰火两重天,左边有冰山、右边有火山。SDXL完全没有符合提示词要求,Dall·E3没有生成出来火山这一细节。还能通过提示词对生成图像二次编辑。这就是文本-图像生成/编辑框架RPG(Recaption,PlanandGenerate),已经在网上引起热议。它由北大、斯坦福、Pika联合开发。作者包括北大计算机学院崔斌教授、Pika联合创始人兼CTOCh

使用SPIN技术对LLM进行自我博弈微调训练

2024年是大型语言模型(llm)的快速发展的一年,对于大语言模型的训练一个重要的方法是对齐方法,它包括使用人类样本的监督微调(SFT)和依赖人类偏好的人类反馈强化学习(RLHF)。这些方法在llm中发挥了至关重要的作用,但是对齐方法对人工注释数据有的大量需求。这一挑战使得微调成为一个充满活力的研究领域,研究人员积极致力于开发能够有效利用人类数据的方法。加州大学最近的一项研究介绍了一种名为SPIN(SelfPlayfInetuNing)的新技术。SPIN从AlphaGoZero和AlphaZero等游戏中成功的自我对弈机制中汲取灵感。它能够使LLM参与自我游戏的能力。这消除了对专业注释者的需求

LLM之RAG实战(十六)| 使用Llama-2、PgVector和LlamaIndex构建LLM Rag Pipeline

    近年来,大型语言模型(LLM)取得了显著的进步,然而大模型缺点之一是幻觉问题,即“一本正经的胡说八道”。其中RAG(RetrievalAugmentedGeneration,检索增强生成)是解决幻觉比较有效的方法。本文,我们将深入研究使用transformer库、Llama-2模型、PgVector数据库和LlamaIndex库来构建RAGPipeline完整过程。一、什么是RAG(检索增强生成)?    检索增强生成(RAG)模型是传统语言模型与信息检索组件的融合。从本质上讲,RAG利用外部数据(通常来自大型语料库或数据库)来增强大语言模型生成过程,以产生更知情和上下文相关的响应。二

LLM会写代码≠推理+规划!AAAI主席揭秘:代码数据质量太高|LeCun力赞

自从ChatGPT发布后,各种基于大模型的产品也快速融入了普通人的生活中,但即便非AI从业者在使用过几次后也可以发现,大模型经常会胡编乱造,生成错误的事实。不过对于程序员来说,把GPT-4等大模型当作「代码辅助生成工具」来用的效果明显要比「事实检索工具」要好用很多,因为代码生成往往会涉及到复杂的逻辑分析等,所以也有人将这种推理(广义规划)能力归因于大型语言模型(LLM)的涌现。学术界也一直在就「LLM能否推理」这个问题争论不休。最近,计算机科学家、亚利桑那州立大学教授SubbaraoKambhampati(Rao)以「LLM真的能推理和规划吗?」(CanLLMsReallyReason&Pla

消灭「幻觉」!谷歌全新ASPIRE方法让LLM给自己打分,效果碾压10x体量模型

大模型的「幻觉」问题马上要有解了?威斯康星麦迪逊大学和谷歌的研究人员最近开发了一个名为ASPIRE的系统,可以让大模型对自己的输出给出评分。如果用户看到模型的生成的结果评分不高,就能意识到这个回复可能是幻觉。如果系统可以进一步筛选评分的结果进行输出,比如如果评分过低,大模型就可能生成「我没法回答这个问」,从而有望最大限度的改善幻觉问题。论文地址:https://aclanthology.org/2023.findings-emnlp.345.pdfASPIRE能让LLM输出答案以及答案的置信度得分。研究人员的实验结果表明,ASPIRE在各种QA数据集(例如CoQA基准)上显著优于传统的选择性预

亲手打造一个本地LLM语音助手来管理智能家居

经历过Siri和Google助手之后,我发现尽管它们能够控制各种设备,但却无法进行个性化定制,并且不可避免地依赖于云服务。出于对新知识的渴望以及想在生活中使用一些酷炫的东西,我下定决心,要追求更高的目标。我的要求很简单:我想要一个既幽默又带有讽刺意味的新助手。我希望所有操作都在本地完成,绝不例外。我家楼下的咖啡机没必要和国家另一端的服务器进行通信。我期望的功能不仅仅是简单的“开灯”,理想情况下,我还想在将来增加更多新功能。然而,实现这些要求的背后架构却远非简单。虽然我使用这些设备和基础设施做许多其他事情,但我们主要看到的是:ProtectliVaultVP2420,用于防火墙、入侵预防系统(N

AI和软件测试结合-使用LLM将自然语言生成TestCase

曾在工作之余,设想过一个能提升测试流程左侧效率的点子,结合人工智能,将自然语言自动转化为通用的功能用例、接口用例、代码单元测试用例等一系列用例,碰上这2年LLM模型大爆发,遂有自己炼一个用例生成的专用模型的想法。首要需求分析用户需求:用户能够以自然语言形式描述测试需求和条件,例如验证某个功能模块、检查特定的输入输出等。用户期望系统能够根据输入的描述自动生成具体的测试用例,简化测试用例编写的工作量。用户需要系统生成的测试用例具有可执行性、覆盖性和有效性,以确保软件质量和功能完整性。功能需求:自然语言处理:系统需具备自然语言处理能力,能够理解用户输入的测试需求和条件,提取关键信息。生成测试用例:系

人类千亿科学豪赌与参差的中美景观;超赞的LLM学习路线图;AI搜索引擎全面解析;美图AI动漫技术方案;O‘Reilly LLM新书预览 | ShowMeAI日报

👀日报&周刊合集|🎡生产力工具与行业应用大全|🧡点赞关注评论拜托啦!👀人类驶向新轨道:Adobe放弃收购Figma,与旧有规划割席https://www.figma.com/blog/figma-adobe-abandon-proposed-merger/补充一份背景:Adobe是最大的设计软件公司,Figma是最大的界面设计软件公司;Adobe在2022年收购Figma是顺应时代潮流,在2023年底停止收购也是2022年9月,Adobe宣布与Figma达成收购意向,给出的价格是200亿美元;2023年12月,双方宣布停止此项收购计划,Adobe向Figma支付10亿美元违约金。Figma构建