草庐IT

使用知识图谱提高RAG的能力,减少大模型幻觉

在使用大型语言模型(llm)时,幻觉是一个常见的问题。LLM生成流畅连贯的文本,但往往生成不准确或不一致的信息。防止LLM产生幻觉的方法之一是使用提供事实信息的外部知识来源,如数据库或知识图谱。向量数据库和知识图谱向量数据库向量数据库是表示实体或概念(如单词、短语或文档)的高维向量的集合。数据库可用于测量不同实体或概念之间的相似性或相关性,基于它们的向量表示。例如,一个向量数据库可以根据“巴黎”和“法国”的向量距离告诉你,“巴黎”和“法国”比“巴黎”和“德国”更相关。查询向量数据库通常涉及搜索相似的向量或检索基于特定标准的向量。下面是一个如何查询向量数据库的简单示例:让我们假设有一个向量数据库

LLM之RAG实战(七)| 使用llama_index实现多模态RAG

一、多模态RAG    OpenAI开发日上最令人兴奋的发布之一是GPT-4VAPI(https://platform.openai.com/docs/guides/vision)的发布。GPT-4V是一个多模态模型,可以接收文本/图像,并可以输出文本响应。最近还有一些其他的多模态模型:LLaVa和Fuyu-8B。​   在过去的一年里,大部分应用程序开发都是围绕文本输入/文本输出范式。最典型的例子之一是检索增强生成(RAG)——将LLM与外部文本语料库相结合,对模型未经训练的数据进行推理。通过处理任意文档(比如PDF、网页),将其切分为块并存储到向量数据库中,然后通过检索到相关的块输入给LL

专补大模型短板的RAG有哪些新进展?这篇综述讲明白了

大型语言模型(LLMs)已经成为我们生活和工作的一部分,它们以惊人的多功能性和智能化改变了我们与信息的互动方式。然而,尽管它们的能力令人印象深刻,但它们并非无懈可击。这些模型可能会产生误导性的“幻觉”,依赖的信息可能过时,处理特定知识时效率不高,缺乏专业领域的深度洞察,同时在推理能力上也有所欠缺。在现实世界的应用中,数据需要不断更新以反映最新的发展,生成的内容必须是透明可追溯的,以便控制成本并保护数据隐私。因此,简单依赖于这些“黑盒”模型是不够的,我们需要更精细的解决方案来满足这些复杂的需求。正是在这样的背景下,检索增强生成技术(Retrieval-AugmentedGeneration,RA

解密Prompt系列22. LLM Agent之RAG的反思:放弃了压缩还是智能么?

已经唠了三章的RAG,是时候回头反思一下,当前的RAG是解决幻觉的终点么?我给不出直接的答案,不过感觉当前把RAG当作传统搜索框架在大模型时代下的改良,这个思路的天花板高度有限~反思来源于对RAG下模型回答的直观感受,最初我们被ChatGPT的能力所震惊,并不是它能背诵知识,而是模型在知识压缩后表现出的“涌现能力”,更具体到RAG所属的问答领域,是模型能够精准的基于上文从压缩的参数中召回并整合相应的知识,甚至进行知识外推的能力。通俗点说它有可能生成我在任何地方都检索不到的答案!但RAG当前的多数使用方法,采用只让模型基于检索到的内容进行回答的方案,其实限制了模型自身对知识压缩形成的智能,大模型

解密Prompt系列22. LLM Agent之RAG的反思:放弃了压缩还是智能么?

已经唠了三章的RAG,是时候回头反思一下,当前的RAG是解决幻觉的终点么?我给不出直接的答案,不过感觉当前把RAG当作传统搜索框架在大模型时代下的改良,这个思路的天花板高度有限~反思来源于对RAG下模型回答的直观感受,最初我们被ChatGPT的能力所震惊,并不是它能背诵知识,而是模型在知识压缩后表现出的“涌现能力”,更具体到RAG所属的问答领域,是模型能够精准的基于上文从压缩的参数中召回并整合相应的知识,甚至进行知识外推的能力。通俗点说它有可能生成我在任何地方都检索不到的答案!但RAG当前的多数使用方法,采用只让模型基于检索到的内容进行回答的方案,其实限制了模型自身对知识压缩形成的智能,大模型

AIGC新岗位新机会解析;GPTs万字教程;28套提示词让人物情绪饱满;爆款AI搜索引擎RAG实践分享;AI独立创始人成长手册;LangChain年度洞察 | ShowMeAI日报

👀日报&周刊合集|🎡生产力工具与行业应用大全|🧡点赞关注评论拜托啦!👀北京互联网法院审理全国首例「AI声音侵权案」,五被告都否认侵权补充一份背景:点击了解事件说明与当前进展⋙AI生成图片著作权侵权第一案、AIGC训练数据集侵权首批案件大模型技术在一年时间里狂飙突进,但相关法律法规和实施细则还不完善,很多领域的「AI第一案」进入法律流程和公众视野。比如👆前段时间的这两个案子,以及最新的AI声音侵权第一案。配音师殷某某发现自己的声音被「魔音工坊App」AI处理并对外出售了,因此以侵害声音权为由将相关五被告起诉到北京互联网法院。12月12日,北京互联网法院首次组成五人合议庭,依法公开审理。五被告均否

AnythingLLM:基于RAG方案构专属私有知识库(开源|高效|可定制)

一、前言继OpenAI和Google的产品发布会之后,大模型的能力进化速度之快令人惊叹,然而,对于很多个人和企业而言,为了数据安全不得不考虑私有化部署方案,从GPT-4发布以来,国内外的大模型就拉开了很明显的差距,能够实现的此路径无非就只剩下国内的开源大模型可以选择了。而现阶段切入大模型应用落地最合适的方案依然是结合大模型基于RAG检索增强来实现知识库的检索和生存。从而构建个人或者企业私有化的本地知识库。你只需要将本地私有的PDF、Word文档和文本文件嵌入到本地向量库,连接上LLM,然后就可以通过对话、搜索的方式进行回答问题、提供见解,甚至生成摘要。接下来我们就介绍一下MintplexLab

改进召回(Retrieval)和引入重排(Reranking)提升RAG架构下的LLM应用效果

改进召回(Retrieval)和引入重排(Reranking)提升RAG架构下的LLM应用效果原创 ully AI工程化 2023-08-2421:08收录于合集#LLM应用架构3个#领域技术13个动手点关注干货不迷路如前文LLM应用架构之检索增强(RAG)的缘起与架构介绍,RAG架构很好的解决了当前大模型Promptlearning过程中contextwindow限制等问题,整体架构简明清晰,易于实现,得到了广泛的应用,但实际落地过程中有大量的实际问题需要改进优化。llamaindex实现下的RAG架构以RAG召回为例,最原始的做法是通过top-k的方式从向量数据库中检索背景数据然后直接提交

AI大模型的制作:RAG和向量数据库,分别是什么?

目录一、什么是AI大模型二、RAG三、向量数据库四、如何制作一个好的 AI大模型一、什么是AI大模型AI大模型是指具有大规模参数和复杂结构的人工智能模型。传统的机器学习模型通常有限的参数量,而AI大模型则通过增加参数量和层数来提升模型的表达能力和性能。这种模型通常使用深度神经网络来构建,包括卷积神经网络(CNN)和循环神经网络(RNN)等。AI大模型在自然语言处理、计算机视觉、语音识别等任务上取得了显著的成果,例如BERT、GPT和AlphaGo等。这些模型需要大量的计算资源和数据来训练,但能够更好地理解和模拟人类的智能行为和思维过程。二、RAGRAG(Retrieval-AugmentedG

解密Prompt系列21. LLM Agent之再谈RAG的召回信息密度和质量

话接上文的召回多样性优化,多路索引的召回方案可以提供更多的潜在候选内容。但候选越多,如何对这些内容进行筛选和排序就变得更加重要。这一章我们唠唠召回的信息密度和质量。同样参考经典搜索和推荐框架,这一章对应排序+重排环节,考虑排序中粗排和精排的区分主要是针对低延时的工程优化,这里不再进一步区分,统一算作排序模块。让我们先对比下重排和排序模块在经典框架和RAG中的异同排序模块经典框架:pointwise建模,局部单一item价值最大化,这里的价值可以是搜索推荐中的内容点击率,或者广告中的ecpm,价值由后面使用的用户来决定RAG:基本和经典框架相同,不过价值是大模型使用上文多大程度可以回答问题,价值