草庐IT

GENERATION

全部标签

LLMs之LLaMA-2:源码解读(generation.py文件)—Llama类实现基于预训练模型的文本生成功能(基于单轮提示实现文本补全/多轮对话生成)=build函数构建Llama实例+init

LLMs之LLaMA-2:源码解读(generation.py文件)—Llama类实现基于预训练模型的文本生成功能(基于单轮提示实现文本补全/多轮对话生成)=build函数构建Llama实例+init函数初始化模型和词表对象+generate函数基于提示文本生成文本序列+sample_top_p辅助函数实现了控制随机性的核心采样策略top-P导读:实现了自然语言生成的工具(对话机器人功能),基于预训练LLM模型根据提示文本生成文本序列,可用于构建自动化的单个文本生成或多轮对话进行回复生成的聊天机器人等应用(模拟机器人角色进行对话)。通过预训练模型实现了文本自动完成和对话应答两个主要场景。定义了

论文阅读:Retrieval-augmented Generation across Heterogeneous Knowledge

跨异构知识的检索增强生成NAACL2022论文链接摘要检索增强生成(RAG)方法越来越受到NLP社区的关注,并在许多NLP下游任务上取得了最先进的性能。与传统的预训练生成模型相比,RAG方法具有知识获取容易、可扩展性强、训练成本低等显著优点。尽管现有的RAG模型已应用于各种知识密集型NLP任务,如开放领域QA和对话系统,但大部分工作都集中在从维基百科检索非结构化文本文档上。在本文中,我首先阐述了从单一源同质语料库检索知识的当前障碍。然后,我展示了现有文献和我的实验的证据,并提供了跨异构知识的检索增强生成方法的多种解决方案。引言近年来,大型预训练语言模型(PLM),如T5(Raffel等人,20

大模型Llama2部署,基于text-generation-webui、Llama2-Chinese

支持windows、linux,显存要求10G左右一、使用text-generation-webui部署参考安装教程:傻瓜式!一键部署llama2+chatglm2,集成所有环境和微调功能,本地化界面操作!Github地址:GitHub-oobabooga/text-generation-webui:AGradiowebUIforLargeLanguageModels.Supportstransformers,GPTQ,llama.cpp(ggml/gguf),Llamamodels.模型下载地址:meta-llama/Llama-2-13b-chat-hfatmain遇到的问题:Traceb

[23] IPDreamer: Appearance-Controllable 3D Object Generation with Image Prompts

pdfText-to-3D任务中,对3D模型外观的控制不强,本文提出IPDreamer来解决该问题。在NeRFTraining阶段,IPDreamer根据文本用ControlNet生成参考图,并将参考图作为Zero1-to-3的控制条件,用基于Zero1-to-3的SDS损失生成粗NeRF。在MeshTraining阶段,IPDreamer将NeRF用DMTet转换为3DMesh,并分别优化Mesh的几何与纹理。1)用参考图的法向图编码作为控制信号,用IPSD(ImagePromptScoreDistillation)优化3DMesh的几何;2)用渲染rgb图像编码(和法向图差异)作为控制信号

LLM应用架构之检索增强(RAG,retrieval-augmented generation)的缘起与架构介绍

LLM应用架构之检索增强(RAG)的缘起与架构介绍原创 ully AI工程化 2023-08-2121:53收录于合集#领域技术13个#LLM应用架构3个动手点关注本文是LLM应用架构系列的第一篇,将介绍LLM应用开发里最常见的一种架构模式RAG(RetrievalAugmentedGeneration),它被广泛应用于知识问答,智能助手等常见LLM应用场景中。在后续文章中还将介绍该模式落地实际过程中的一些常见问题及改进思路,欢迎关注“AI工程化”,持续为大家更新。当前,随着大模型应用落地需求不断增加,越来越多的人在寻找搭建LLM应用的最佳模式,而这种模式就如同当年web开发中MVC架构一样,

c++ - 技巧 : filling array values using macros (code generation)

AreC++TemplatesjustMacrosindisguise?我正在阅读上述主题,突然想到一个想法:为什么不尝试编写一些可以在我们的实际代码中使用的棘手宏,(不仅仅是作为在现实生活中无用的谜题)?所以首先想到的是:用宏填充数组值:intf(int&i){return++i;}#definee100r5(m20)#definem20m5,m5,m5,m5#definem5r5(e1)#definee1f(i)//avoiding++irighthere,toavoidUB!#definer5(e)e,e,e,e,eintmain(){inti=0;//thisisusedint

ruby-on-rails-3 - 在 mongo ids 上查询 generation_time

JohnNunemaker有一篇博文,其中包含一些关于MongoObjectIds的不错技巧--http://mongotips.com/b/a-few-objectid-tricks/--特别是我对有关generation_time的提示感兴趣。他建议没有必要在mongo文档中显式存储created_at时间,因为您始终可以从ID中提取它,这引起了我的注意。问题是如果我只有id,我不知道如何在mongomapper中生成mongo查询以根据创建时间查找文档。如果我将键:created_at存储为文档的一部分,我可以在mongomapper中进行查询以获取自12月1日以来创建的所有文档

Elasticsearch:使用 Open AI 和 Langchain 的 RAG - Retrieval Augmented Generation (三)

这是继之前文章:Elasticsearch:使用OpenAI和Langchain的RAG-RetrievalAugmentedGeneration(一)Elasticsearch:使用OpenAI和Langchain的RAG-RetrievalAugmentedGeneration(二)的续篇。在今天的文章中,我将详述如何使用 ElasticsearchStore。这也是被推荐的使用方法。如果你还没有设置好自己的环境,请详细阅读第一篇文章。创建应用并展示安装包#!pip3installlangchain导入包fromdotenvimportload_dotenvfromlangchain.em

node.js - MongoDB - Mongoose : Aggregate generation, $match $group $project

我是mongoDB世界的新手。我正在使用expressJS和mongoose作为数据库在nodeJS上开发一个网站。我正在研究图形方向,我用这个模型生成了一个数据库:varuserSchema=newSchema({profile:{sexe:String,//('male'or'female')age:String,//('kid','adult','old')rank:String,//('low','middle','high')},design:{luminosity:String,//('light','dark')color:String,//('blue','green'

论文带读——3D Neural Field Generation using Triplane Diffusion

论文带读——3DNeuralFieldGenerationusingTriplaneDiffusion————YssssMikeyTips:我会基本上几天更新一篇论文引读,一般是AIGC模型——3D+Diffusion方向每日在Arxiv上新发布的最新Paper来导读,喜欢支持的伙伴可以支持关注点赞哦!!对于文章中可能出现的错误和建议可以在评论区打出(本人也只是刚入AIGC方向的小朋友)Summary提出直接使用SOTA2Ddiffusionmodel1来生成triplane,使扩散模型来控制生成的神经场。本文对训练数据(Shapenetmeshes)转换为连续占用字段2并分解为一组axis-