草庐IT

基于LLaMA Factory,单卡3小时训练专属大模型 Agent

大家好,今天给大家带来一篇Agent微调实战文章Agent(智能体)是当今LLM(大模型)应用的热门话题[1],通过任务分解(taskplanning)、工具调用(toolusing)和多智能体协作(multi-agentcooperation)等途径,LLMAgent有望突破传统语言模型能力界限,体现出更强的智能水平。在这之中,调用外部工具解决问题成为LLMAgent必不可缺的一项技能,模型根据用户问题从工具列表中选择恰当的工具,同时生成工具调用参数,综合工具返回结果和上下文信息总结出答案。通过调用外部工具,LLM能够获取到实时、准确的知识,大大降低了生成中的幻觉(hallucination

羊驼2:开放的基础和微调聊天模型--Llama 2论文阅读

论文地址:https://arxiv.org/pdf/2307.09288.pdfd代码地址:GitHub-facebookresearch/llama-recipes:ExamplesandrecipesforLlama2model问答用了多少个gpu?这篇文档中使用了3.3MGPU小时的计算,使用的硬件类型是A100-80GB,可以扩展到2000个GPU,但这些计算的功耗估计并不包括互连或非GPU服务器功耗,也不包括数据中心冷却系统的功耗。在预训练Llama2模型的过程中,估计总排放量为539tCO2eq,但Meta的可持续性计划直接抵消了100%的排放量。因此,这些预训练成本不需要由其他

驾辰龙跨Llama持Wasm,玩转Yi模型迎新春过大年(上)

大年初一,看着春晚迎新年。今年新年很特别,AI工具添光彩。今天就来感受下最新的AI神器天选组合“WasmEdge+Yi-34B”,只要短短三步,为这个甲辰龙年带来一份九紫离火运的科技感。环境准备这次用的算力是OpenBayes提供的英伟达RTX_4090*1、24GB显存、20核CPU、80GB内存、50GB工作空间。可点击本链接https://openbayes.com/console/public/tutorials/v6ZVAzejUCM进入工作空间后,点击页面上方的克隆,它将依据当前模板创建新的训练任务,并预装本次运行需要的各项文件:1、Yi-34B-Chat-Q4_K_MGGUF模型

Lag-Llama:第一个时间序列预测的开源基础模型介绍和性能测试

2023年10月,我们发表了一篇关于TimeGPT的文章,TimeGPT是时间序列预测的第一个基础模型之一,具有零样本推理、异常检测和共形预测能力。虽然TimeGPT是一个专有模型,只能通过API访问。但是它还是引发了对时间序列基础模型的更多研究。到了2024年2月,已经有了一个用于时间序列预测的开源基础模型:laglllama。在原论文《Lag-Llama:TowardsFoundationModelsforProbabilisticTimeSeriesForecasting》中,模型作为单变量概率预测的通用基础模型提出。它是由来自不同机构的大型团队开发的,这些机构包括MorganStanl

清华系2B模型杀出,性能吊打LLaMA-13B

2月1日,面壁智能与清华大学自然语言处理实验室共同开源了系列端侧语言大模型MiniCPM,主体语言模型MiniCPM-2B仅有24亿(2.4B)的非词嵌入参数量。在综合性榜单上与Mistral-7B相近,在中文、数学、代码能力表现更优,整体性能超越Llama2-13B、MPT-30B、Falcon-40B等模型。具体开源模型包括:基于MiniCPM-2B的指令微调与人类偏好对齐的MiniCPM-2B-SFT/DPO。基于MiniCPM-2B的多模态模型MiniCPM-V,能力超越基于Phi-2的同参数级别多模态模型。MiniCPM-2B-SFT/DPO的Int4量化版MiniCPM-2B-SF

超简单,不用GPU,3步教你轻松在笔记本上部署聊天大模型 LLaMA

大家好啊,我是董董灿。今天带大家在自己的电脑(笔记本)上部署一个类似于chatGPT的AI聊天大模型。部署完之后,你就拥有了一个私人AI聊天机器人,无需联网,随时进行实时对话。0.简单说下背景大模型我们都不陌生了,但是以chatGPT为代表的大模型是闭源的,他们的源代码不开放,我们只能用他们的商业化产品。好在Meta(也就是原来的FaceBook) 开源了他们家的大模型LLaMa。之所以叫“大”模型,是因为它的参数量巨大。以LLaMa举例子,它开源了LLaMa-7B,LLaMa-33B等模型,后面的数字就代表着参数数量。7B,就意味着参数有70亿,但是很多人微调后,发现它的效果却一点也不输拥有

关于LLaMA Tokenizer的一些坑...

使用LLaMATokenizer对jsonl文件进行分词,并将分词结果保存到txt文件中,分词代码如下:importjsonlinesimportsentencepieceasspmfromtqdmimporttqdmjsonl_file='/path/to/jsonl_file'txt_file='/path/to/txt_file'tokenizer=spm.SentencePieceProcessor('./tokenizer.model')w=open(txt_file,mode='w',encoding='utf-8')withjsonlines.open(jsonl_file,mo

每日一看大模型新闻(2023.12.13)趣味项目CLoT:训练LLM更幽默地回答问题;用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习;2.7B能打Llama 2 70B,微软祭出

1.产品发布1.12.7B能打Llama270B,微软祭出「小语言模型」发布时间:2023-12-132.7B能打Llama270B,微软祭出「小语言模型」!96块A10014天训出Phi-2,碾压谷歌Gemininano主要内容:11月份以来,大型语言模型技术领域发生了许多重要事件。OpenAI推出了GPTs,颠覆了先前的GPT模型,并通过引入董事会吸引了大量关注。谷歌也在年底前匆忙发布了超大规模Gemini模型,甚至涉及了"视频造假"。微软则正式发布了Phi-2小语言模型,拥有2.7B参数,几乎超越所有13B以下的大型模型。Phi-2表现出色,性能可媲美比自己大25倍的模型。微软强调了训练

Meta开源Code Llama 70B,缩小与GPT-4之间的技术鸿沟

  每周跟踪AI热点新闻动向和震撼发展想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!订阅:https://rengongzhineng.io/。 加入请求下载的名单: https://bit.ly/3Oil6bQMeta最近更新了它的代码生成AI模型,CodeLlama70B,这可是迄今为止“最大也是表现最好的模型”呢。这个CodeLlama工具自去年八月推出以来,就已经免费开放给研究和商业用途了。根据MetaAI博客上的

在灾难推文分析场景上比较用 LoRA 微调 Roberta、Llama 2 和 Mistral 的过程及表现

引言自然语言处理(NLP)领域的进展日新月异,你方唱罢我登场。因此,在实际场景中,针对特定的任务,我们经常需要对不同的语言模型进行比较,以寻找最适合的模型。本文主要比较3个模型:RoBERTa、Mistral-7B及Llama-2-7B。我们用它们来解决一个常见问题——对灾难相关的推文进行分类。值得注意的是,Mistral和Llama2是70亿参数的大模型。相形之下,RoBERTa-large(355M参数)只是一个小模型,我们用它作为比较的基线。本文,我们使用PEFT(Parameter-EfficientFine-Tuning,参数高效微调)技术:LoRA(Low-RankAdaptati