草庐IT

阿里大模型又开源!能读图会识物,基于通义千问7B打造,可商用

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。阿里开源大模型,又上新了~继通义千问-7B(Qwen-7B)之后,阿里云又推出了大规模视觉语言模型Qwen-VL,并且一上线就直接开源。具体来说,Qwen-VL是基于通义千问-7B打造的多模态大模型,支持图像、文本、检测框等多种输入,并且在文本之外,也支持检测框的输出。举个🌰,我们输入一张阿尼亚的图片,通过问答的形式,Qwen-VL-Chat既能概括图片内容,也能定位到图片中的阿尼亚。测试任务中,Qwen-VL展现出了“六边形战士”的实力,在四大类多模态任务的标准英文测评中(Zero-shotCaption/VQA/D

【大模型系列 06】LLaMA-7B/13B for PyTorch 昇腾迁移

源码链接https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/PyTorch/built-in/foundation/LLaMA-13BLLaMA-7B/13BforPyTorch概述简述LLaMA是由MetaAI发布的大语言系列模型,完整的名字是LargeLanguageModelMetaAI。LLaMA按照参数量的大小分为四个型号:LLaMA-7B、LLaMA-13B、LLaMA-30B与LLaMA-65B。LLaMA模型的效果极好,LLaMA-13B在大多数基准测试中的表现都优于GPT-3(175B),且无需使用专门的数据集,只使用公

Llama2-chat-7B 开源中文版强势来袭!

7月18日MetaAI开源了自家新一代大语言模型模型Llama2系列。但是,许多朋友在试用后发现不论是其base版本还是chat版本,几乎无法约束模型进行中文对话。因此,广大同僚迫切的希望能有一个具备中文能力的Llama2供大家使用和研究。至此之际,我们ChinChunMei小分队决定启动一个中文版Llama2开源项目,为大家提供不同数据规模,不同任务,不同训练方案下全系列的中文版Llama2。本项目旨在推动社区对大语言模型及其chat版本模型的研究,包括但不限于模型的鲁棒性,可靠性;聊天/对话版模型的自动化评估方案;不同模型的InContextLearning的能力以及分析其能力差异背后的关

【必看!】阿里云推出QWen-7B和QWen-7b-Chat,开放免费商用!

阿里云于8月3日宣布开源两款重要的大型模型——QWen-7B和QWen-7b-Chat。这两款模型的参数规模达到了令人瞩目的70亿,并且已经在HuggingFace和ModelScope平台上开放,并可免费商用。以下是相关链接:GitHub项目主页:https://github.com/QwenLM/Qwen-7BHuggingFace:https://huggingface.co/Qwen/Qwen-7B-ChatModelScope:https://modelscope.cn/studios/qwen/Qwen-7B-Chat-Demo/summary/TopGpt:https://www

Peft库使用技巧(一):合并基座模型与Lora模型【使用Peft库微调基座模型(比如LLaMA-7B)后会得到Lora参数模块,将基座模型与Lora参数合并后才能得到完整的微调后的大模型】

使用Peft库微调基座模型(比如LLaMA-7B)后会得到Lora参数模块,将基座模型与Lora参数合并后才能得到完整的微调后的大模型#Copyright2023RohanTaori,IshaanGulrajani,TianyiZhang,YannDubois,XuechenLi##LicensedundertheApacheLicense,Version2.0(the"License");#youmaynotusethisfileexceptincompliancewiththeLicense.#YoumayobtainacopyoftheLicenseat##http://www.apac

LLM - Chinese-Llama-2-7b 初体验

目录一.引言二.模型下载三.快速测试四.训练数据五.总结一.引言自打LLama-2发布后就一直在等大佬们发布LLama-2的适配中文版,也是这几天蹲到了一版由LinkSoul发布的 Chinese-Llama-2-7b,其共发布了一个常规版本和一个4-bit的量化版本,今天我们主要体验下Llama-2的中文逻辑顺便看下其训练样本的样式,后续有机会把训练和微调跑起来。二.模型下载HuggingFace: https://huggingface.co/LinkSoul/Chinese-Llama-2-7b4bit量化版本: https://huggingface.co/LinkSoul/Chine

担心prompt泄露隐私?这个框架让LLaMA-7B完成安全推理

现如今已有大量提供深度学习服务的供应商,在使用这些服务时,用户需要将自己的信息包含在prompt中发送给这些服务商,这会导致隐私泄漏等问题。另一方面,服务商基本不愿意公开自己辛苦训练得到的模型参数。针对这一问题,蚂蚁集团的一个研究团队提出了PUMA框架,可以在不影响模型性能的前提下实现安全的推理。不仅如此,他们也开源了相关代码。论文:https://arxiv.org/abs/2307.12533代码:https://github.com/secretflow/spu/blob/main/examples/python/ml/flax_llama7b/flax_llama7b.py预训练Tra

LLMs之Baichuan:Baichuan-13B模型的简介(包括Baichuan-7B)、安装、使用方法之详细攻略

LLMs之Baichuan:Baichuan-13B模型的简介(包括Baichuan-7B)、安装、使用方法之详细攻略导读:2023年6月15日,百川智能(搜狗创始人王小川创建)发布了首个大模型成果Baichuan-7B,开源可商用,它在C-Eval、AGIEval和Gaokao中文权威评测榜单上,以显著优势全面超过了ChatGLM-6B等其他大模型,并且在MMLU英文权威评测榜单上,也领先LLaMA-7B很多。要来就来大的,要玩就玩真的,人狠话不多,就在7月11日,百川智能发布包含有预训练(Baichuan-13B-Base)和对齐(Baichuan-13B-Chat)两个版本。分析Baic

LLMs之llama_7b_qlora:源代码解读export_hf_checkpoint.py(模型权重合并文件)将LORA模型的权重合并回原始模型的权重(hf_llama_model+llama_

LLMs之llama_7b_qlora:源代码解读export_hf_checkpoint.py(模型权重合并文件)将LORA模型的权重合并回原始模型的权重(hf_llama_model+llama_7b_qlora),并保存到指定的检查点文件中目录

LLMs之InternLM:InternLM/InternLM-7B模型的简介、安装、使用方法之详细攻略

LLMs之InternLM:InternLM/InternLM-7B模型的简介、安装、使用方法之详细攻略导读:InternLM有 1040亿参数,是在包含1.6万亿token的多语种高质量数据集上训练而成。同时,InternLM-7B完全可商用,支持8k语境窗口长度,中文超ChatGPT,训练和评估动态反馈调整,基于MLdeploy部署(基于Fast Transform研发)快速加载大模型,比Transform快到2~3倍,Hybrid Zero提速 ,开放OpenCompass 评测标准。目录InternLM模型的简介1、InternLM的techreport(1)、主要结果2、Intern