草庐IT

论文阅读-Pruning for Protection: Increasing Jailbreak Resistance in Aligned LLMs Without Fine-Tuning

研究背景:大型语言模型(LLMs)在生成有害和非法内容方面存在脆弱性,这类攻击被称为“越狱”(jailbreaking)提示。越狱攻击通过精心设计的提示,诱使模型绕过安全对齐机制,生成有害内容。随着LLMs的普及和用户对这些模型的安全性要求提高,研究如何提高LLMs对越狱攻击的抵抗力变得尤为重要。过去方案和缺点:以往的研究主要集中在通过人类反馈的强化学习(RLHF)等方法对LLMs进行微调,以提高其安全性。然而,这些方法通常需要额外的训练,并且在模型压缩(如剪枝)方面对安全性的影响尚不明确。此外,模型压缩可能会影响模型的泛化能力和鲁棒性,但具体效果因压缩方法和实施细节而异。本文方案和步骤:本文

AIGC知识速递——Google的Bert模型是如何fine-tuning的?

Look!👀我们的大模型商业化落地产品📖更多AI资讯请👉🏾关注Free三天集训营助教在线为您火热答疑👩🏼‍🏫选择合适的预训练模型:从预训练的BERT模型开始,例如Google提供的BERT-base或BERT-large。这些模型已经在大量文本数据上进行过预训练了,我们如何对BERT模型进行fine-tuning呢?准备和预处理数据:集针对特定任务的数据集。例如,情感分析任务的数据集通常包含文本和对应的情感标签。将数据分成训练集、验证集和测试集。使用BERT提供的tokenizer将文本转换为tokenids。同时生成attentionmasks和tokentypeids,这些是BERT模型所

2024年1月11日最热AI论文Top5:开源界Stable Diffusion杀手、Prompt-tuning、零和游戏博弈

本文整理了今日发表在ArXiv上的AI论文中最热门的TOP5。以下内容由 赛博马良-「AI论文解读达人」 智能体生成,人工整理排版。「AI论文解读达人」智能体可提供每日最热论文推荐、AI论文解读等功能。如需查看其他热门论文,欢迎移步saibomaliang.com ^_^TOP1PIXART-δ:FastandControllableImageGenerationwithLatentConsistencyModels标题:秒出大作!清华&HuggingFace联手打造PIXART-δ,图像生成速度提升7倍,开源界的StableDiffusion杀手标签:HuggingFace、Tsinghua

ImageBind-LLM: Multi-modality Instruction Tuning 论文阅读笔记

ImageBind-LLM:Multi-modalityInstructionTuning论文阅读笔记Method方法BindNetworkRMSNorm的原理及与LayerNorm的对比RelatedWord/PriorWorkLLaMA-Adapter联系我们本文主要基于LLaMA和ImageBind工作,结合多模态信息和文本指令来实现一系列任务。训练中仅使用图像文本信息作为多模态信息提取能力的训练数据(onlyleveragethevision-languagedataformulti-modalityinstructiontuning)。Github代码link.Method方法对于一

聊聊ChatGLM中P-tuning v2的应用

论文PDF地址:https://arxiv.org/pdf/2110.07602.pdf转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote/P-Tuningv2摘录自第三部分桔色块指代可训练的promptembedding;蓝色块是由固定(冻结)的预训练语言模型存储或计算的embedding。DeepPromptTuningcontinuousprompts(连续提示)仅仅能够插入到inputembedding序列层。如此,有两个问题:首先由于序列长度的约束限制,可调参数的数量有限。其次,输入的embedding对模型预测有间接的影响。为了解决这些问题

聊聊ChatGLM中P-tuning v2的应用

论文PDF地址:https://arxiv.org/pdf/2110.07602.pdf转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote/P-Tuningv2摘录自第三部分桔色块指代可训练的promptembedding;蓝色块是由固定(冻结)的预训练语言模型存储或计算的embedding。DeepPromptTuningcontinuousprompts(连续提示)仅仅能够插入到inputembedding序列层。如此,有两个问题:首先由于序列长度的约束限制,可调参数的数量有限。其次,输入的embedding对模型预测有间接的影响。为了解决这些问题

【文生图】Stable Diffusion XL 1.0模型Full Fine-tuning指南(U-Net全参微调)

文章目录前言重要教程链接以海报生成微调为例总体流程数据获取POSTER-TEXTAutoPosterCGL-DatasetPKUPosterLayoutPosterT80KMovie&TVSeries&AnimePosters数据清洗与标注模型训练模型评估生成图片样例宠物包商品海报护肤精华商品海报一些TipsMata:EMU(ExpressiveMediaUniverse)ideogramDALL-E3关于模型优化ExamplesofCommonlyUsedNegativePrompts:前言StableDiffusion是计算机视觉领域的一个生成式大模型,能够进行文生图(txt2img)和图

对 ChatGLM-6B 做 LoRA Fine-tuning

对ChatGLM-6B做LoRAFine-tuning搭建依赖环境加载模型和Tokenizer分析模型结构配置LoRA构建数据集定义常量测试Tokenizer的编解码定义Prompt构建AttentionMask和PositionIDs创建数据集开始训练预测保存训练模型重载训练后的模型ChatGLM-6B是一个支持中英双语的对话语言模型,基于GLM(GeneralLanguageModel)。它只有62亿个参数,量化后最低(INT4量化)只需要6GB的显存,完全可以部署到消费级显卡上。在实际使用这个模型一段时间以后,我们发现模型的对话表现能力确实非常不错。那么,基于这个模型做Fine-tuni

MySQL调优工具:MySQLtuner.pl及tuning-primer.sh

一、概述MySQL调优工具是用于分析和优化MySQL数据库性能的软件工具。它们可以帮助识别潜在的性能瓶颈、优化查询性能、调整配置参数以及提高数据库的吞吐量和响应时间。今天分享2个常用的工具。mysqltuner.pl:一款免费的Perl脚本工具,用于检查和优化MySQL服务器的配置参数。MySQLTuner会分析MySQL的状态和配置,提供建议来改进性能和安全性。tuning-primer.sh:是一种Shell脚本工具,用于评估和优化MySQL服务器的配置参数。它可以帮助您检查MySQL服务器的状态和配置,并提供相应的建议和优化建议。二、解决方案1、mysqltuner.plmysqltun

基于 P-Tuning v2 进行 ChatGLM2-6B 微调实践

微调类型简介1.SFT监督微调:适用于在源任务中具有较高性能的模型进行微调,学习率较小。常见任务包括中文实体识别、语言模型训练、UIE模型微调。优点是可以快速适应目标任务,但缺点是可能需要较长的训练时间和大量数据。2.LoRA微调:通过高阶矩阵秩的分解减少微调参数量,不改变预训练模型参数,新增参数。优点是减少了微调的参数量和成本,同时能达到与全模型微调相近的效果。3.P-tuningv2微调:引入了prefix-tuning的思想,每一层都加入了prefix,并采用了多任务学习。解决了P-tuningv1中序列标注任务效果不佳和普遍性差的问题。其参数对象是各层的prefix。优点是适用于多任务