草庐IT

ChatGLM2

全部标签

离线AI聊天清华大模型(ChatGLM3)本地搭建

在特定的情况下,要保证信息安全的同时还能享受到AIGC大模型带来的乐趣和功能,那么,离线部署就能帮助到你,最起码,它是一个真正可用的方案。大模型本身清华的(ChatGLM3),为的是对中文支持友好,另外就是我也很看好它,毕竟一直在优化自己的模型,提升模型的质量。如果基础环境没有布置好可以参考我上篇文章《Ubuntu22.04TeslaV100s显卡驱动,CUDA,cuDNN,MiniCONDA3环境的安装》。ChatGLM3(ChatGLM3-6B)项目地址https://github.com/THUDM/ChatGLM3大模型是很吃CPU和显卡的,所以,要不有一个好的CPU,要不有一块好的显

聊聊ChatGLM-6B部署与微调的深入理解

ChatGLM的部署,主要是两个步骤:在Github上下载chatglm的库文件在HuggingFace上下载模型参数与配置文件ChatGLM包从Github上看ChatGLM项目文件的结构来看,仅仅是包含三种部署方式的py代码与微调的py代码而相关的实现细节,比如神经网络、激活函数、损失函数等具体的实现,并不在该项目源码中。不管以哪种方式部署,最核心就是三句代码,其作用是引入模型参数,初始化transformers配置;以web部署的方式为例:tokenizer=AutoTokenizer.from_pretrained("THUDM/chatglm-6b",trust_remote_cod

使用LLaMA-Factory微调ChatGLM3

1、创建虚拟环境略2、部署LLaMA-Factory(1)下载LLaMA-Factoryhttps://github.com/hiyouga/LLaMA-Factory(2)安装依赖pip3install-rrequirements.txt(3)启动LLaMA-Factory的web页面CUDA_VISIBLE_DEVICES=0pythonsrc/train_web.py得到如下页面:3、ChatGLM3模型微调设置如下参数,点击开始即可:点击“预览命令”,可以看到要执行的python脚本,如下所示:CUDA_VISIBLE_DEVICES=0pythonsrc/train_bash.py\

在Mac m1运行ChatGLM3-6B cpu版本1-3秒出结果

实测:输入内容:295个字,1.9秒开始出结果,这个速度接近T4。具体过程如下:1.准备环境gitclone--recursivehttps://github.com/li-plus/chatglm.cpp.git&&cdchatglm.cppgitsubmoduleupdate--init--recursivepython3-mpipinstall-Upippython3-mpipinstalltorchtabulatetqdmtransformersacceleratesentencepiece2.下载chatglm3-6bbrewinstallgit-lfsgitlfsinstallgi

ChatGLM3-6B 的调用参数说明,chat 与stream_chat 接口函数的参数说明

ChatGLM3-6B是一个语言大模型,最近在评估这个模型,但发现它的文档有限,只能从demo代码中猜测调用的参数的含义,准确度是有限的;于是,通过查看源代码来研究,目前整理笔记如下:ChatGLM3-6B的调用接口有两个,一个是chat接口,一个是stream_chat接口接口函数的实现位于代码chatglm3-6b/blob/main/modeling_chatglm.py中一、chat接口chat接口的原型如下:defchat(self,tokenizer,query:str,history:List[Dict]=None,role:str="user",max_length:int=8

LLaMa、Qwen、ChatGLM、ChatGLM2的区别

LLaMa、Qwen、ChatGLM、ChatGLM2的区别以下比较的前提是首先和BERT(transfomer)的对比感谢帮忙给我githubrepository的star,更多最新模型长期更新:https://github.com/zysNLP/quickllmLLaMa:去掉biasLayNorm方式:RMSnorm:https://zhuanlan.zhihu.com/p/650231190#torch自带LayerNormifself.norm_mode=='torch_buildin': returnF.layer_norm(hidden_states,self.normalize

使用vLLM和ChatGLM3-6b批量推理

当数据量大的时候,比如百万级别,使用ChatGLM3-6b推理的速度是很慢的。发现使用vLLM和ChatGLM3-6b批量推理极大的提高了推理效率。本文主要通过一个简单的例子进行实践。1.安装vLLM和PyTorch[2]除了Python(本文使用3.11)、CUDA(本文使用11.8)外,还要安装vllm、pytorch、xformers等库,特别注意版本要一致。官方提供类库版本主要是针对CUDA12.1版。如下所示:# 用CUDA 11.8安装vLLM# 指定vLLM版本export VLLM_VERSION=0.2.6# 指定Python版本export PYTHON_VERSION=3

【大模型知识库】(2):开源大模型+知识库方案,docker-compose部署本地知识库和大模型,毕昇+fastchat的ChatGLM3,BGE-zh模型,通过拖拽/配置方式实现大模型编程

1,关于bisheng项目https://www.bilibili.com/video/BV1xi4y1e7MD/【大模型知识库】(2):开源大模型+知识库方案,docker-compose部署本地知识库和大模型,毕昇+fastchat的ChatGLM3,BGE-zh模型2,关于bisheng项目Bisheng是一款领先的开源大模型应用开发平台,赋能和加速大模型应用开发落地,帮助用户以最佳体验进入下一代应用开发模式。“毕昇”是活字印刷术的发明人,活字印刷术为人类知识的传递起到了巨大的推动作用。我们希望“毕昇”同样能够为智能应用的广泛落地提供有力的支撑。欢迎大家一道参与。Bisheng基于Apa

【ChatGPT】预训练模型微调及其应用(ChatGLM-6B、duckduckgo_search、GPT在科研的应用等)

noteinstructGPT(基于提示学习的系列模型)——>GPT3.5(大规模预训练语言模型)——>ChatGPT模型(高质量数据标注+反馈学习)。chatGPT三大技术:情景学习、思维链、自然指令学习。GPT4飞跃式提升:多模态、输入字符数量、推理能力、文本创造,如poem、解释图片含义、图表计算等,2022年8月完成训练。论文:https://cdn.openai.com/papers/gpt-4.pdfChatGPTPlus:集成GPT-4的ChatGPT升级版,https://chat.openai.com/chat可以利用chatGPT获取更高质量数据文章目录note一、预训练模

安装LLaMA-Factory微调chatglm3,修改自我认知

安装gitclonehttps://github.com/hiyouga/LLaMA-Factory.gitcondacreate-nllama_factorypython=3.10condaactivatellama_factorycdLLaMA-Factorypipinstall-rrequirements.txt之后运行单卡训练,CUDA_VISIBLE_DEVICES=0pythonsrc/train_web.py,按如下配置demo_tran.shCUDA_VISIBLE_DEVICES=0pythonsrc/train_bash.py\--stagesft\--model_name