草庐IT

langchain-ChatGLM

全部标签

mac M系列芯片安装chatGLM3-6b模型

1环境安装1.1mac安装conda.下载miniconda,并安装curl-Ohttps://repo.anaconda.com/miniconda/Miniconda3-latest-MacOSX-arm64.shshMiniconda3-latest-MacOSX-arm64.sh1.2创建虚拟环境并激活创建名为chatglm3的虚拟环境,python版本为3.10.2激活环境(后续要在这个环境安装pytorch及依赖包)condacreate-nchatglm3python==3.10.2condaactivatechatglm31.3安装pytorch-nightlycondains

M1 Mac从零部署langchain-ChatGLM

一、环境配置1.安装homebrew    1)HomebrewcomplementsmacOS.(Homebrew使macOS更完整。)Homebrew是macOS的套件管理工具,是高效下载软件的一种方法,相当于Linux下的 yum、apt-get 神器,用于下载存在依赖关系的软件包。通俗地说,Homebrew是类似于MacAppStore的一个软件商店。    2)打开终端Terminal,运行/bin/zsh-c"$(curl-fsSLhttps://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)"   3)选择下载源4)下载同意

WebLangChain_ChatGLM:结合 WebLangChain 和 ChatGLM3 的中文 RAG 系统

WebLangChain_ChatGLM介绍本文将详细介绍基于网络检索信息的检索增强生成系统,即WebLangChain。通过整合LangChain,成功将大型语言模型与最受欢迎的外部知识库之一——互联网紧密结合。鉴于中文社区中大型语言模型的蓬勃发展,有许多可供利用的开源大语言模型。ChatGLM、Baichuan、Qwen等大语言模型针对中文交互场景进行了优化,以提升其对中文理解和问答的能力。所以我们还将介绍如何在检索增强生成应用中集成中文社区广泛使用的开源模型ChatGLM3。这一步骤的实施将进一步拓展系统的适用性和性能,使其更好地服务于中文用户。本文配套的代码仓库:https://git

ubuntu 部署 ChatGLM-6B 完整流程 模型量化 Nvidia

ubuntu部署ChatGLM-6B完整流程模型量化Nvidia初环境与设备环境准备克隆模型代码部署ChatGLM-6B完整代码ChatGLM-6B是一个开源的、支持中英双语的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62亿参数的ChatGLM-6B已经能生成相当符合人类偏好的回答本篇

Langchain框架 prompt injection注入

Langchain框架promptinjection注入PromptInjection是一种攻击技术,黑客或恶意攻击者操纵AI模型的输入值,以诱导模型返回非预期的结果Langchain框架LangChain是一个基于大语言模型进行应用开发的框架。所谓大语言模型(LargeLanguageModels,LLMs),是指基于海量语料训练、参数动辄数十亿上百亿的语言模型。除了大家熟知的ChatGPT(由OpenAI研发),还有Google早期研发的BERT、OpenAI的整个GPT系列、Meta近期开源的LLaMA、清华大学的GLM系列、华为的盘古等。LangChain作为一个LLM应用框架,支持调

中英双语大模型ChatGLM论文阅读笔记

论文传送门:[1]GLM:GeneralLanguageModelPretrainingwithAutoregressiveBlankInfilling[2]Glm-130b:Anopenbilingualpre-trainedmodelGithub链接:THUDM/ChatGLM-6B目录笔记AbstractIntroductionThedesignchoicesofGLM-130BThetrainingstabilityofGLM-130B框架总结1.模型架构2.预训练设置3.训练稳定性4.并行策略和模型配置5.量化和推理优化6.结果分析7.相关工作8.结论和经验教训9.伦理评估10.可复

开发篇1:使用原生api和Langchain调用大模型

对大模型的调用通常有以下几种方式:方式一、大模型厂商都会定义http风格的请求接口,在代码中可以直接发起http请求调用;方式二、在开发环境中使用大模型厂商提供的api;方式三、使用开发框架Langchain调用,这个就像java对数据库的调用一样,可以直接用jdbc也可以使用第三方框架,第三方框架调用会封装一些共性问题,比如参数配置,多数据库统一调用方式,连接处理,缓存处理等等,使用第三方框架调用往往会大幅提高开发效率。下面逐一说明几种调用方式方式一:post请求调用,以openai(chatgpt)为例,demo如下,举例代码语言为python,http调用各种语言都有这个能力,个人建议还

聊聊ChatGLM中P-tuning v2的应用

论文PDF地址:https://arxiv.org/pdf/2110.07602.pdf转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote/P-Tuningv2摘录自第三部分桔色块指代可训练的promptembedding;蓝色块是由固定(冻结)的预训练语言模型存储或计算的embedding。DeepPromptTuningcontinuousprompts(连续提示)仅仅能够插入到inputembedding序列层。如此,有两个问题:首先由于序列长度的约束限制,可调参数的数量有限。其次,输入的embedding对模型预测有间接的影响。为了解决这些问题

聊聊ChatGLM中P-tuning v2的应用

论文PDF地址:https://arxiv.org/pdf/2110.07602.pdf转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote/P-Tuningv2摘录自第三部分桔色块指代可训练的promptembedding;蓝色块是由固定(冻结)的预训练语言模型存储或计算的embedding。DeepPromptTuningcontinuousprompts(连续提示)仅仅能够插入到inputembedding序列层。如此,有两个问题:首先由于序列长度的约束限制,可调参数的数量有限。其次,输入的embedding对模型预测有间接的影响。为了解决这些问题

圣诞老人遇见 GenAI:利用大语言模型、LangChain 和 Elasticsearch 破译手写的圣诞信件

在北极的中心地带,圣诞老人的精灵团队面临着巨大的后勤挑战:如何处理来自世界各地儿童的数百万封信件。圣诞老人表情坚定,他决定是时候将人工智能纳入圣诞节行动了。圣诞老人坐在配备了最新人工智能技术的电脑前,开始在JupyterNotebook中编写Python脚本。我们的目标既简单又雄心勃勃:利用生成式人工智能和LLM的力量来解释手写字母并提取必要的数据,并将其组织在Elasticsearch中。安装安装Elasticsearch及Kibana如果你还没有安装好自己的Elasticsearch及Kibana,那么请参考一下的文章来进行安装:如何在Linux,MacOS及Windows上进行安装Ela