草庐IT

langchain-ChatGLM

全部标签

聊聊ChatGLM-6B源码分析(二)

基于ChatGLM-6B第一版,要注意还有ChatGLM2-6B以及ChatGLM3-6B转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote/ChatGLMPreTrainedModel官方的描述是处理权重初始化的抽象类,以及下载和加载预训练模型的接口。掩码如下是GLM模型的掩码结构,在此抽象类中,由get_masks函数处理#转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote/defget_masks(input_ids,device):batch_size,seq_length=input_ids.shap

聊聊ChatGLM-6B源码分析(二)

基于ChatGLM-6B第一版,要注意还有ChatGLM2-6B以及ChatGLM3-6B转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote/ChatGLMPreTrainedModel官方的描述是处理权重初始化的抽象类,以及下载和加载预训练模型的接口。掩码如下是GLM模型的掩码结构,在此抽象类中,由get_masks函数处理#转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote/defget_masks(input_ids,device):batch_size,seq_length=input_ids.shap

ModuleNotFoundError: No module named ‘transformers_modules.chatglm-6b_v1‘的解决方案

  大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为CSDN博客专家、人工智能领域优质创作者。  本文主要介绍了ModuleNotFoundError:Nomodulenamed'transformers_modules.chatglm-6b_v1’的解决方案,希望能对使用huggingfacetransformers的同学们有所帮助。文章目录1.问题描述2.解决方案1.问题描述  今天下载了ChatGLM-6Bv1.1版本的checkpoint

Windows11下私有化部署大语言模型实战 langchain+llama2

一、本机环境1.硬件环境:CPU:锐龙5600X显卡:GTX3070内存:32G注:硬件配置仅为博主的配置,不是最低要求配置,也不是推荐配置。该配置下计算速度约为40tokens/s。实测核显笔记本(i7-1165g7)也能跑,速度3tokens/s。2.软件环境:Windows系统版本:Win11专业版23H2Python版本:3.11Cuda版本:12.3.2VS版本:VS202217.8.3langchain版本:0.0.352llama-cpp-python版本:0.2.27二、安装准备工作1.模型下载大模型有很多种格式,比如Meta官网下载的pth格式,Huggingface下载的g

LangChain 27 AI Agents角色扮演多轮对话解决问题CAMEL

LangChain系列文章LangChain实现给动物取名字,LangChain2模块化prompttemplate并用streamlit生成网站实现给动物取名字LangChain3使用Agent访问Wikipedia和llm-math计算狗的平均年龄LangChain4用向量数据库Faiss存储,读取YouTube的视频文本搜索IndexesforinformationretrieveLangChain5易速鲜花内部问答系统LangChain6根据图片生成推广文案HuggingFace中的image-caption模型LangChain7文本模型TextLangChain和聊天模型ChatL

Chatbot开发三剑客:LLAMA、LangChain和Python

聊天机器人(Chatbot)开发是一项充满挑战的复杂任务,需要综合运用多种技术和工具。在这一领域中,LLAMA、LangChain和Python的联合形成了一个强大的组合,为Chatbot的设计和实现提供了卓越支持。首先,LLAMA是一款强大的自然语言处理工具,具备先进的语义理解和对话管理功能。它有助于Chatbot更好地理解用户意图,并根据上下文进行智能响应。LLAMA的高度可定制性使得开发者可以根据实际需求灵活调整Chatbot的语言处理能力。LangChain作为一个全栈语言技术平台,为Chatbot提供了丰富的开发资源。它整合了多种语言技术,包括语音识别、文本处理和机器翻译,为Chat

聊聊 从源码来看ChatGLM-6B的模型结构

基于ChatGLM-6B第一版,要注意还有ChatGLM2-6B以及ChatGLM3-6B概述ChatGLM是transformer架构的神经网络模型,因此从transformer结构入手,分析其源码结构。transformer结构:转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote/位置编码ChatGLM-6B的位置编码采用的旋转位置编码(RoPB)实现。其源码:classRotaryEmbedding(torch.nn.Module):def__init__(self,dim,base=10000,precision=torch.half,lear

聊聊 从源码来看ChatGLM-6B的模型结构

基于ChatGLM-6B第一版,要注意还有ChatGLM2-6B以及ChatGLM3-6B概述ChatGLM是transformer架构的神经网络模型,因此从transformer结构入手,分析其源码结构。transformer结构:转载请备注出处:https://www.cnblogs.com/zhiyong-ITNote/位置编码ChatGLM-6B的位置编码采用的旋转位置编码(RoPB)实现。其源码:classRotaryEmbedding(torch.nn.Module):def__init__(self,dim,base=10000,precision=torch.half,lear

梳理Langchain-Chatchat-UI接口文档

  在Langchain-Chatchatv0.1.17版本及以前是有前后端分离的Vue项目的,但是v0.2.0后就没有了。所以本文使用的是Langchain-Chatchatv0.1.17版本中的Vue项目。经过一番折腾终于将Langchain-Chatchatv0.1.17版本前端Vue接口和Langchain-Chatchatv0.2.8后端API接口调通了。一.运行Langchain-Chatchat1.拉取源码  拉取Langchain-Chatchat源码(Langchain-Chatchatv0.2.8),如下所示:gitclonehttps://github.com/chatc