草庐IT

IM聊天

全部标签

【好玩儿的Docker项目】利用Matrix+Element打造自己的专属开源聊天室

详情:http://notes.valdikss.org.ru/jabber.ru-mitm/1.前言前阵子有小伙伴对于怎么搭建Matrix有疑问,还专门请咕咕喝咖啡请教==其实Matrix咕咕之前有折腾过,这边就完整分享一下这个项目。PS:这次还包括自己搭建Matrix的客户端——Element(因为国内element似乎被强了,如果你在海外可以直接用官方的Elementapp)Matrix和Element分别是什么?Matrix:Matrix是一个开放的通信协议,用于实时通信,包括即时消息、音频和视频通话。它是去中心化的,这意味着任何人都可以设置自己的Matrix服务器,并与其他Matri

Python 爬取微信聊天记录并分析聊天内容

最近在网上看到别人做的爬取微信聊天记录并分析聊天内容,GitHub上试着运行了一下,这好东西肯定要分享出来给各位,总结一下几年的微信聊天内容😁,废话不多说,下面一步步来。先展示一下,我和我对象的聊天内容分析:源代码和出处:GitHub-LC044/WeChatMsg:提取微信聊天记录,将其导出成HTML、Word、CSV文档永久保存,对聊天记录进行分析生成年度聊天报告大家记得给作者点点star,督促作者开发更优的信息抓取功能。一、微信聊天记录爬取下载微信聊天记录爬取程序:(软件安全正常,直接无视安全问题😎)https://github.com/LC044/WeChatMsg/releases/

羊驼2:开放的基础和微调聊天模型--Llama 2论文阅读

论文地址:https://arxiv.org/pdf/2307.09288.pdfd代码地址:GitHub-facebookresearch/llama-recipes:ExamplesandrecipesforLlama2model问答用了多少个gpu?这篇文档中使用了3.3MGPU小时的计算,使用的硬件类型是A100-80GB,可以扩展到2000个GPU,但这些计算的功耗估计并不包括互连或非GPU服务器功耗,也不包括数据中心冷却系统的功耗。在预训练Llama2模型的过程中,估计总排放量为539tCO2eq,但Meta的可持续性计划直接抵消了100%的排放量。因此,这些预训练成本不需要由其他

基于MongoDB实现聊天记录的存储

一、mongodb简介1.1mongodb简介MongoDB是一个基于分布式文件存储的数据库,使用C++语言编写。它旨在为WEB应用提供可扩展的高性能数据存储解决方案。MongoDB介于关系数据库和非关系数据库之间,是非关系数据库当中功能最丰富、最像关系数据库的。MongoDB将数据存储为一个文档,数据结构由键值(key=>value)对组成。MongoDB文档类似于JSON对象,字段值可以包含其他文档、数组及文档数组。它支持的数据结构非常松散,是类似json的bson格式,因此可以存储比较复杂的数据类型。MongoDB最大的特点是它支持的查询语言非常强大,其语法有点类似于面向对象的查询语言,

WebSocket 通信流程,注解和Spring实现WebSocket ,实战多人聊天室系统

一、前言实现即时通信常见的有四种方式-分别是:轮询、长轮询(comet)、长连接(SSE)、WebSocket。①短轮询很多网站为了实现推送技术,所用的技术都是轮询。轮询是在特定的的时间间隔(如每1秒),由客户端浏览器对服务器发出HTTP请求,然后由服务器返回最新的数据给客户端的浏览器。优点:后端编码比较简单缺点:这种传统的模式带来很明显的缺点,由于HTTP请求是单向的,是只能由客户端发起请求,由服务端响应的【请求-响应模式】,即客户端的浏览器需要不断的向服务器发出请求,然而HTTP请求可能包含较长的头部,其中真正有效的数据可能只是很小的一部分,显然这样会浪费很多的带宽等资源。​短轮询②长轮询

基于LLaVA开源模型打造视频聊天助手

简介大型语言模型已经证明自己是一项革命性的技术。目前,人们已经开发出了许多基于大型语言模型功能的应用程序,而且预计很快还会有更多的应用程序问世。大型语言模型最有趣的应用之一是将其部署为智能助手,它们能够帮助人类用户完成各种任务。人们已经能够通过指令微调以及从人类的反馈中经强化学习训练出聊天模型,而且这些模型已经在遵循人类指令和执行指定任务方面表现出非常有前景的功能。然而,这些模型在仅凭语言指令执行任务方面表现出非常有限的适用性。多模式会话模型旨在释放大型语言模型的力量,以解决需要将自然语言与其他模式相结合才能解决的问题。特别是,自从GPT-4V引入视觉功能以来,视觉语言模型受到了越来越多的关注

使用WebSocket实现网页聊天室

一、引言1.问题引入HypertextTransferProtocol(HTTP)协议一种无状态的、应用层的、以请求/应答方式运行的协议,它使用可扩展的语义和自描述消息格式,与基于网络的超文本信息系统灵活的互动.因为http通信只能由客户端发起,服务器返回查询结果,HTTP协议做不到服务器主动向客户端推送信息,服务器有连续的状态变化,客户端要获知就非常麻烦。我们只能使用轮询:每隔一段时候,就发出一个询问,了解服务器有没有新的信息。最典型的场景就是聊天室。轮询的效率低,非常浪费资源(因为必须不停连接,或者HTTP连接始终打开);2.消息推送常见方式常见的消息推送发送:轮询,长轮询,SSE,Web

基于Python的微信聊天记录分析——数据获取

最近突发奇想,作为程序员,想利用掌握的Python和NLP技术分析分析自己和女朋友的微信聊天记录,因此开创了这个系列,本篇为第一篇,主要讲解如何获取相关数据,还涉及编程环境配置等内容。希望和大家多多交流,共同进步!一.环境配置1.Python环境配置本篇文章中,整体Python代码开发环境是基于Anaconda搭建的~在CSDN中,讲Anaconda安装的的文章实在太多太多啦(包括安装完之后基本的一些镜像源等等内容的配置),安装详细过程小白同学们可以移步其他文章看一看,我这里只针对Anaconda中Python环境的新建与配置进行简单介绍,步骤如下:第一步:Anaconda安装完毕后,打开Pr

LLM应用开发与落地:使用gradio十分钟搭建聊天UI

一、背景如果你是做LLM应用开发的,特别是做后端开发,你一定会遇到怎么快速写一个聊天UI界面来调试prompt或agent的问题。这时候的你可能在苦恼中,毕竟react.js,next.js,css,html也不是每个人都那么熟练,对吧?即使你是做前端开发的,你也可以尝试一下Gradio,哪天有人给你提了一个调试界面的需求,原本要半天的工作现在只需要十分钟了,多余的时机用来学习或享受生活,多美(或者,你让后端自己用Gradio搞一个,嘿嘿)。类似于Gradio这种低代码快速搭建webui的方案中,比较成熟还有Streamlit、Chainlit和dash等。这些方案都可以快速实现ChatGPT

离线AI聊天清华大模型(ChatGLM3)本地搭建指南

随着人工智能技术的飞速发展,聊天机器人成为了一个热门的研究领域。清华大学研发的ChatGLM3模型,作为其中的佼佼者,为开发者提供了强大的自然语言处理能力。本文将指导您如何在本地搭建ChatGLM3模型,实现离线AI聊天功能。一、前置准备在开始搭建之前,您需要准备以下物品:一台性能良好的计算机,建议配置至少8GB内存和2GB显存的显卡。安装Python3.8或更高版本。安装必要的Python库,如torch、transformers等。下载ChatGLM3模型文件。二、安装依赖在搭建过程中,您需要使用到一些Python库。您可以通过以下命令安装这些库:pip install torch tra