草庐IT

AMQP-CPP

全部标签

cv2.error: OpenCV(4.7.0) D:\a\opencv-python\opencv-python\opencv\modules\core\src\arithm.cpp:1726:

小白没怎么学过opencv 使用时出现cv2.error:OpenCV(4.7.0)D:\a\opencv-python\opencv-python\opencv\modules\core\src\arithm.cpp:1726:error:(-215:Assertionfailed)!_src.empty()infunction'cv::inRange 错误,查阅资料,无论是路径还是文件名 都没有问题,于是 选择将opencv-python卸载掉。1、win+R,打开cmd,输入piplist;这里我输入时,出现pip不存命令这样的问题,此处应该是环境变量没有配置好,应该将打开我的电脑属性高

Unity2020 打包报错:windowUnity.IL2CPP.Building.BuilderFailedException

在打包的时候报错:windowUnity.IL2CPP.Building.BuilderFailedException解决方法:把IL2CPP换成mono,重新打包即可依次点击:Edit-Player-Configuration-Mono再次重新打包即可

Unity WebGL 打包il2cpp.exe did not run properly!

Exception:C:\ProgramFiles\Unity\Hub\Editor\2019.4.36f1c1\Editor\Data\il2cpp/build/deploy/net471/il2cpp.exedidnotrunproperly!是中文问题,WebGL的illcpp对执行过程中一点点的中文都不允许存在。包括硬盘的中文名称参考如何更改磁盘盘符的名字我的文档中的用户名有中文系统用户名有中文win+L封锁之后解锁会出现当前系统用户是否有中文打包路径中有中文这个很好解决环境变量中有中文由于之前的机主这样设置windows用户名,导致各个相关路径都有中午,这个询问过淘宝专业的客服后也说

使用Llama.cpp在CPU上快速的运行LLM

大型语言模型(llm)正变得越来越流行,但是它需要很多的资源,尤其时GPU。在这篇文章中,我们将介绍如何使用Python中的llama.cpp库在高性能的cpu上运行llm。大型语言模型(llm)正变得越来越流行,但是它们的运行在计算上是非常消耗资源的。有很多研究人员正在为改进这个缺点而努力,比如HuggingFace开发出支持4位和8位的模型加载。但它们也需要GPU才能工作。虽然可以在直接在cpu上运行这些llm,但CPU的性能还无法满足现有的需求。而GeorgiGerganov最近的工作使llm在高性能cpu上运行成为可能。这要归功于他的llama.cpp库,该库为各种llm提供了高速推理

使用llama.cpp在本地搭建vicuna 13B语言模型

有人做了windows下的脚本放到github上了,直接运行就可以了。我在本机试了一下13B的模型能运行,但生成速度非常慢,回复一个问题基本上要花5分钟以上的时间。我的机器配置3900X 32G内存。https://github.com/mps256/vicuna.ps1

Seal库官方示例(一):bfv_basics.cpp解析

尽量理论来理解代码。完整代码或者\native\examples里面说到前面的话两段官方的话大致意思就是,这个库有门槛,需要先学会同态的概念,提供的例子必须要看要理解。必看的例子如下,代码解析基础加密参数设置三个核心参数首先要知道这里的BFV代码是基于RLWE的,也就是涉及到多项式运算,同时它只能加密整数。回忆一下RLWE的实例(b=as+e,a)(b=as+e,a)(b=as+e,a)中的部分是取自于多项式环Rq=Zq[x]/f(x)R_q=\mathbb{Z}_q[x]/f(x)Rq​=Zq​[x]/f(x)(其中f(x)=xN+1f(x)=x^N+1f(x)=xN+1),明文空间是RtR

[ WARN:0@0.107] global D:\a\opencv-python\opencv-python\opencv\modules\imgcodecs\src\loadsave.cpp……

项目场景:使用opencv库读取图像问题描述[WARN:0@0.107]globalD:\a\opencv-python\opencv-python\opencv\modules\imgcodecs\src\loadsave.cpp(239)cv::findDecoderimread_(‘E:\02_数据\01_GID\image\GF2_PMS1__L1A0000564539-MSS1.tif’):can’topen/readfile:checkfilepath/integritypath=r"E:\02_数据\01_GID\image\GF2_PMS1__L1A0000564539_MSS

Dependency ‘org.springframework.bootspring-boot-starter-amqp not found 的解决方法

在学习RabbitMQ的时候创建SpringBoot项目的时候,勾选了rabbitMQ依赖: 项目构建完,打开pom.xml发现爆红 一开始以为是因为没添加版本的问题,于是尝试添加各种版本,包括网上说的2.1.7.RELEASE,以及在https://mvnrepository.com里找各种最新版都不行。然后控制台发现说是依赖在aliyun仓库找不到。原来的maven仓库的配置的来源大致是 https://maven.aliyun.com/nexus/content/repositories/....... 然后就修改成如下:aliyunmaven*阿里云公共仓库https://maven.

Dependency ‘org.springframework.bootspring-boot-starter-amqp not found 的解决方法

在学习RabbitMQ的时候创建SpringBoot项目的时候,勾选了rabbitMQ依赖: 项目构建完,打开pom.xml发现爆红 一开始以为是因为没添加版本的问题,于是尝试添加各种版本,包括网上说的2.1.7.RELEASE,以及在https://mvnrepository.com里找各种最新版都不行。然后控制台发现说是依赖在aliyun仓库找不到。原来的maven仓库的配置的来源大致是 https://maven.aliyun.com/nexus/content/repositories/....... 然后就修改成如下:aliyunmaven*阿里云公共仓库https://maven.

llama.cpp LLM模型 windows cpu安装部署

参考:https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/https://blog.csdn.net/qq_38238956/article/details/130113599cmakewindows安装参考:https://blog.csdn.net/weixin_42357472/article/details/131314105llama.cpp下载编译1、下载:gitclonehttps://github.com/ggerganov/llama.cppcdllama.cpp2、编译mkdirbuildcdbui