草庐IT

RedPanda-CPP

全部标签

(2023.12.6)解决部署privateGPT中,安装依赖llama-cpp-python失败。

问题描述-1(gcc编译器问题)CMakeError:CMAKE_C_COMPILERnotset,afterEnableLanguageCMakeError:CMAKE_CXX_COMPILERnotset,afterEnableLanguage--Configuringincomplete,errorsoccurred!出现这个问题是关于设置C和C++编译器的问题,解决思路因为我是新电脑没有安装过gcc相关编辑器,故重新下载了VisualStudiotool2022选择安装。安装好后重新运行llama-cpp-python依赖pipinstall--force-reinstall--no-

[Unity] IL2CPP WebGL 出现错误信息 FS.syncfs

loader.js:1warning:2FS.syncfsoperationsinflightatonce,probablyjustdoingextrawork在Google浏览器中运行WebGL出现的错误是因为写了加载和反序列化本地JSON文件(如下所示),则会输出上述警告publicTLoadLocalData(stringpath)whereT:class{try{using(varsw=newStreamReader(path)){varjson=sw.ReadToEnd();returnJsonUtility.FromJson(json);}}catch(System.Excepti

【QML】QML与cpp交互(一)—— QML直接调用cpp函数

目录1、cpp创建一个类2、将类对象暴露给QML3、QML通过对象直接调用cpp函数1、cpp创建一个类类模板如下: #includeclassvacUdpClient:publicQObject{Q_OBJECTpublic:vacUdpClient(QObject*parent=nullptr):QObject(parent){}//Q_INVOKABLE将当前函数暴露给QMLQ_INVOKABLEdoubletriggerClickEvent(constQString&qstr);private:/*data*/};要求: 使用 Q_OBJECT宏需要继承 QObject类。Q_OBJE

llama.cpp部署(windows)

一、下载源码和模型 下载源码和模型#下载源码gitclonehttps://github.com/ggerganov/llama.cpp.git#下载llama-7b模型gitclonehttps://www.modelscope.cn/skyline2006/llama-7b.git 查看cmake版本:D:\pyworkspace\llama_cpp\llama.cpp\build>cmake--versioncmakeversion3.22.0-rc2CMakesuitemaintainedandsupportedbyKitware(kitware.com/cmake). 二、开始bui

c# - 如何在 Android Player 设置中使用 Stripping Level/IL2CPP 选项 Unity

我正在尝试减少从Unity构建的APK的大小。查看Android播放器设置docs,我发现我可以使用以下选项之一来减小构建的大小:剥离水平:带材组件剥离字节码(仅限iOS)使用微mscorlib剥离引擎代码(仅在使用IL2CPP时可用)我对此有以下疑问:在IOSBuildSizeOptimization中它说:Stripassemblieslevel:thescripts’bytecodeisanalyzedsothatclassesandmethodsthatarenotreferencedfromthescriptscanberemovedfromtheDLLsandthereby

FreeGPT-WebUI(CPP)

1.CppFreeGPTWebUI项目简介CppFreeGPTWebUI是一个开源项目,旨在为GPT模型提供一个简单易用的Web用户界面。这个项目可以帮助用户轻松地在浏览器中与GPT模型进行交互,而无需专业的编程知识。它的web服务器是使用c++实施的,使用c++实现gpt4free的接口项目的GitHub页面:https://github.com/fantasy-peak/cpp-freegpt-webuidockerrun-p8858:8858-it--namefreegptfantasypeak/freegpt:latestdockerrun-p8858:8858-it--namefre

vscode生成tasks.json、launch.json、c_cpp_properties.json文件

在你准备放cpp文件的文件夹中打开vscode,然后ctrl+shift+p搜索命令C/C++:EditConfigurations,如下图所示:进入配置后,修改编译器路径,我这里是下载mingw的是g++编译器,所以填入的是g++.exe的路径,然后在这一栏里继续修改IntelliSense模式,如果用的是g++的话就修改成gcc-x64即可,如下图所示:至此,c_cpp_properties.json配置完成,可以看到在左侧资源栏生成了一个.vscode的文件夹,以及里面有c_cpp_properties.json文件,接下来配置tasks.json文件。先创建一个cpp文件,写入大名鼎鼎

cpp -strlen没有输出多个单词的整个长度[仅C -string]

下面的代码仅输出我输入的第一个单词的长度。我以为strlen会给我多个单词的长度,但事实并非如此。例如,字符串“HelloSir”为我提供了5的输出,而不是8。为什么?#include#includevoidReadString(char*c,intmaxLength);voidGetStringLength(char*c,int*length);intmain(){intlength=0;constintSIZE=20;charcpoint[SIZE];char*refC=cpoint;ReadString(refC,SIZE);GetStringLength(refC,&length);s

大模型部署手记(8)LLaMa2+Windows+llama.cpp+英文文本补齐

1.简介:组织机构:Meta(Facebook)代码仓:https://github.com/facebookresearch/llama模型:llama-2-7b下载:使用download.sh下载硬件环境:暗影精灵7PlusWindows版本:Windows11家庭中文版InsiderPreview22H2内存32GGPU显卡:NvidiaGTX3080Laptop(16G)2.代码和模型下载:下载llama.cpp的代码仓:gitclonehttps://github.com/ggerganov/llama.cpp需要获取原始LLaMA的模型文件,放到models目录下,现在models

【开源技术随笔】005 - Android编译报错:check_vintf.cpp For kernel requirements at matrix level 6

【开源技术随笔】005-Android编译报错:check_vintf.cppForkernelrequirementsatmatrixlevel6解决方法未订阅的兄弟,不建议订阅专栏了已订阅的兄弟,请关注下本文末尾,加联系方式进行技术交流最近添加NFS的Kernel宏控,单编bootimage没问题,下载验证NFS功能也开启OK,但整编Android时就报错如下:[check_vintf.cpp:620]Forkernelrequirementsatmatrixlevel6,ForconfigCONFIG_NFS_FS,value=ybutrequirednLog如下:checkvintfI