草庐IT

sherpa-onnx

全部标签

Onnx简介以及使用

目录一、ONNX简介二、使用场景三、常见例子 四、使用步骤1.引入库2.读入数据五、如何查看onnx网络结构和参数六、一个简单例子的实现七、ONNX的其他基本操作1.获取onnx模型的输出层2.获取中间节点的输出数据3.删除指定节点八,技术细节(一些限制的提醒)九,推理速度对比十,参考资料一、ONNX简介   它是微软和Facebook提出的一种表示深度学习模型的开放格式,定义了一套独立于环境和平台的标准格式。二、使用场景   无论你使用什么样的训练框架来训练模型(比如TensorFlow/Pytorch/OneFlow/Paddle),你都可以在训练后将这些框架的模型统一转为ONNX存储。O

离线语音识别 sherpa-ncnn 尝鲜体验

文章目录1、ubuntu编译运行依赖安装下载与编译模型下载运行2、树莓派4B编译运行确认树莓派4B环境交叉编译交叉编译模型下载与运行模型对比测试树莓派4B运行大模型Sherpa-NCNN是一个基于C++的轻量级神经网络推理框架,是kaldi下的一个子项目,它专门针对移动设备和嵌入式系统进行了优化。Sherpa-NCNN的目标是提供高性能、低延迟的推理能力,适用于移动设备和嵌入式系统,可以以满足实时应用需求。仓库地址:https://github.com/k2-fsa/sherpa-ncnn主要功能:语音识别、流式语音识别。即边说话,边识别。不需要访问网络,不需要数据传输,完全本地识别。识别效果

如何在windows系统下将yolov5的pt模型导出为onnx模型

目录前言第一个问题第二个问题第三个问题第四个问题总结前言最近在做本科毕业设计,要求是在树莓派上部署yolo算法来实现火灾检测,在网上查了很多资料,最后选择用yolov5s模型先试着在树莓派上部署,看下效果如何,由于从大佬那里拿到了yolov5火灾检测模型,但想要将它移植到树莓派上第一步要把pt模型转换成onnx模型,原因我想大概是因为树莓派算力不如pc,因此要转换成合适的模型进行部署。一开始我觉得转换模型应该是很简单的一个事情,但是在进行的过程中踩了很多坑,走了很多弯路,因此在这里总结一下,也希望有相同需求的朋友能从这里获得帮助,ps:因为本人水平有限所以能帮到大家很高兴。第一个问题在进行模型

【FunASR】Paraformer语音识别-中文-通用-16k-离线-large-onnx

模型亮点模型文件:damo/speech_paraformer-large-vad-punc_asr_nat-zh-cn-16k-common-vocab8404-pytorchParaformer-large长音频模型集成VAD、ASR、标点与时间戳功能,可直接对时长为数小时音频进行识别,并输出带标点文字与时间戳:ASR模型:Parformer-large模型结构为非自回归语音识别模型,多个中文公开数据集上取得SOTA效果,可快速地基于ModelScope对模型进行微调定制和推理。热词版本:Paraformer-large热词版模型支持热词定制功能,基于提供的热词列表进行激励增强,提升热词的

AI模型互通的新开放生态系统ONNX介绍与实践

导读Facebook与微软联合推出了一种开放式的神经网络切换格式——ONNX,它是一种表征深度学习模型的标准,可以实现模型在不同框架之间进行迁移。ONNX的全称为“OpenNeuralNetworkExchange”,即“开放的神经网络切换”。顾名思义,该项目的目的是让不同的神经网络开发框架做到互通互用。目前,ONNX已经得到PyTorch、Caffe2、CNTK、MXNet以及包括Intel、ARM、Huawei、高通、AMD、IBM等芯片商的支持。按照该项目的设想,ONNX的推出主要是为了解决当下AI生态系统的关键问题之一:开发框架的碎片化。现在有大量的不同框架用来构建和执行神经网络,还有

解决Opencv dnn模块无法使用onnx模型的问题(将onnx的动态输入改成静态)

一、问题来源最近做人脸识别项目,想只用OpenCV自带的人脸检测和识别模块实现,使用OpenCV传统方法:Haar级联分类器人脸检测+LBPH算法人脸识别的教程已经有了,于是想着用OpenCV中的dnn模块来实现,dnn实现人脸检测也有(详细教程可见我的这篇博客https://blog.csdn.net/weixin_42149550/article/details/131474284),问题就是基于cnn的人脸识别咋用opencv的dnn模块实现?一番搜索,发现OpenCV的dnn模块在加载YuNet模型时会报错从官网下载的模型文件:#加载人脸检测模型faceDetector=cv2.Fac

树莓派4b(armv8) 64位系统编译安装onnx

网上大部分树莓派安装onnx的都是基于树莓派3b的,或者说基于armv7架构的。本文记录一下如何在最新的树莓派4b系统(armv8、python3.9)上编译安装onnx的过程。1.查看ARMCPU版本1.1方式1cat/proc/version获取当前系统的内核版本号及系统名称pi@raspberrypi:~/Downloads/pybind11/build$cat/proc/versionLinuxversion6.1.21-v8+(dom@buildbot)(aarch64-linux-gnu-gcc-8(Ubuntu/Linaro8.4.0-3ubuntu1)8.4.0,GNUld(G

测试DWPose的onnx +Unity barracuda

环境:UnityBarracuda3.0.1从github直接拉取的barracuda仓库才能装到这个版本Barracuda以后不再升级了,会迁移到UnityAI大计划里的Sentis我想申请的来着但好像已经不开放了Unity2021.3.20模型:dw-ll_ucoco_384.onnx报了一些错,但是实在没查到对应的解决方法,放弃了。。推测还是因为barracuda这边处理split节点有点问题,但是实在不知道怎么修复报错内容:OnnxImportException:Unexpectederrorwhileparsinglayeronnx::Mul_867oftypeMatMul.Theg

使用 java-onnx 部署 Meta-ai Segment anything 分割一切

 近日,MetaAI在官网发布了基础模型SegmentAnythingModel(SAM)并开源,其本质是用GPT的方式(基于Transform模型架构)让计算机具备理解了图像里面的一个个“对象”的通用能力。SAM模型建立了一个可以接受文本提示、基于海量数据(603138)训练而获得泛化能力的图像分割大模型。图像分割是计算机视觉中的一项重要任务,有助于识别和确认图像中的不同物体,把它们从背景中分离出来,这在自动驾驶(检测其他汽车、行人和障碍物)、医学成像(提取特定结构或潜在病灶)等应用中特别重要。下面是java使用onnx进行推理的分割代码,提示抠图点进行分割,目前还没有文本交互式提示的部署按

tensorflow2.4导出模型转化为onnx模型后,通过tensorrt转化engine模型报错处理

tensorflow2.4训练保存得到.pb文件夹含有两个文件及一个脚本,通过以下语句得到.onnx模型python-mtf2onnx.convert--saved-model****--output ***.onnx --opset***   //opset对应所保存模型的版本,很重要,直接决定后面.onnx模型转化.engine然后通过以下命令行,进行模型简化,否则可能报错:YourONNXmodelhasbeengeneratedwithINT64weights,whileTensorRTdoesnotnativelysupportINT64.Attemptingtocastdownto