草庐IT

pytorch-lightning

全部标签

【pytorch】从零开始,利用yolov5、crnn+ctc进行车牌识别

笔者的运行环境:python3.8+pytorch2.0.1+pycharm+kaggle用到的网络框架:yolov5、crnn+ctc项目地址:GitHub-WangPengxing/plate_identification:利用yolov5、crnn+ctc进行车牌识别1.写在开始之前在学习过目标检测和字符识别后想用yolov5、crnn+ctc做一个车牌识别项目,本意是参考大佬们的项目,怎奈钱包不允许。网上有关车牌检测的基本都是引流贴,甚至有的连用到的公共数据集都不放链接,索性我也不找了,直接找原始数据集,从头开始搞。本文是一篇实战过程记录,仅记录我在车牌识别项目中的工作,不会牵涉过多理

带你上手基于Pytorch和Transformers的中文NLP训练框架

本文分享自华为云社区《全套解决方案:基于pytorch、transformers的中文NLP训练框架,支持大模型训练和文本生成,快速上手,海量训练数据》,作者:汀丶。1.简介目标:基于pytorch、transformers做中文领域的nlp开箱即用的训练框架,提供全套的训练、微调模型(包括大模型、文本转向量、文本生成、多模态等模型)的解决方案;数据:从开源社区,整理了海量的训练数据,帮助用户可以快速上手;同时也开放训练数据模版,可以快速处理垂直领域数据;结合多线程、内存映射等更高效的数据处理方式,即使需要处理百GB规模的数据,也是轻而易举;流程:每一个项目有完整的模型训练步骤,如:数据清洗、

人工智能学习07--pytorch23--目标检测:Deformable-DETR训练自己的数据集

参考https://blog.csdn.net/qq_44808827/article/details/125326909https://blog.csdn.net/dystsp/article/details/125949720?utm_medium=distribute.pc_relevant.none-task-blog-2~default~baidujs_baidulandingword~default-0-125949720-blog-125326909.235^v38^pc_relevant_sort_base2&spm=1001.2101.3001.4242.1&utm_rele

深入浅出Pytorch函数——torch.full_like

分类目录:《深入浅出Pytorch函数》总目录相关文章:·深入浅出Pytorch函数——torch.Tensor·深入浅出Pytorch函数——torch.ones·深入浅出Pytorch函数——torch.zeros·深入浅出Pytorch函数——torch.full·深入浅出Pytorch函数——torch.ones_like·深入浅出Pytorch函数——torch.zeros_like·深入浅出Pytorch函数——torch.full_like返回一个形状与input相同且值全为fill_value的张量。full_like(input,fill_value)相当于torch.ful

循环神经网络RNN完全解析:从基础理论到PyTorch实战

在本文中,我们深入探讨了循环神经网络(RNN)及其高级变体,包括长短时记忆网络(LSTM)、门控循环单元(GRU)和双向循环神经网络(Bi-RNN)。文章详细介绍了RNN的基本概念、工作原理和应用场景,同时提供了使用PyTorch构建、训练和评估RNN模型的完整代码指南。作者TechLead,拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,同济本复旦硕,复旦机器人智能实验室成员,阿里云认证的资深架构师,项目管理专业人士,上亿营收AI产品研发负责人。一、循环神经网络全解1.1什么是循环神经网络循环神经网络(RecurrentNeuralNetwork,RNN)是一类具有内部环状连接的

人工智能(Pytorch)搭建模型5-注意力机制模型的构建与GRU模型融合应用

大家好,我是微学AI,今天给大家介绍一下人工智能(Pytorch)搭建模型5-注意力机制模型的构建与GRU模型融合应用。注意力机制是一种神经网络模型,在序列到序列的任务中,可以帮助解决输入序列较长时难以获取全局信息的问题。该模型通过对输入序列不同部分赋予不同的权重,以便在每个时间步骤上更好地关注需要处理的信息。在编码器-解码器(Encoder-Decoder)框架中,编码器将输入序列映射为一系列向量,而解码器则在每个时间步骤上生成输出序列。在此过程中,解码器需要对编码器的所有时刻进行“注意”,以了解哪些输入对当前时间步骤最重要。在注意力机制中,解码器会计算每个编码器输出与当前解码器隐藏状态之间

【深度学习】【三维重建】windows10环境配置PyTorch3d详细教程

【深度学习】【三维重建】windows10环境配置PyTorch3d详细教程文章目录【深度学习】【三维重建】windows10环境配置PyTorch3d详细教程前言确定版本对应关系源码编译安装Pytorch3d总结前言本人windows10下使用【CodeforNeuralReflectanceSurfaces(NeRS)】算法时需要搭建PyTorch3d环境,故此以详细教程以该算法依赖的环境版本为参照。确定版本对应关系环境版本要求保持一致:CUDA,CUB,Pytorch,Pytorch3d注意这里的cub对应的是真实的物理机安装的cuda版本号(环境变量里配置的cuda),不是虚拟环境下的

一维pytorch注意力机制

最近在研究一维数据,发现目前网络上的注意力机制都是基于二维来构建的,对于一维的,没有查到什么可直接加在网络中的代码,因此本次文章主要介绍常用的三种注意力机制–SENet,CBAM和ECA其一维的代码。1.SEnet注意力机制SE模块允许对特征重新校准,其核心是通过全连接层对全局信息学习,根据损失函数值Loss实现通道权重梯度更新,并获取每个通道特征的权重信息,依据权重值的大小来增加有用特征的学习,抑制不重要的特征信息,提高网络运行效率。具体的过程为:注意力机制传入四个参数,BCWH,因此一维只需传入三个参数,并将二维卷积核换为一维卷积核即可,接下来是模型参数结构展示:2.CBAM注意力机制CB

深度学习Docker使用, (Pytorch/TensorRT/DeepStream),标记上传制作自己的DockerHub

1.更新最新的Nvidia驱动#检查机器驱动建议ubuntu-driversdevices#装12.0驱动sudoaptinstallnvidia-driver-525#重启sudoreboot+-----------------------------------------------------------------------------+|NVIDIA-SMI525.105.17DriverVersion:525.105.17CUDAVersion:12.0||-------------------------------+----------------------+------

DQN基本概念和算法流程(附Pytorch代码)

❀DQN算法原理DQN,DeepQNetwork本质上还是Qlearning算法,它的算法精髓还是让Q估计Q_{估计}Q估计​尽可能接近Q现实Q_{现实}Q现实​,或者说是让当前状态下预测的Q值跟基于过去经验的Q值尽可能接近。在后面的介绍中Q现实Q_{现实}Q现实​也被称为TDTarget再来回顾下DQN算法和核心思想相比于QTable形式,DQN算法用神经网络学习Q值。我们可以理解为神经网络是一种估计方法,神经网络本身不是DQN的精髓,神经网络可以设计成MLP也可以设计成CNN等等,DQN的巧妙之处在于两个网络、经验回放等trick下面介绍下DQN算法的一些trick,是希望帮助小伙伴们梳理