草庐IT

CNN-Transformer

全部标签

论文阅读——《Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement》

文章目录前言一、基本原理1.1Retinex理论。1.2Transformer算法。二、论文内容1.网络结构1.1单阶段Retinex理论框架(One-stageRetinex-basedFramework)1.2illuminationestimator1.3光照引导的Transformer(Illumination-GuidedTransformer,IGT)实验结果个人看法总结前言本文试图从原理和代码简单介绍低照度增强领域中比较新的一篇论文——Retinexformer,其效果不错,刷新了十三大暗光增强效果榜单。❗论文名称:Retinexformer:One-stageRetinex-b

论文阅读:GameFormer: Game-theoretic Modeling and Learning of Transformer-based Interactive Prediction

论文链接:https://arxiv.org/pdf/2303.05760.pdf💡摘要在复杂的现实环境中运行的自动驾驶车辆需要准确预测交通参与者之间的交互行为。本文通过用层次博弈论来表述交互预测问题并提出GameFormer模型来解决它的实现。该模型结合了一个Transformer编码器,可以有效地模拟场景元素之间的关系,以及一个新颖的分层Transformer解码器结构。在每个解码级别,除了共享的环境上下文之外,解码器还利用前一级别的预测结果来迭代地完善交互过程。此外,我们提出了一个学习过程,可以调节当前级别的代理行为,以响应前一级别的其他代理的行为。通过对大规模现实世界驾驶数据集的综合实

【python量化】多种Transformer模型用于股价预测(Autoformer, FEDformer和PatchTST等)

写在前面在本文中,我们利用Nixtla的NeuralForecast框架,实现多种基于Transformer的时序预测模型,包括:Transformer,Informer,Autoformer,FEDformer和PatchTST模型,并且实现将它们应用于股票价格预测的简单例子。1NeuralForecastneuralforecast是一个旨在为时间序列预测提供一个丰富的、高度可用和鲁棒的神经网络模型集合的工具库。这个库集成了从传统的多层感知器(MLP)和递归神经网络(RNN)到最新的模型如N-BEATS、N-HiTS、TFT,以及其他高级架构,以适应多样化的预测需求。它的关键功能包括对静态

高分辨率图像合成;可控运动合成;虚拟试衣;在FPGA上高效运行二值Transformer

本文首发于公众号:机器感知高分辨率图像合成;可控运动合成;虚拟试衣;在FPGA上高效运行二值TransformerScalableHigh-ResolutionPixel-SpaceImageSynthesiswithHourglassDiffusionTransformersWepresenttheHourglassDiffusionTransformer(HDiT),animagegenerativemodelthatexhibitslinearscalingwithpixelcount,supportingtrainingathigh-resolution(e.g.$1024\times

基于深度学习的图片上色(Opencv,Pytorch,CNN)

文章目录1.前言2.图像格式(RGB,HSV,Lab)2.1RGB2.2hsv2.3Lab3.生成对抗网络(GAN)3.1生成网络(Unet)3.2判别网络(resnet18)4.数据集5.模型训练与预测流程图5.1训练流程图5.2预测流程图6.模型预测效果7.GUI界面制作8.代码下载1.前言文末附有源码下载地址。灰度图自动上色2.图像格式(RGB,HSV,Lab)2.1RGB想要对灰度图片上色,首先要了解图像的格式,对于一副普通的图像通常为RGB格式的,即红、绿、蓝三个通道,可以使用opencv分离图像的三个通道,代码如下所示:importcv2img=cv2.imread('pic/7.

动手学CV-Pytorch计算机视觉 使用transformer实现OCR字符识别

动手学CV-Pytorch计算机视觉使用transformer实现OCR字符识别6.2.1、数据集简介6.2.2数据分析与字符映射关系构建1.标签最长字符个数统计2.标签所含字符统计3.char和id的映射字典构建4.数据集图像尺寸分析6.2.3如何将transformer引入OCR6.2.4训练框架代码讲解1.准备工作2.Dataset构建3.模型构建4.模型训练5.贪心解码6.2.5小结

视频动作质量评估:论文分享:Action Quality Assessment with TemporalParsing Transformer

ActionQualityAssessmentwithTemporalParsingTransformer摘要:作者发现现有方法通常依赖整体视频表示进行分数回归或排名,这限制了捕获细粒度类内变化的泛化。因此,作者提出一个时间解析转换器,将整体特征分解为时间部分级表示。利用一组可学习的查询表示特定操作的原子时态模式。解码过程将帧表示转换为固定数量的暂时有序部分表示。为获得质量分数,采用了基于部分表示的最先进的对比回归。此外,为解决现有动作质量评估数据集不提供时间部分级标签或分区的问题,提出两种最新的关于解码器交叉注意响应的损失函数:排序损失和稀疏损失。介绍介绍:先前有关动作质量评估的方法主要是基

随机 Transformer

在这篇博客中,我们将通过一个端到端的示例来讲解Transformer模型中的数学原理。我们的目标是对模型的工作原理有一个良好的理解。为了使内容易于理解,我们会进行大量简化。我们将减少模型的维度,以便我们可以手动推理模型的计算过程。例如,我们将使用4维的嵌入向量代替原始的512维嵌入向量。这样做可以更容易手动推理数学计算过程!我们将使用随机的向量和矩阵初始化,但如果你想一起动手试一试的话,你也可以使用自己的值。如你所见,这些数学原理并不复杂。复杂性来自于步骤的数量和参数的数量。我建议你在阅读本博文之前阅读(或一起对照阅读)图解Transform(TheIllustratedTransformer

解析Transformer模型微调:算法、工程实践与高效数据策略

一、引言 在人工智能的黄金时代,Transformer架构已经成为了自然语言处理(NLP)领域的革命性创新。自2017年Vaswani等人首次介绍了这一架构以来,Transformer已经演化出多种变体,各自针对不同的NLP任务提供了专门的优化。这些变体包括BERT(BidirectionalEncoderRepresentationsfromTransformers)等Encoder-Only模型,专注于文本理解任务;GPT(GenerativePretrainedTransformer)等Decoder-Only模型,擅长生成连贯的文本序列;以及标准的Encoder-Decoder模型,如

【论文阅读笔记】Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation

1.介绍Swin-Unet:Unet-likePureTransformerforMedicalImageSegmentationSwin-Unet:用于医学图像分割的类Unet纯Transformer2022年发表在ComputerVision–ECCV2022WorkshopsPaperCode2.摘要在过去的几年里,卷积神经网络(CNN)在医学图像分析方面取得了里程碑式的成就。特别是基于U型结构和跳跃连接的深度神经网络,已经广泛应用于各种医学图像任务中。然而,尽管CNN取得了优异的性能,但由于卷积运算的局部性,它不能很好地学习全局和远程语义信息交互。在本文中,我们提出了Swin-Unet