草庐IT

semi-supervised

全部标签

论文阅读 Self-Supervised Burst Super-Resolution

这是一篇ICCV2023的文章,主要介绍的是用自监督的方式进行多帧超分的学习Abstract这篇文章介绍了一种基于自监督的学习方式来进行多帧超分的任务,这种方法只需要原始的带噪的低分辨率的图。它不需要利用模拟退化的方法来构造数据,而且模拟退化的方法又可能存在域差异的问题,可能无法匹配真实场景下的图像分布。另外,它也不同于那种同时拍摄手机和高清单反的弱配对的方法,弱配对的方法,需要进行实际的数据的采集,无法实现大规模的数据构造,而且也不用担心会出现手机与单反的颜色差异问题。为了避免模拟退化以及采集数据对的这些问题,文章提出利用自监督学习的方法,从低清带噪图像中直接学习超分模式。文章作者也说,这个

【论文阅读】OccNeRF: Self-Supervised Multi-Camera Occupancy Prediction with Neural Radiance Fields

原文链接:https://arxiv.org/abs/2312.092431.引言3D目标检测任务受到无限类别和长尾问题的影响。3D占用预测则不同,其关注场景的几何重建,但多数方法需要从激光雷达点云获取的3D监督信号。本文提出OccNeRF,一种自监督多相机占用预测模型。首先使用图像主干提取2D特征。为节省空间,本文直接插值2D特征得到3D体素特征,而不使用交叉注意力。此外,本文考虑相机视野的无限空间,因此将占用场参数化,以表达无界环境。本文将整个3D空间分为内部和外部区域,其中内部区域保留原始坐标,外部区域使用收缩坐标。还设计专门的采样策略和神经渲染,将参数化占用场转化为多相机深度图。使用渲

论文笔记|CVPR2023:Supervised Masked Knowledge Distillation for Few-Shot Transformers

这篇论文的题目是用于小样本Transformers的监督遮掩知识蒸馏论文接收:CVPR2023论文地址:https://arxiv.org/pdf/2303.15466.pdf代码链接:https://github.com/HL-hanlin/SMKD1Motivation1.ViT在小样本学习(只有少量标记数据的小型数据集)中往往会过拟合,并且由于缺乏归纳偏置而导致性能较差;2.目前很多方法使用自监督学习和监督学习来缓解这个问题,但是没有方法能很好平衡监督和自监督两个的学习目标;3.最近提出的自监督掩蔽知识蒸馏方法在各个领域的Transfomrers取得了先进的效果。2Ideas提出了一种新

java - "semi-public service"在Android中是什么意思?

我正在寻找一种方法来禁用通知栏(状态栏)的打开和关闭动画。行为和动画被硬编码在StatusBarService中。文档说StatusBarService是“半公开的”。“半公共(public)服务”是什么意思? 最佳答案 半公开,意味着公众只能访问部分服务。有些功能您无法修改,有些您可以修改。另一个半公开功能的例子是KeyCode,其中KEYCODE_HOME永远不会发送到应用程序,以保护用户免受恶意应用程序的侵害。 关于java-"semi-publicservice"在Android

一文看懂图像格式 RAW、RGB、YUV、Packed/Unpacked、Bayer、MIPI、Planar、Semi-Planar、Interleaved

目录一、通用属性1.Packed/Unpacked2.压缩/非压缩二、RAW1.Bayer格式2.分类3.MIPIRAW三、RGB分类四、YUV1.YUV与RGB转换2.分类3.内存计算五、压缩格式有的人,错过了,一生再也找寻不到。本文详细分析各种图像格式(RAW、RGB、YUV)的分类、内存分布。一篇文章让你看懂。一、通用属性1.Packed/Unpacked一个像素点占n个bit,如果n不是8的倍数,那么就有Packed、Unpacked的概念。试想某格式一个像素10bit(比如Raw10),如果Unpacked,那么实际一个像素要占2Byte=16bit,其中前10bit才有图像数据,后

【论文阅读笔记】Supervised Contrastive Learning

【论文阅读笔记】SupervisedContrastiveLearning摘要自监督批次对比方法扩展到完全监督的环境中,以有效利用标签信息提出两种监督对比损失的可能版本介绍交叉熵损失函数的不足之处,对噪声标签的不鲁棒性和可能导致交叉的边际,降低了泛化能。监督对比损失:将同一类别的所有样本作为正样本,并将批次中其余部分的样本作为负样本进行对比自监督对比对比损失:将每一个锚点(图像的增强版本)与整个批次的其余样本形成的负样本集进行对比。通过黑白小狗照片的展示,考虑类别标签信息会导致嵌入空间中相同类别的元素比自监督情况下更加紧密地对齐自监督对比学习:在嵌入空间中将一个锚点和一个正样本拉在一起,并将锚

【视频异常检测-论文阅读】Anomaly Detection in Video via Self-Supervised and Multi-Task Learning

来源:Georgescu,Mariana-Iuliana,etal.“AnomalyDetectioninVideoviaSelf-SupervisedandMulti-TaskLearning.”2021IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),June2021.Crossref,https://doi.org/10.1109/cvpr46437.2021.01255.OfficialURL: CVPR2021OpenAccessRepositoryCode:GitHub-lilygeorgescu/AED-S

推荐系统论文阅读总结:SIGIR 2023 Multi-behavior Self-supervised Learning for Recommendation

代码:https://github.com/Scofield666/MBSSL论文:https://arxiv.org/pdf/2305.18238.pdf在论文阅读中我会根据自己以往的阅读经历和自己的一些工作进行总结(才疏学浅)~至于为什么要写这个论文阅读文章,也是因为总结学到的东西,总好过匆匆看完一篇论文。在此之后我会不定期更新关于推荐的各大顶会论文的阅读笔记(更多是多行为推荐)。这篇论文的代码阅读也写完了,可以搭配一起看,地址:代码阅读:SIGIR2023Multi-behaviorSelf-supervisedLearningforRecommendation_推荐系统YYDS的博客-

【自监督论文阅读笔记】Emerging Properties in Self-Supervised Vision Transformers

(2021)Abstract        在本文中,我们质疑 自监督学习是否为VisionTransformer(ViT)[16]提供了与卷积网络(convnets)相比突出的新属性。除了 使自监督方法适应这种架构的效果 特别好之外,我们还进行了以下观察:首先,自监督的ViT特征包含关于图像语义分割的显式信息,这在有监督的ViTs和卷积网络中都没有那么明显。其次,这些特征 也是优秀的k-NN分类器,在ImageNet上以小ViT达到78.3%top-1。我们的研究还强调了动量编码器[26]、多裁剪训练[9]以及使用ViT的小patches的重要性。我们将我们的发现应用到一种简单的自监督方法中

论文阅读:Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data

目录摘要Motivation整体架构流程技术细节雷达和图像数据的同步小结论文地址: [2203.16258]Image-to-LidarSelf-SupervisedDistillationforAutonomousDrivingData(arxiv.org)论文代码:GitHub-valeoai/SLidR:OfficialPyTorchimplementationof"Image-to-LidarSelf-SupervisedDistillationforAutonomousDrivingData"摘要  自动驾驶汽车的图像到雷达自我监督蒸馏。  在自动驾驶中两项重要任务:分割或检测稀疏激