草庐IT

unsupervised-learning

全部标签

java - 信号量 : Where do I learn about basic concepts such as permits, 公平、闯入等

Semaphore类概述developer.android.com看起来不错-对于那些已经熟悉这些概念和术语的人来说。我熟悉那里的一些首字母缩略词和其他行话(例如FIFO、锁等),但其他的如permits、fairness和barging对我来说是新的。您能否推荐一个很好的在线资源来解释这些概念?(我大概能弄清楚什么是permits和fairness但barging在这一点上是未知数)。编辑:收到以下两个答案后,我意识到我需要刷新信号量(重新获取()术语)。我发现以下资源很有用:Semaphore_(programming)IntroductiontoSemaphores经过理查德·霍

【论文笔记】OpenAI宫斗背后:发现了可能优于小鸡毛表现的机器人,AGI的希望 Q* search and Q transformer(A star search with Q-Learning)

前言    最近OpenAI的宫斗剧上演的精妙绝伦,简直就是《硅谷》+《继承》,强烈推荐这两部剧集。AIGC的群里都在说Q*是揭示AI接近AGI的一篇论文,那就费点时间拨开云雾吧。为了方便大众更好地理解Q*,本人在快速浏览过论文后首先得出此结论公式:        Q*= (1992年的Q-learning+1968年的Astar算法)*DeepTransformerLearning    本篇文章解读两篇论文。强烈建议延伸阅读第二篇文章的视频:Q-TransformerQ-Transformer简介之机器人如何实现自主Q学习的动画1、第一篇介绍Q*search论文全称是:A*SEARCHWI

多标签分类论文笔记 | (含代码复现,巨坑总结)Combining Metric Learning and Attention Heads...(MLD-TResNet-L-AAM/GAT+AAM)

个人论文精读笔记,主要是翻译+心得,欢迎旁观,如果有兴趣可以在评论区留言,我们一起探讨。Paper:https://arxiv.org/pdf/2209.06585v2.pdfCode:https://github.com/openvinotoolkit/deep-object-reid/tree/multilabel文章目录一、论文翻译+理解0.摘要1.介绍2.相关工作3.方法3.1模型架构3.2Transformer多标签分类头3.3图注意力多标签分支(GAT)3.4角边缘二值分类(AAM,结合了ASL和度量学习的一种loss)3.5训练策略的细节4.实验5.结论二、代码复现0.写在前面1

【scikit-learn基础】--概述

Scikit-learn是一个基于Python的开源机器学习库,它提供了大量的机器学习算法和工具,方便用户进行数据挖掘、分析和预测。Scikit-learn是基于另外两个知名的库Scipy和Numpy的,关于Scipy和Numpy等库,之前的系列文章中有介绍:Scipy基础系列Numpy基础系列1.概要自从AlphaGo再度带起机器学习和AI的热潮以来,我们听到最多的机器学习框架是TensorFlow,PyTorch以及Keras等等。Scikit-learn与它们相比,知名度要低不少,这是因为Scikit-learn库关注的是传统的机器学习领域中经典的,被广泛应用和验证的算法。它完全不涉及T

ExposureDiffusion: Learning to Expose for Low-light Image Enhancement论文阅读笔记

南洋理工大学、鹏城实验室、香港理工大学在ICCV2023发表的暗图增强论文。用diffusion模型来进行raw图像暗图增强,同时提出了一个自适应的残差层用来对具有不同信噪比的不同区域采取不同的去噪策略。方法的框图如下所示:一张raw图片可以由信号和噪声组成,其中信号是曝光时间、增益和场景光子转化为电子数量三者乘积,噪声是由服从泊松分布的散粒噪声和与信号相独立的噪声的加和:文章定义暗图增强的目标为从一张λt=λT\lambda_t=\lambda_Tλt​=λT​的暗图XTX_TXT​恢复出一张λt=λ0>λT\lambda_t=\lambda_0>\lambda_Tλt​=λ0​>λT​的正

A Blockchain-Enabled Federated Learning System with Edge Computing for Vehicular Networks边缘计算和区块链

面向车载网络的边缘计算区块链联邦学习系统(学习笔记)摘要:在大多数现有的联网和自动驾驶汽车(CAV)中,从多辆车收集的大量驾驶数据被发送到中央服务器进行统一训练。然而,在数据共享过程中,数据隐私和安全没有得到很好的保护。此外,集中式体系结构还存在一些固有问题,如单点故障、过载请求、无法容忍的延迟等。在本文中,我们提出了Bift:一个完全去中心化的机器学习系统,结合了联合学习和区块链,为CAV提供了一个保护隐私的ML过程。Bift使分布式CAV能够使用自己的驱动数据在本地训练机器学习模型,然后将本地模型上传到最近的移动边缘计算节点(MECN),以获得更好的全局模型。更重要的是,Bift提供了一个

【论文阅读】Equivariant Contrastive Learning for Sequential Recommendation

【论文阅读】EquivariantContrastiveLearningforSequentialRecommendation文章目录【论文阅读】EquivariantContrastiveLearningforSequentialRecommendation1.来源2.介绍3.前置工作3.1序列推荐的目标3.2数据增强策略3.3序列推荐的不变对比学习4.方法介绍4.1顺序推荐的等变对比学习4.2轻度增强的学习不变性4.3侵入式增强的学习等变性4.4优化4.4.1模型训练和推理4.4.2模型复杂度5.实验5.1数据集5.2总的结果5.3时间复杂度分析6.总结1.来源2023-RecSyshtt

【论文阅读笔记】Supervised Contrastive Learning

【论文阅读笔记】SupervisedContrastiveLearning摘要自监督批次对比方法扩展到完全监督的环境中,以有效利用标签信息提出两种监督对比损失的可能版本介绍交叉熵损失函数的不足之处,对噪声标签的不鲁棒性和可能导致交叉的边际,降低了泛化能。监督对比损失:将同一类别的所有样本作为正样本,并将批次中其余部分的样本作为负样本进行对比自监督对比对比损失:将每一个锚点(图像的增强版本)与整个批次的其余样本形成的负样本集进行对比。通过黑白小狗照片的展示,考虑类别标签信息会导致嵌入空间中相同类别的元素比自监督情况下更加紧密地对齐自监督对比学习:在嵌入空间中将一个锚点和一个正样本拉在一起,并将锚

AI and Machine Learning Can Help Us Bridge the Gap Betw

作者:禅与计算机程序设计艺术1.简介AI(ArtificialIntelligence)和机器学习(MachineLearning)目前已经成为各行各业领域的热点话题。虽然两者经历了多年发展,但到目前为止仍然存在很多差距。AI可以理解为一种人工智能技术,它允许机器像人一样具有自主意识、人类的天赋技能以及智慧,能够进行高度自动化、精准分析、自我学习等功能。而机器学习则是一种数据驱动的方法,可以从大量数据的中提取知识并对未知数据做出预测、分类或回归。然而,人类和机械之间的鸿沟依旧很大。如何通过AI和机器学习工具来解放生产力,让人类更加贴近客观世界,实现机器“超越”人的智能?17届艾伦·图灵奖获得者

深度学习到底在做什么? Deep Learning ——人工智能时代的超算中心

作者:禅与计算机程序设计艺术文章目录1.背景介绍2.核心概念与联系2.1深度学习(DeepLearning)1.多层感知机(MultilayerPerceptron,MLP):2.卷积神经网络(ConvolutionalNeuralNetwork,CNN):3.长短期记忆网络(LongShort-TermMemory,LSTM):2.2机器学习(MachineLearning)1.线性回归(LinearRegression):2.逻辑回归(LogisticRegression):