草庐IT

Networks

全部标签

《Towards Open Set Deep Networks》:一文搞懂开集识别算法 OpenMax:

一、文章涉及论文源码《TowardsOpenSetDeepNetworks》:https://github.com/abhijitbendale/OSDN《Meta-Recognition:TheTheoryandPracticeofRecognitionScoreAnalysis》:https://github.com/Vastlab/libMR说明:关于OpenMax算法的具体实现,有兴趣的可以备注来意q:3270348868二、基本概念1.激活向量AV:即训练(测试)样本通过神经网络的倒数第二层(全连接层)得到各类样本的激活向量AV.2.均值激活向量MAV:即各类训练样本的AV的均值,如

【论文导读】- SpreadGNN: Serverless Multi-task Federated Learning for Graph Neural Networks(去服务器的多任务图联邦学习)

文章目录论文信息摘要SpreadGNNFramework用于图层次学习的联邦图神经网络图神经网络的联邦多任务学习SpreadGNNDPA-SGD的收敛性质实验总结论文信息SpreadGNN:ServerlessMulti-taskFederatedLearningforGraphNeuralNetworks原文链接:SpreadGNN:ServerlessMulti-taskFederatedLearningforGraphNeuralNetworks:https://arxiv.org/abs/2106.02743摘要GraphNeuralNetworks(GNNs)arethefirstc

【读论文】AlexNet (ImageNet Classification with Deep Convolutional Neural Networks)

这是一片十年前的文章(2012年),让我们回到十年前来看看Alex小哥、Hinton大佬和他的小伙伴们是怎么设计神经网络的。论文下载地址:https://papers.nips.cc/paper/2012/hash/c399862d3b9d6b76c8436e924a68c45b-Abstract.html李沐老师的精读视频:https://www.bilibili.com/video/BV1ih411J7Kz/?spm_id_from=333.788&vd_source=9e5b81656aa2144357f0dca1094e9cbeAlexNet实现:https://www.jianshu

【论文阅读】【剪枝】Learning Efficient Convolutional Networks through Network Slimming

摘要             深度卷积神经网络(CNN)在许多实际应用中的部署在很大程度上受到其高计算成本的阻碍。在本文中,我们提出了一种新的神经网络学习方案,以同时1)减小模型大小;2)减少运行时内存占用;以及3)在不损害精度的情况下减少计算操作的数量。这是通过以简单但有效的方式在网络中实施通道级稀疏性来实现的。与许多现有方法不同,所提出的方法直接适用于现代CNN架构,为训练过程引入了最小开销,并且不需要用于生成模型的专用软件/硬件加速器。我们称我们的方法为网络瘦身,它将宽网络和大网络作为输入模型,但在训练过程中,不重要的通道会被自动识别并在之后进行修剪,从而生成具有相当精度的瘦而紧凑的模型

论文阅读:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks

前言要弄清MAML怎么做,为什么这么做,就要看懂这两张图。先说MAML**在做什么?**它是打着Mate-Learing的旗号干的是few-shotmulti-taskLearning的事情。具体而言就是想训练一个模型能够使用很少的新样本,快速适应新的任务。定义问题我们定义一个模型fff,输入xxx输出aaa。-定义每一个Task-TTT包含一个损失函数LLL,一个原始观察q(x1)q(x_1)q(x1​),一个状态转移分布q(x1∣xt,at)q(x_1|x_t,a_t)q(x1​∣xt​,at​)以及集长度HHH。在监督任务中H=1(也就是说当前的a只和当前的x有关)。元学习方法介绍元学习

(HGNN) Hypergraph Neural Networks

HypergraphNeuralNetworks1.Abstract提出了一个用于数据表示学习的超图神经网络(HGNN)框架,它可以在超图结构中编码高阶数据相关性。面对在实际实践中学习复杂数据表示的挑战,我们建议将这种数据结构合并到超图中,这在数据建模上更加灵活,特别是在处理复杂数据时。该方法设计了一种超边卷积操作来处理表示学习过程中的数据相关性。这样,传统的超图学习过程就可以有效地使用超边卷积运算来进行。HGNN能够学习考虑高阶数据结构的隐藏层表示,这是一个考虑复杂数据相关性的通用框架。我们进行了引文网络分类和视觉目标识别任务的实验,并将HGNN与图卷积网络等传统方法进行了比较。实验结果表明

论文笔记:Adjusting for Autocorrelated Errors in Neural Networks for Time Series

2021NIPS原来的时间序列预测任务是根据预测论文提出用一阶自回归误差预测一阶差分,类似于ResNet的残差思路?记为pred,最终的预测结果 

论文笔记 Graph Attention Networks

2018ICLR1intro1.1.GCN的不足无法完成inductive任务inductive任务是指:训练阶段与测试阶段需要处理的graph不同。通常是训练阶段只是在子图上进行,测试阶段需要处理未知的顶点。GGN的参数依赖于邻接矩阵A/拉普拉斯矩阵L,所以换了一张图,就会有不同的A和L处理有向图的瓶颈,不容易实现分配不同的学习权重给不同的邻居1.2本文思路引入maskedself-attentionallayers来改进前面图卷积的缺点对不同的相邻节点分配相应的权重,既不需要矩阵运算,也不需要事先知道图结构attention为每个节点分配不同权重,关注那些作用比较大的节点,而忽视一些作用较

Palo Alto Networks® PA-220R 下一代防火墙 确保恶劣工况下的网络安全

一、主要安全功能1、每时每刻在各端口对全部应用进行分类•将 App-ID 用于工业协议和应用,例如 Modbus、DNP3、IEC 60870-5-104、Siemens S7、OSIsoftPI®等。•不论采用何种端口、SSL/SSH 加密或者其他规避技术,都会识别应用。•使用应用而非端口作为所有安全启用策略的决策基础:允许、拒绝、计划、检测以及应用流量整形。•对未识别的应用进行分类,以便进行策略控制、威胁取证或App-ID™技术开发。2、为所有位置上的所有用户实施安全策略•将统一策略部署至使用 Windows®、macOS®、Linux、Android®或AppleiOS平台的本地或远程用

论文笔记:Deep Spatio-Temporal Residual Networks for Citywide Crowd FlowsPrediction

2017AAAI使用时空残差网络ST-ResNet进行城市区域流入流出客流量预测1研究对象城市客流流入流出根据经纬度将城市划分为网格I×J 1.1难点空间依赖性时间依赖性外部影响2模型 3实验北京出租车数据+纽约自行车数据评价指标:RMSE