《FocalModulationNetworks》摘要本文提出了
本博客主要分为两部分:1、PINN模型论文解读2、PINN模型相关总结第一部分:PINN模型论文解读一、摘要基于物理信息的神经网络(Physics-informedNeuralNetwork,简称PINN),是一类用于解决有监督学习任务的神经网络,同时尊重由一般非线性偏微分方程描述的任何给定的物理规律。原理:它不仅能够像传统神经网络一样学习到训练数据样本的分布规律,而且能够学习到数学方程描述的物理定律。优势:与纯数据驱动的神经网络学习相比,PINN在训练过程中施加了物理信息约束,因而能用更少的数据样本学习到更具泛化能力的模型。缺陷:PINN的缺点是较难处理高维数据,低维可以处理,因为所需训练数
本博客主要分为两部分:1、PINN模型论文解读2、PINN模型相关总结第一部分:PINN模型论文解读一、摘要基于物理信息的神经网络(Physics-informedNeuralNetwork,简称PINN),是一类用于解决有监督学习任务的神经网络,同时尊重由一般非线性偏微分方程描述的任何给定的物理规律。原理:它不仅能够像传统神经网络一样学习到训练数据样本的分布规律,而且能够学习到数学方程描述的物理定律。优势:与纯数据驱动的神经网络学习相比,PINN在训练过程中施加了物理信息约束,因而能用更少的数据样本学习到更具泛化能力的模型。缺陷:PINN的缺点是较难处理高维数据,低维可以处理,因为所需训练数
原文链接:https://arxiv.org/pdf/2007.08199.pdfgithub链接:GitHub-songhwanjun/Awesome-Noisy-Labels:ASurvey(本文仅做阅读笔记之用,如需了解细节可自行查看原文,翻译不周之处,敬请指正)1.Introduction据统计真实世界的数据集中存在的标注噪声范围在8%到38.5%。深度神经网络(DNN)因为具有很强的拟合能力,所以很容易对噪声标签过拟合。正则化技术(如数据增强,权重衰减,dropout,批次正则化(BN)等)虽然能缓解过拟合问题,但是光靠正则化并不能完全克服过拟合。如fig.1就形象地说明了这个问题:
原文链接:https://arxiv.org/pdf/2007.08199.pdfgithub链接:GitHub-songhwanjun/Awesome-Noisy-Labels:ASurvey(本文仅做阅读笔记之用,如需了解细节可自行查看原文,翻译不周之处,敬请指正)1.Introduction据统计真实世界的数据集中存在的标注噪声范围在8%到38.5%。深度神经网络(DNN)因为具有很强的拟合能力,所以很容易对噪声标签过拟合。正则化技术(如数据增强,权重衰减,dropout,批次正则化(BN)等)虽然能缓解过拟合问题,但是光靠正则化并不能完全克服过拟合。如fig.1就形象地说明了这个问题:
TranAD架构模型构建: ={𝑥1,...,𝑥𝑇},表示一个大小为T的带有时间戳的数据点序列,其中,𝑥𝑡满足特定的时间戳𝑡和𝑥t∈R𝑚,单变量设置是其中𝑚=1的特殊情况。异常检测:给定一个训练输入时间序列,对于长度为的任意时间的测试时间序列,并且与训练序列的模态相同的作为训练序列,我们需要预测Y={𝑦1,.,𝑦},其中𝑦t ∈{0,1}表示测试集下第t个时间戳的数据点是否异常(1表示异常数据点)。异常诊断:基于上述训练和测试时间序列,我们需要预测Y={𝑦1,.,𝑦} 数据预处理:时序数据分析:long-termtrends、locality(short-termtrends)对数据进行了标
TranAD架构模型构建: ={𝑥1,...,𝑥𝑇},表示一个大小为T的带有时间戳的数据点序列,其中,𝑥𝑡满足特定的时间戳𝑡和𝑥t∈R𝑚,单变量设置是其中𝑚=1的特殊情况。异常检测:给定一个训练输入时间序列,对于长度为的任意时间的测试时间序列,并且与训练序列的模态相同的作为训练序列,我们需要预测Y={𝑦1,.,𝑦},其中𝑦t ∈{0,1}表示测试集下第t个时间戳的数据点是否异常(1表示异常数据点)。异常诊断:基于上述训练和测试时间序列,我们需要预测Y={𝑦1,.,𝑦} 数据预处理:时序数据分析:long-termtrends、locality(short-termtrends)对数据进行了标
近期开始阅读cv领域的一些经典论文,本文整理计算机视觉的奠基之作——Alexnet论文原文:ImageNetClassificationwithDeepConvolutionalNeuralNetworks(有需要论文原文的可以私信联系我)本文的阅读方法是基于李沐老师的B站讲解视频,需要细致去看的小伙伴可以去搜索,链接如下:9年后重读深度学习奠基作之一:AlexNet【论文精读】_哔哩哔哩_bilibili本文整理用于之后自己能够更快的回忆起这篇论文,所以有些地方记录的可能没那么严谨,有问题的地方欢迎各位指出和讨论,我及时修改,谢谢各位!如果该论文笔记对你有所帮助,希望可以点个赞关注一下,之后
近期开始阅读cv领域的一些经典论文,本文整理计算机视觉的奠基之作——Alexnet论文原文:ImageNetClassificationwithDeepConvolutionalNeuralNetworks(有需要论文原文的可以私信联系我)本文的阅读方法是基于李沐老师的B站讲解视频,需要细致去看的小伙伴可以去搜索,链接如下:9年后重读深度学习奠基作之一:AlexNet【论文精读】_哔哩哔哩_bilibili本文整理用于之后自己能够更快的回忆起这篇论文,所以有些地方记录的可能没那么严谨,有问题的地方欢迎各位指出和讨论,我及时修改,谢谢各位!如果该论文笔记对你有所帮助,希望可以点个赞关注一下,之后
摘要许多公司为用户提供神经网络预测服务,应用范围广泛。然而,目前的预测系统会损害一方的隐私:要么用户必须将敏感输入发送给服务提供商进行分类,要么服务提供商必须将其专有的神经网络存储在用户的设备上。前者损害了用户的个人隐私,而后者暴露了服务提供商的专有模式。我们设计、实现并评估了DELPHI,这是一个安全的预测系统,允许双方在不泄露任何一方数据的情况下执行神经网络推理。DELPHI通过同时联合设计密码学和机器学习来解决这个问题。我们首先设计了一种混合加密协议,在通信和计算成本上比之前的工作有所提高。其次,我们开发了一个规划器,自动生成神经网络架构配置,导航我们的混合协议的性能精度权衡。与之前最