草庐IT

【读论文】AlexNet (ImageNet Classification with Deep Convolutional Neural Networks)

这是一片十年前的文章(2012年),让我们回到十年前来看看Alex小哥、Hinton大佬和他的小伙伴们是怎么设计神经网络的。论文下载地址:https://papers.nips.cc/paper/2012/hash/c399862d3b9d6b76c8436e924a68c45b-Abstract.html李沐老师的精读视频:https://www.bilibili.com/video/BV1ih411J7Kz/?spm_id_from=333.788&vd_source=9e5b81656aa2144357f0dca1094e9cbeAlexNet实现:https://www.jianshu

MachineLearning 10. 癌症诊断机器学习之神经网络(Neural Network)

通过乳腺癌是数据我们利用不同的机器学习算法,不断的解开机器学习的神秘面纱,使得这种AI技术能够让医学更加适用,不再是一件神秘的算法,而已都能接受的方法而已!这期就来说说神经网络建模对乳腺癌的诊断效果!!前   言高中生物基本忘记得差不多了,不过依稀还记得我们大脑对外界的大概反应过程可以描述为外界的刺激信号传进某部分的神经元系统,信号经过神经元一层层地传递下去,最终在某部分的神经元系统产生脉冲信号,驱使身体的某个部位作出反应。神经元的结构如下:输入信号从突触(dendrites)进入后,转化为化学信号,经过神经元细胞一系列的处理,最终在轴突末梢(axonterminals)转换为输出信号。基本原

样式迁移(neural style)

(一)样式迁移(neuralstyle)就是有两张图片,例如一张人像,一张油画,你想把优化的风格迁移到人像上。生成一张油画版的新的人像。(1)基于CNN的样式迁移从图中看出似乎有三个神经网络,实际上是只有一个神经网络。这图的意思是,我们希望输出值是左右两张图片的结合,但是具体怎么结合呢?就是让有些层能够和左边网络的某些层匹配。还有些曾能够和右边的样式的某些层匹配。左边的层主要是抽取图片的内容信息。右边的层主要抽取图片的纹理信息。两者结合在一起,就能生成我们想要的图片。我们以前所使用的网络都是更新网络中层的参数,但是这里不同,由于是需要对输入的图片进行改变而不是进行参数的权重更新,那么我们将网络

论文笔记:PhaseNet: a deep-neural-network-based seismic arrival-time pickingmethod

2018GeophysicalJournalInternational1Intro1.1Motivation地震检测和定位是地震学的基础。地震目录的质量主要取决于到达时间测量的数量和准确性。地震到达时间测量或相位选择通常由网络分析员执行,他们根据专家判断和多年经验选择相位。随着地震仪部署速度的不断加快;网络分析员分析的速度跟上数据流增加的速度得越来越困难。 地震的相位选择尤其受到S波的挑战,因为它们不是最先到达的波,而是从P尾波的散射波中出现的。S波到达时间特别有用它们可用于减少仅基于P波的地震位置的深度-震源权衡 S波结构对于强地面运动预测很重要。 1.2relatedworks很多研究致力

(HGNN) Hypergraph Neural Networks

HypergraphNeuralNetworks1.Abstract提出了一个用于数据表示学习的超图神经网络(HGNN)框架,它可以在超图结构中编码高阶数据相关性。面对在实际实践中学习复杂数据表示的挑战,我们建议将这种数据结构合并到超图中,这在数据建模上更加灵活,特别是在处理复杂数据时。该方法设计了一种超边卷积操作来处理表示学习过程中的数据相关性。这样,传统的超图学习过程就可以有效地使用超边卷积运算来进行。HGNN能够学习考虑高阶数据结构的隐藏层表示,这是一个考虑复杂数据相关性的通用框架。我们进行了引文网络分类和视觉目标识别任务的实验,并将HGNN与图卷积网络等传统方法进行了比较。实验结果表明

One-4-All: Neural Potential Fields for Embodied Navigation 论文阅读

论文信息题目:One-4-All:NeuralPotentialFieldsforEmbodiedNavigation作者:SachaMorin,MiguelSaavedra-Ruiz来源:arXiv时间:2023Abstract现实世界的导航可能需要使用高维RGB图像进行长视野规划,这对基于端到端学习的方法提出了巨大的挑战。目前的半参数方法通过将学习的模块与环境的拓扑记忆相结合来实现长范围导航,通常表示为先前收集的图像上的图形。然而,在实践中使用这些图需要调整一些修剪启发法。这些启发式对于避免虚假边缘、限制运行时内存使用以及在大型环境中保持相当快速的图形查询是必要的。我们提出了One-4-A

概述:隐式神经表示(Implicit Neural Representations,INRs)

隐式神经表示(ImplicitNeuralRepresentations,INRs)1简介1.1传统的隐式表示1.1.1代数表示1.1.2函数表示1.1.3水平集表示(levelset)1.2什么是隐式神经表示1.3隐式神经表示的优缺点1.3.1优点1.3.2缺点2应用2.1超分辨率2.2新视角合成2.3三维重建3隐式神经表示的结构及改进3.1隐式神经表示常用的网络结构3.2隐式神经表示的改进3.2.1SIREN3.2.2FPE引用1简介1.1传统的隐式表示传统用于形状表示的隐式表示有:代数表示、函数表示、水平集表示等。1.1.1代数表示如下图利用对基础图形的交并补,可以得到复杂的图形。一般l

论文笔记:Adjusting for Autocorrelated Errors in Neural Networks for Time Series

2021NIPS原来的时间序列预测任务是根据预测论文提出用一阶自回归误差预测一阶差分,类似于ResNet的残差思路?记为pred,最终的预测结果 

[论文笔记]Glancing Transformer for Non-Autoregressive Neural Machine Translation

引言这是论文GlancingTransformerforNon-AutoregressiveNeuralMachineTranslation的笔记。传统的非自回归文本生成速度较慢,因为需要给定之前的token来预测下一个token。但自回归模型虽然效率高,但性能没那么好。这篇论文提出了GlancingTransformer,可以只需要一次解码,并行地文本生成。并且效率不输于Transformer这种自回归方法。简介Transformer变成了最广泛使用的机器翻译架构。尽管它的表现很好,但Transformer的解码是低效的因为它采用序列自回归因子分解来建模概率,见下图1a。最近关于非自回归Tr

NICE-SLAM: Neural Implicit Scalable Encoding for SLAM论文阅读

论文信息标题:NICE-SLAM:NeuralImplicitScalableEncodingforSLAM作者:ZihanZhu,SongyouPeng,ViktorLarsson—ZhejiangUniversity来源:CVPR代码:https://pengsongyou.github.io/nice-slam时间:2022Abstract神经隐式(Neuralimplicitrepresentations)表示最近在同步定位和地图绘制(SLAM)方面有一定的进展,但现有方法会产生过度平滑的场景重建,并且难以扩展到大型场景。这些限制主要是由于其简单的全连接网络架构,未在观测中纳入本地信息