ConvNeXtV2:与屏蔽自动编码器共同设计和缩放ConvNets,论文+代码+实战自从Transformer模型在计算机视觉领域封神后,Facebook发表了ConvNeXtV1版本,证明了使用传统的卷积神经网络模型也能表现出优异的成绩,而ConvNeXtV2是对Transformer模型发起的又一新的挑战!论文地址:该论文的一句话总结:本文利用MAE设计了全卷积掩码自编码器:FCMAE和新的全局响应归一化(GRN)层,并提出一个卷积主干新系列:ConvNeXtV2,它显著提高了纯ConvNet在各种视觉基准上的性能,最小的Atto版本仅有3.7M参数,而最大的Huge版本可高达88.9%