🤵 Author :Horizon Max
✨ 编程技巧篇:各种操作小结
🎇 机器视觉篇:会变魔术 OpenCV
💥 深度学习篇:简单入门 PyTorch
🏆 神经网络篇:经典网络模型
💻 算法篇:再忙也别忘了 LeetCode
[ 注意力机制 ] 经典网络模型2——CBAM 详解与复现
Convolutional Block Attention Module 简称 CBAM,Sanghyun等人于2018年提出的一种新的 卷积注意力模块 ;
创新提出了 通道注意力与空间注意力融合 的注意力机制 ;
对前馈卷积神经网络 是一个 简单而有效的 注意力模块 ;
因为它的 轻量级和通用性 ,可以 无缝集成到任何CNN网络 当中 ;
作者实验表明,不同的模型在 分类和检测性能 上都有持续的提高 ;
🔗 论文地址:CBAM: Convolutional Block Attention Module
为提高 CNN性能 ,最近的研究主要研究了网络的三个重要因素: depth(深度) , width(宽度) , cardinality(基数)
从20世纪90年代 LeNet 网络的提出,网络的 深度 不断增加;
后来 VGG 网络表明,相同形状的块堆叠 效果良好;
GoogLeNet 网络的提出,提出宽度 也是提高模型性能的另一个重要因素;
同样的,ResNet 将 残差块 以相同拓扑与跳跃式连接堆叠在一起,构建了一个非常深的架构,达到了不错的效果;
Xception 和 ResNeXt 网络表明,增加网络 基数 不仅减少了参数量,而且比另 两个因素(深度和宽度) 具有更强的表示能力;
除了这些因素之外,作者还研究了网络设计的另一个方面—— 注意力 ;
“注意力” 也是 人类视觉系统 的一个很有趣的地方 ;
通过注意力机制来增加网络的表征力:关注重要特征,抑制不必要特征 ;
卷积运算是通过将 跨通道信息和空间信息混合 在一起来提取信息特征的 ;
因此提出了 CBAM 来强调通道轴和空间轴这两个主要维度上的有意义特征 ;
并对此依次应用了 Channel Attention Module (通道注意模块) 和 Spatial Attention Module (空间注意模块) ;

(1)提出了一个简单而有效的注意力模块(CBAM),可以广泛应用于提高 CNN 的表示能力 ;
(2)通过广泛的消融研究来验证我们的注意力模块的有效性 ;
(3)通过插入轻量级模块(CBAM),验证了各种网络的性能在多个基准(ImageNet-1K、MS COCO和VOC 2007)上都得到了极大的提高;
假设 输入特征图为 : F ∈ R CxHxW ;
利用 CBAM 依此推导出 一维通道注意图 : Mc ∈ R Cx1x1 和 二维空间注意图 : Ms ∈ R 1xHxW ;
总的注意过程可以概括为 :


利用 特征间的通道关系 来生成通道注意图 ;
由于feature map的每个channel都被认为是 一个feature检测器 ,因此 channel 的注意力集中在 给定输入图像的 "什么" 是有意义的 ;
为了有效地计算通道注意力,采用 压缩输入特征映射的空间维度 的方法 ;
文中同时使用 AvgPool (平均池化) 和 MaxPool (最大池化) 的方法,并证明了这种做法比单独使用一种池化方法更具有表征力;

式中,σ 为 sigmoid 函数 ,W0 ∈ RC/r×C ,W1 ∈ RC×C/r ,MLP的权重 W0 和 W1 共享,在W0 前是 ReLU 激活函数 ;
利用 特征间的空间关系 生成空间注意图 ;
与通道注意模块不同的是,空间注意模块关注的是 信息部分 "在哪里" ,作为通道注意模块的补充 ;
为了计算空间注意力,首先沿着通道轴应用 平均池化和最大池化 操作,并将它们连接起来以生成一个有效的 特征描述符 ;
使用两个池化操作聚合一个feature map的通道信息,生成两个2D maps :
Fsavg ∈ R1×H×W 和 Fsmax ∈ R1×H×W ;
每个都表示通道的 平均池化特性 和 最大池化特性 ,然后利用一个标准的卷积层进行连接和卷积操作,得到二维空间注意力图 ;

式中,σ 为 sigmoid 函数 ,f 7x7 为 7 x 7 大小的卷积核 ;

以上是将 CBAM 结合 ResBlock 应用于ResNet中 ;
两个模块可以以并行或顺序的方式放置,实验测试发现 顺序排列 比 并行排列 有更好的结果 ;

最后,分别使用 ResNet50 、ResNet50+SENet 、ResNet50+CBAM 进行实验得到可视化结果 :

实验表明 CBAM 性能超越了 SENet
这里实现的是 CBAM-ResNet 系列网络 :
# Here is the code :
import torch
import torch.nn as nn
import torch.nn.functional as F
from torchinfo import summary
class ChannelAttention(nn.Module): # Channel Attention Module
def __init__(self, in_planes):
super(ChannelAttention, self).__init__()
self.avg_pool = nn.AdaptiveAvgPool2d(1)
self.max_pool = nn.AdaptiveMaxPool2d(1)
self.fc1 = nn.Conv2d(in_planes, in_planes // 16, kernel_size=1, bias=False)
self.relu = nn.ReLU()
self.fc2 = nn.Conv2d(in_planes // 16, in_planes, kernel_size=1, bias=False)
self.sigmoid = nn.Sigmoid()
def forward(self, x):
avg_out = self.avg_pool(x)
avg_out = self.fc1(avg_out)
avg_out = self.relu(avg_out)
avg_out = self.fc2(avg_out)
max_out = self.max_pool(x)
max_out = self.fc1(max_out)
max_out = self.relu(max_out)
max_out = self.fc2(max_out)
out = avg_out + max_out
out = self.sigmoid(out)
return out
class SpatialAttention(nn.Module): # Spatial Attention Module
def __init__(self):
super(SpatialAttention, self).__init__()
self.conv1 = nn.Conv2d(2, 1, kernel_size=7, padding=3, bias=False)
self.sigmoid = nn.Sigmoid()
def forward(self, x):
avg_out = torch.mean(x, dim=1, keepdim=True)
max_out, _ = torch.max(x, dim=1, keepdim=True)
out = torch.cat([avg_out, max_out], dim=1)
out = self.conv1(out)
out = self.sigmoid(out)
return out
class BasicBlock(nn.Module): # 左侧的 residual block 结构(18-layer、34-layer)
expansion = 1
def __init__(self, in_planes, planes, stride=1): # 两层卷积 Conv2d + Shutcuts
super(BasicBlock, self).__init__()
self.conv1 = nn.Conv2d(in_planes, planes, kernel_size=3,
stride=stride, padding=1, bias=False)
self.bn1 = nn.BatchNorm2d(planes)
self.conv2 = nn.Conv2d(planes, planes, kernel_size=3,
stride=1, padding=1, bias=False)
self.bn2 = nn.BatchNorm2d(planes)
self.channel = ChannelAttention(self.expansion*planes) # Channel Attention Module
self.spatial = SpatialAttention() # Spatial Attention Module
self.shortcut = nn.Sequential()
if stride != 1 or in_planes != self.expansion*planes: # Shutcuts用于构建 Conv Block 和 Identity Block
self.shortcut = nn.Sequential(
nn.Conv2d(in_planes, self.expansion*planes,
kernel_size=1, stride=stride, bias=False),
nn.BatchNorm2d(self.expansion*planes)
)
def forward(self, x):
out = F.relu(self.bn1(self.conv1(x)))
out = self.bn2(self.conv2(out))
CBAM_Cout = self.channel(out)
out = out * CBAM_Cout
CBAM_Sout = self.spatial(out)
out = out * CBAM_Sout
out += self.shortcut(x)
out = F.relu(out)
return out
class Bottleneck(nn.Module): # 右侧的 residual block 结构(50-layer、101-layer、152-layer)
expansion = 4
def __init__(self, in_planes, planes, stride=1): # 三层卷积 Conv2d + Shutcuts
super(Bottleneck, self).__init__()
self.conv1 = nn.Conv2d(in_planes, planes, kernel_size=1, bias=False)
self.bn1 = nn.BatchNorm2d(planes)
self.conv2 = nn.Conv2d(planes, planes, kernel_size=3,
stride=stride, padding=1, bias=False)
self.bn2 = nn.BatchNorm2d(planes)
self.conv3 = nn.Conv2d(planes, self.expansion*planes,
kernel_size=1, bias=False)
self.bn3 = nn.BatchNorm2d(self.expansion*planes)
self.channel = ChannelAttention(self.expansion*planes) # Channel Attention Module
self.spatial = SpatialAttention() # Spatial Attention Module
self.shortcut = nn.Sequential()
if stride != 1 or in_planes != self.expansion*planes: # Shutcuts用于构建 Conv Block 和 Identity Block
self.shortcut = nn.Sequential(
nn.Conv2d(in_planes, self.expansion*planes,
kernel_size=1, stride=stride, bias=False),
nn.BatchNorm2d(self.expansion*planes)
)
def forward(self, x):
out = F.relu(self.bn1(self.conv1(x)))
out = F.relu(self.bn2(self.conv2(out)))
out = self.bn3(self.conv3(out))
CBAM_Cout = self.channel(out)
out = out * CBAM_Cout
CBAM_Sout = self.spatial(out)
out = out * CBAM_Sout
out += self.shortcut(x)
out = F.relu(out)
return out
class CBAM_ResNet(nn.Module):
def __init__(self, block, num_blocks, num_classes=1000):
super(CBAM_ResNet, self).__init__()
self.in_planes = 64
self.conv1 = nn.Conv2d(3, 64, kernel_size=3,
stride=1, padding=1, bias=False) # conv1
self.bn1 = nn.BatchNorm2d(64)
self.layer1 = self._make_layer(block, 64, num_blocks[0], stride=1) # conv2_x
self.layer2 = self._make_layer(block, 128, num_blocks[1], stride=2) # conv3_x
self.layer3 = self._make_layer(block, 256, num_blocks[2], stride=2) # conv4_x
self.layer4 = self._make_layer(block, 512, num_blocks[3], stride=2) # conv5_x
self.avgpool = nn.AdaptiveAvgPool2d((1, 1))
self.linear = nn.Linear(512 * block.expansion, num_classes)
def _make_layer(self, block, planes, num_blocks, stride):
strides = [stride] + [1]*(num_blocks-1)
layers = []
for stride in strides:
layers.append(block(self.in_planes, planes, stride))
self.in_planes = planes * block.expansion
return nn.Sequential(*layers)
def forward(self, x):
x = F.relu(self.bn1(self.conv1(x)))
x = self.layer1(x)
x = self.layer2(x)
x = self.layer3(x)
x = self.layer4(x)
x = self.avgpool(x)
x = torch.flatten(x, 1)
out = self.linear(x)
return out
def CBAM_ResNet18():
return CBAM_ResNet(BasicBlock, [2, 2, 2, 2])
def CBAM_ResNet34():
return CBAM_ResNet(BasicBlock, [3, 4, 6, 3])
def CBAM_ResNet50():
return CBAM_ResNet(Bottleneck, [3, 4, 6, 3])
def CBAM_ResNet101():
return CBAM_ResNet(Bottleneck, [3, 4, 23, 3])
def CBAM_ResNet152():
return CBAM_ResNet(Bottleneck, [3, 8, 36, 3])
def test():
net = CBAM_ResNet50()
y = net(torch.randn(1, 3, 224, 224))
print(y.size())
summary(net, (1, 3, 224, 224))
if __name__ == '__main__':
test()
输出结果:
torch.Size([1, 1000])
===============================================================================================
Layer (type:depth-idx) Output Shape Param #
===============================================================================================
CBAM_ResNet -- --
├─Conv2d: 1-1 [1, 64, 224, 224] 1,728
├─BatchNorm2d: 1-2 [1, 64, 224, 224] 128
├─Sequential: 1-3 [1, 256, 224, 224] --
│ └─Bottleneck: 2-1 [1, 256, 224, 224] --
│ │ └─Conv2d: 3-1 [1, 64, 224, 224] 4,096
│ │ └─BatchNorm2d: 3-2 [1, 64, 224, 224] 128
│ │ └─Conv2d: 3-3 [1, 64, 224, 224] 36,864
│ │ └─BatchNorm2d: 3-4 [1, 64, 224, 224] 128
│ │ └─Conv2d: 3-5 [1, 256, 224, 224] 16,384
│ │ └─BatchNorm2d: 3-6 [1, 256, 224, 224] 512
│ │ └─ChannelAttention: 3-7 [1, 256, 1, 1] 8,192
│ │ └─SpatialAttention: 3-8 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-9 [1, 256, 224, 224] 16,896
│ └─Bottleneck: 2-2 [1, 256, 224, 224] --
│ │ └─Conv2d: 3-10 [1, 64, 224, 224] 16,384
│ │ └─BatchNorm2d: 3-11 [1, 64, 224, 224] 128
│ │ └─Conv2d: 3-12 [1, 64, 224, 224] 36,864
│ │ └─BatchNorm2d: 3-13 [1, 64, 224, 224] 128
│ │ └─Conv2d: 3-14 [1, 256, 224, 224] 16,384
│ │ └─BatchNorm2d: 3-15 [1, 256, 224, 224] 512
│ │ └─ChannelAttention: 3-16 [1, 256, 1, 1] 8,192
│ │ └─SpatialAttention: 3-17 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-18 [1, 256, 224, 224] --
│ └─Bottleneck: 2-3 [1, 256, 224, 224] --
│ │ └─Conv2d: 3-19 [1, 64, 224, 224] 16,384
│ │ └─BatchNorm2d: 3-20 [1, 64, 224, 224] 128
│ │ └─Conv2d: 3-21 [1, 64, 224, 224] 36,864
│ │ └─BatchNorm2d: 3-22 [1, 64, 224, 224] 128
│ │ └─Conv2d: 3-23 [1, 256, 224, 224] 16,384
│ │ └─BatchNorm2d: 3-24 [1, 256, 224, 224] 512
│ │ └─ChannelAttention: 3-25 [1, 256, 1, 1] 8,192
│ │ └─SpatialAttention: 3-26 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-27 [1, 256, 224, 224] --
├─Sequential: 1-4 [1, 512, 112, 112] --
│ └─Bottleneck: 2-4 [1, 512, 112, 112] --
│ │ └─Conv2d: 3-28 [1, 128, 224, 224] 32,768
│ │ └─BatchNorm2d: 3-29 [1, 128, 224, 224] 256
│ │ └─Conv2d: 3-30 [1, 128, 112, 112] 147,456
│ │ └─BatchNorm2d: 3-31 [1, 128, 112, 112] 256
│ │ └─Conv2d: 3-32 [1, 512, 112, 112] 65,536
│ │ └─BatchNorm2d: 3-33 [1, 512, 112, 112] 1,024
│ │ └─ChannelAttention: 3-34 [1, 512, 1, 1] 32,768
│ │ └─SpatialAttention: 3-35 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-36 [1, 512, 112, 112] 132,096
│ └─Bottleneck: 2-5 [1, 512, 112, 112] --
│ │ └─Conv2d: 3-37 [1, 128, 112, 112] 65,536
│ │ └─BatchNorm2d: 3-38 [1, 128, 112, 112] 256
│ │ └─Conv2d: 3-39 [1, 128, 112, 112] 147,456
│ │ └─BatchNorm2d: 3-40 [1, 128, 112, 112] 256
│ │ └─Conv2d: 3-41 [1, 512, 112, 112] 65,536
│ │ └─BatchNorm2d: 3-42 [1, 512, 112, 112] 1,024
│ │ └─ChannelAttention: 3-43 [1, 512, 1, 1] 32,768
│ │ └─SpatialAttention: 3-44 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-45 [1, 512, 112, 112] --
│ └─Bottleneck: 2-6 [1, 512, 112, 112] --
│ │ └─Conv2d: 3-46 [1, 128, 112, 112] 65,536
│ │ └─BatchNorm2d: 3-47 [1, 128, 112, 112] 256
│ │ └─Conv2d: 3-48 [1, 128, 112, 112] 147,456
│ │ └─BatchNorm2d: 3-49 [1, 128, 112, 112] 256
│ │ └─Conv2d: 3-50 [1, 512, 112, 112] 65,536
│ │ └─BatchNorm2d: 3-51 [1, 512, 112, 112] 1,024
│ │ └─ChannelAttention: 3-52 [1, 512, 1, 1] 32,768
│ │ └─SpatialAttention: 3-53 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-54 [1, 512, 112, 112] --
│ └─Bottleneck: 2-7 [1, 512, 112, 112] --
│ │ └─Conv2d: 3-55 [1, 128, 112, 112] 65,536
│ │ └─BatchNorm2d: 3-56 [1, 128, 112, 112] 256
│ │ └─Conv2d: 3-57 [1, 128, 112, 112] 147,456
│ │ └─BatchNorm2d: 3-58 [1, 128, 112, 112] 256
│ │ └─Conv2d: 3-59 [1, 512, 112, 112] 65,536
│ │ └─BatchNorm2d: 3-60 [1, 512, 112, 112] 1,024
│ │ └─ChannelAttention: 3-61 [1, 512, 1, 1] 32,768
│ │ └─SpatialAttention: 3-62 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-63 [1, 512, 112, 112] --
├─Sequential: 1-5 [1, 1024, 56, 56] --
│ └─Bottleneck: 2-8 [1, 1024, 56, 56] --
│ │ └─Conv2d: 3-64 [1, 256, 112, 112] 131,072
│ │ └─BatchNorm2d: 3-65 [1, 256, 112, 112] 512
│ │ └─Conv2d: 3-66 [1, 256, 56, 56] 589,824
│ │ └─BatchNorm2d: 3-67 [1, 256, 56, 56] 512
│ │ └─Conv2d: 3-68 [1, 1024, 56, 56] 262,144
│ │ └─BatchNorm2d: 3-69 [1, 1024, 56, 56] 2,048
│ │ └─ChannelAttention: 3-70 [1, 1024, 1, 1] 131,072
│ │ └─SpatialAttention: 3-71 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-72 [1, 1024, 56, 56] 526,336
│ └─Bottleneck: 2-9 [1, 1024, 56, 56] --
│ │ └─Conv2d: 3-73 [1, 256, 56, 56] 262,144
│ │ └─BatchNorm2d: 3-74 [1, 256, 56, 56] 512
│ │ └─Conv2d: 3-75 [1, 256, 56, 56] 589,824
│ │ └─BatchNorm2d: 3-76 [1, 256, 56, 56] 512
│ │ └─Conv2d: 3-77 [1, 1024, 56, 56] 262,144
│ │ └─BatchNorm2d: 3-78 [1, 1024, 56, 56] 2,048
│ │ └─ChannelAttention: 3-79 [1, 1024, 1, 1] 131,072
│ │ └─SpatialAttention: 3-80 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-81 [1, 1024, 56, 56] --
│ └─Bottleneck: 2-10 [1, 1024, 56, 56] --
│ │ └─Conv2d: 3-82 [1, 256, 56, 56] 262,144
│ │ └─BatchNorm2d: 3-83 [1, 256, 56, 56] 512
│ │ └─Conv2d: 3-84 [1, 256, 56, 56] 589,824
│ │ └─BatchNorm2d: 3-85 [1, 256, 56, 56] 512
│ │ └─Conv2d: 3-86 [1, 1024, 56, 56] 262,144
│ │ └─BatchNorm2d: 3-87 [1, 1024, 56, 56] 2,048
│ │ └─ChannelAttention: 3-88 [1, 1024, 1, 1] 131,072
│ │ └─SpatialAttention: 3-89 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-90 [1, 1024, 56, 56] --
│ └─Bottleneck: 2-11 [1, 1024, 56, 56] --
│ │ └─Conv2d: 3-91 [1, 256, 56, 56] 262,144
│ │ └─BatchNorm2d: 3-92 [1, 256, 56, 56] 512
│ │ └─Conv2d: 3-93 [1, 256, 56, 56] 589,824
│ │ └─BatchNorm2d: 3-94 [1, 256, 56, 56] 512
│ │ └─Conv2d: 3-95 [1, 1024, 56, 56] 262,144
│ │ └─BatchNorm2d: 3-96 [1, 1024, 56, 56] 2,048
│ │ └─ChannelAttention: 3-97 [1, 1024, 1, 1] 131,072
│ │ └─SpatialAttention: 3-98 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-99 [1, 1024, 56, 56] --
│ └─Bottleneck: 2-12 [1, 1024, 56, 56] --
│ │ └─Conv2d: 3-100 [1, 256, 56, 56] 262,144
│ │ └─BatchNorm2d: 3-101 [1, 256, 56, 56] 512
│ │ └─Conv2d: 3-102 [1, 256, 56, 56] 589,824
│ │ └─BatchNorm2d: 3-103 [1, 256, 56, 56] 512
│ │ └─Conv2d: 3-104 [1, 1024, 56, 56] 262,144
│ │ └─BatchNorm2d: 3-105 [1, 1024, 56, 56] 2,048
│ │ └─ChannelAttention: 3-106 [1, 1024, 1, 1] 131,072
│ │ └─SpatialAttention: 3-107 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-108 [1, 1024, 56, 56] --
│ └─Bottleneck: 2-13 [1, 1024, 56, 56] --
│ │ └─Conv2d: 3-109 [1, 256, 56, 56] 262,144
│ │ └─BatchNorm2d: 3-110 [1, 256, 56, 56] 512
│ │ └─Conv2d: 3-111 [1, 256, 56, 56] 589,824
│ │ └─BatchNorm2d: 3-112 [1, 256, 56, 56] 512
│ │ └─Conv2d: 3-113 [1, 1024, 56, 56] 262,144
│ │ └─BatchNorm2d: 3-114 [1, 1024, 56, 56] 2,048
│ │ └─ChannelAttention: 3-115 [1, 1024, 1, 1] 131,072
│ │ └─SpatialAttention: 3-116 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-117 [1, 1024, 56, 56] --
├─Sequential: 1-6 [1, 2048, 28, 28] --
│ └─Bottleneck: 2-14 [1, 2048, 28, 28] --
│ │ └─Conv2d: 3-118 [1, 512, 56, 56] 524,288
│ │ └─BatchNorm2d: 3-119 [1, 512, 56, 56] 1,024
│ │ └─Conv2d: 3-120 [1, 512, 28, 28] 2,359,296
│ │ └─BatchNorm2d: 3-121 [1, 512, 28, 28] 1,024
│ │ └─Conv2d: 3-122 [1, 2048, 28, 28] 1,048,576
│ │ └─BatchNorm2d: 3-123 [1, 2048, 28, 28] 4,096
│ │ └─ChannelAttention: 3-124 [1, 2048, 1, 1] 524,288
│ │ └─SpatialAttention: 3-125 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-126 [1, 2048, 28, 28] 2,101,248
│ └─Bottleneck: 2-15 [1, 2048, 28, 28] --
│ │ └─Conv2d: 3-127 [1, 512, 28, 28] 1,048,576
│ │ └─BatchNorm2d: 3-128 [1, 512, 28, 28] 1,024
│ │ └─Conv2d: 3-129 [1, 512, 28, 28] 2,359,296
│ │ └─BatchNorm2d: 3-130 [1, 512, 28, 28] 1,024
│ │ └─Conv2d: 3-131 [1, 2048, 28, 28] 1,048,576
│ │ └─BatchNorm2d: 3-132 [1, 2048, 28, 28] 4,096
│ │ └─ChannelAttention: 3-133 [1, 2048, 1, 1] 524,288
│ │ └─SpatialAttention: 3-134 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-135 [1, 2048, 28, 28] --
│ └─Bottleneck: 2-16 [1, 2048, 28, 28] --
│ │ └─Conv2d: 3-136 [1, 512, 28, 28] 1,048,576
│ │ └─BatchNorm2d: 3-137 [1, 512, 28, 28] 1,024
│ │ └─Conv2d: 3-138 [1, 512, 28, 28] 2,359,296
│ │ └─BatchNorm2d: 3-139 [1, 512, 28, 28] 1,024
│ │ └─Conv2d: 3-140 [1, 2048, 28, 28] 1,048,576
│ │ └─BatchNorm2d: 3-141 [1, 2048, 28, 28] 4,096
│ │ └─ChannelAttention: 3-142 [1, 2048, 1, 1] 524,288
│ │ └─SpatialAttention: 3-143 [1, 1, 1, 1] 98
│ │ └─Sequential: 3-144 [1, 2048, 28, 28] --
├─AdaptiveAvgPool2d: 1-7 [1, 2048, 1, 1] --
├─Linear: 1-8 [1, 1000] 2,049,000
===============================================================================================
Total params: 28,065,864
Trainable params: 28,065,864
Non-trainable params: 0
Total mult-adds (G): 63.60
===============================================================================================
Input size (MB): 0.60
Forward/backward pass size (MB): 2691.18
Params size (MB): 112.26
Estimated Total Size (MB): 2804.04
===============================================================================================
我有一个模型:classItem项目有一个属性“商店”基于存储的值,我希望Item对象对特定方法具有不同的行为。Rails中是否有针对此的通用设计模式?如果方法中没有大的if-else语句,这是如何干净利落地完成的? 最佳答案 通常通过Single-TableInheritance. 关于ruby-on-rails-Rails-子类化模型的设计模式是什么?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.co
我需要从一个View访问多个模型。以前,我的links_controller仅用于提供以不同方式排序的链接资源。现在我想包括一个部分(我假设)显示按分数排序的顶级用户(@users=User.all.sort_by(&:score))我知道我可以将此代码插入每个链接操作并从View访问它,但这似乎不是“ruby方式”,我将需要在不久的将来访问更多模型。这可能会变得很脏,是否有针对这种情况的任何技术?注意事项:我认为我的应用程序正朝着单一格式和动态页面内容的方向发展,本质上是一个典型的网络应用程序。我知道before_filter但考虑到我希望应用程序进入的方向,这似乎很麻烦。最终从任何
我有一个包含模块的模型。我想在模块中覆盖模型的访问器方法。例如:classBlah这显然行不通。有什么想法可以实现吗? 最佳答案 您的代码看起来是正确的。我们正在毫无困难地使用这个确切的模式。如果我没记错的话,Rails使用#method_missing作为属性setter,因此您的模块将优先,阻止ActiveRecord的setter。如果您正在使用ActiveSupport::Concern(参见thisblogpost),那么您的实例方法需要进入一个特殊的模块:classBlah
我有一个表单,其中有很多字段取自数组(而不是模型或对象)。我如何验证这些字段的存在?solve_problem_pathdo|f|%>... 最佳答案 创建一个简单的类来包装请求参数并使用ActiveModel::Validations。#definedsomewhere,atthesimplest:require'ostruct'classSolvetrue#youcouldevencheckthesolutionwithavalidatorvalidatedoerrors.add(:base,"WRONG!!!")unlesss
我想向我的Controller传递一个参数,它是一个简单的复选框,但我不知道如何在模型的form_for中引入它,这是我的观点:{:id=>'go_finance'}do|f|%>Transferirde:para:Entrada:"input",:placeholder=>"Quantofoiganho?"%>Saída:"output",:placeholder=>"Quantofoigasto?"%>Nota:我想做一个额外的复选框,但我该怎么做,模型中没有一个对象,而是一个要检查的对象,以便在Controller中创建一个ifelse,如果没有检查,请帮助我,非常感谢,谢谢
我有一些非常大的模型,我必须将它们迁移到最新版本的Rails。这些模型有相当多的验证(User有大约50个验证)。是否可以将所有这些验证移动到另一个文件中?说app/models/validations/user_validations.rb。如果可以,有人可以提供示例吗? 最佳答案 您可以为此使用关注点:#app/models/validations/user_validations.rbrequire'active_support/concern'moduleUserValidationsextendActiveSupport:
对于Rails模型,是否可以/建议让一个类的成员不持久保存到数据库中?我想将用户最后选择的类型存储在session变量中。由于我无法从我的模型中设置session变量,我想将值存储在一个“虚拟”类成员中,该成员只是将值传递回Controller。你能有这样的类(class)成员吗? 最佳答案 将非持久属性添加到Rails模型就像任何其他Ruby类一样:classUser扩展解释:在Ruby中,所有实例变量都是私有(private)的,不需要在赋值前定义。attr_accessor创建一个setter和getter方法:classUs
我有一个正在构建的应用程序,我需要一个模型来创建另一个模型的实例。我希望每辆车都有4个轮胎。汽车模型classCar轮胎模型classTire但是,在make_tires内部有一个错误,如果我为Tire尝试它,则没有用于创建或新建的activerecord方法。当我检查轮胎时,它没有这些方法。我该如何补救?错误是这样的:未定义的方法'create'forActiveRecord::AttributeMethods::Serialization::Tire::Module我测试了两个环境:测试和开发,它们都因相同的错误而失败。 最佳答案
ruby如何管理内存。例如:如果我们在执行过程中采用C程序,则以下是内存模型。类似于这个ruby如何处理内存。C:__________________|||stack|||------------------||||------------------|||||Heap|||||__________________|||data|__________________|text|__________________Ruby:? 最佳答案 Ruby中没有“内存”这样的东西。Class#allocate分配一个对象并返回该对象。这就是程序
我想在Ruby中创建一个用于开发目的的极其简单的Web服务器(不,不想使用现成的解决方案)。代码如下:#!/usr/bin/rubyrequire'socket'server=TCPServer.new('127.0.0.1',8080)whileconnection=server.acceptheaders=[]length=0whileline=connection.getsheaders想法是从命令行运行这个脚本,提供另一个脚本,它将在其标准输入上获取请求,并在其标准输出上返回完整的响应。到目前为止一切顺利,但事实证明这真的很脆弱,因为它在第二个请求上中断并出现错误:/usr/b