改进点:
1.Backbone:使用的依旧是CSP的思想,不过YOLOv5中的C3模块被替换成了C2f模块,实现了进一步的轻量化,同时YOLOv8依旧使用了YOLOv5等架构中使用的SPPF模块;
2.PAN-FPN:毫无疑问YOLOv8依旧使用了PAN的思想,不过通过对比YOLOv5与YOLOv8的结构图可以看到,YOLOv8将YOLOv5中PAN-FPN上采样阶段中的卷积结构删除了,同时也将C3模块替换为了C2f模块;
3.Decoupled-Head:是不是嗅到了不一样的味道?是的YOLOv8走向了Decoupled-Head;
4.YOLOv8抛弃了以往的Anchor-Base,使用了Anchor-Free的思想;
5.损失函数:YOLOv8使用VFL Loss作为分类损失,使用DFL Loss+CIOU Loss作为分类损失;
6.样本匹配:YOLOv8抛弃了以往的IOU匹配或者单边比例的分配方式,而是使用了Task-Aligned Assigner匹配方式。
C2f模块就是参考了C3模块以及ELAN的思想进行的设计,让YOLOv8可以在保证轻量化的同时获得更加丰富的梯度流信息。
代码:
class C2f(nn.Module):
# CSP Bottleneck with 2 convolutions
def __init__(self, c1, c2, n=1, shortcut=False, g=1, e=0.5): # ch_in, ch_out, number, shortcut, groups, expansion
super().__init__()
self.c = int(c2 * e) # hidden channels
self.cv1 = Conv(c1, 2 * self.c, 1, 1)
self.cv2 = Conv((2 + n) * self.c, c2, 1) # optional act=FReLU(c2)
self.m = nn.ModuleList(Bottleneck(self.c, self.c, shortcut, g, k=((3, 3), (3, 3)), e=1.0) for _ in range(n))
def forward(self, x):
y = list(self.cv1(x).split((self.c, self.c), 1))
y.extend(m(y[-1]) for m in self.m)
return self.cv2(torch.cat(y, 1))
2.遥感目标检测——RSOD
2.1 RSOD数据集
下载路径:https://github.com/RSIA-LIESMARS-WHU/RSOD-Dataset-
本文选择aircraft dataset,oiltank
数据集两个类别大小611张,随机按照8:1:1进行分配
YOLOv8 summary (fused): 168 layers, 3006038 parameters, 0 gradients, 8.1 GFLOPs
Class Images Instances Box(P R mAP50 mAP50-95): 100%|██████████| 4/4 [00:06<00:00, 1.54s/it]
all 109 1153 0.962 0.945 0.984 0.728
aircraft 109 844 0.957 0.943 0.979 0.678
oiltank 109 309 0.967 0.947 0.989 0.778
Speed: 0.3ms preprocess, 2.3ms inference, 0.0ms loss, 2.0ms postprocess per image
训练结果如下:
P_curve.png
表示准确率与置信度的关系图线,横坐标置信度。
由下图可以看出置信度越高,准确率越高。
PR_curve.png
PR曲线中的P代表的是precision(精准率),R代表的是recall(召回率),其代表的是精准率与召回率的关系。
R_curve.png
召回率与置信度之间关系,具体参照 P_curve。
results.png
(1,1),(2,1):该图分别表示训练时和验证时ClOU损失函数的均值,越小方框越准。
(1,2),(2,2):推测为目标检测loss均值,越小目标越准。
(2,4),(2,5):表示在不同IoU阈值时计算每一类中所有图片的AP然后所有类别求取均值。
mAP_0.5:0.95表示从0.5到0.95以0.05的步长上的平均mAP.
阅读量:670
点赞量:0
收藏量:0