admin管理员组文章数量:1487745
YoloV8改进策略:Intel面向参数高效动态卷积KernelWarehouse,YoloV8的上分显眼包
摘要
Intel提出了一种名为KernelWarehouse的通用动态卷积形式,旨在提高模型的表示能力并保持参数效率。KernelWarehouse通过对卷积核进行划分和共享,增强了相同层和连续层之间的卷积参数依赖性。该方法首先将卷积核划分为互不重叠的核单元,然后基于一个预定义的仓库计算每个核单元的线性混合,这个仓库被共享到多个相邻的卷积层中。最后将静态卷积核替换为其对应的混合结果的顺序组合,从而在满足所需的参数预算的同时,实现了高度的模型自由度。通过使用新的注意力函数对核单元进行加权的注意力,KernelWarehouse可以方便地学习并优化模型。
在实验部分,论文在ImageNet和MS-COCO数据集上验证了所提出的方法,并表明其取得了最先进的结果。例如,使用ImageNet上的KernelWarehouse训练的ResNet18|ResNet50|MobileNetV2|ConvNeXt-Tiny模型达到了76.05%|81.05%|75.92%|82.51%的top-1精度。此外,KernelWarehouse甚至可以在提高精度的同时减少卷积网络的模型大小。例如,与基线相比,ResNet18模型的参数减少了36.45%|65.10%,但对top-1精度的绝对提高了2.89%|2.29%。
KernelWarehouse是一种通用且高效的动态卷积方法,可以在不增加参数数量的同时提高模型的表示能力。该方法为未来的研究提供了一种有前途的框架,可以进一步探索动态卷积和模型自由度的增强。
将KernelWarehouse加入和YoloV8中,会产生什么样的效果呢?我们拭目以待!
Yolov8官方结果
代码语言:javascript代码运行次数:0运行复制YOLOv8l summary (fused): 268 layers, 43631280 parameters, 0 gradients, 165.0 GFLOPs
Class Images Instances Box(P R mAP50 mAP50-95): 100%|██████████| 29/29 [
all 230 1412 0.922 0.957 0.986 0.737
c17 230 131 0.973 0.992 0.995 0.825
c5 230 68 0.945 1 0.995 0.836
helicopter 230 43 0.96 0.907 0.951 0.607
c130 230 85 0.984 1 0.995 0.655
f16 230 57 0.955 0.965 0.985 0.669
b2 230 2 0.704 1 0.995 0.722
other 230 86 0.903 0.942 0.963 0.534
b52 230 70 0.96 0.971 0.978 0.831
kc10 230 62 0.999 0.984 0.99 0.847
command 230 40 0.97 1 0.995 0.811
f15 230 123 0.891 1 0.992 0.701
kc135 230 91 0.971 0.989 0.986 0.712
a10 230 27 1 0.555 0.899 0.456
b1 230 20 0.972 1 0.995 0.793
aew 230 25 0.945 1 0.99 0.784
f22 230 17 0.913 1 0.995 0.725
p3 230 105 0.99 1 0.995 0.801
p8 230 1 0.637 1 0.995 0.597
f35 230 32 0.939 0.938 0.978 0.574
f18 230 125 0.985 0.992 0.987 0.817
v22 230 41 0.983 1 0.995 0.69
su-27 230 31 0.925 1 0.995 0.859
il-38 230 27 0.972 1 0.995 0.811
tu-134 230 1 0.663 1 0.995 0.895
su-33 230 2 1 0.611 0.995 0.796
an-70 230 2 0.766 1 0.995 0.73
tu-22 230 98 0.984 1 0.995 0.831
Speed: 0.2ms preprocess, 3.8ms inference, 0.0ms loss, 0.8ms postprocess per image
改进一
测试结果
代码语言:javascript代码运行次数:0运行复制YOLOv8l summary (fused): 208 layers, 43619376 parameters, 0 gradients, 165.0 GFLOPs
all 230 1412 0.942 0.985 0.99 0.752
c17 230 131 0.983 0.992 0.995 0.833
c5 230 68 0.929 1 0.995 0.836
helicopter 230 43 0.934 1 0.988 0.63
c130 230 85 0.973 1 0.995 0.687
f16 230 57 0.986 0.965 0.979 0.69
b2 230 2 0.832 1 0.995 0.822
other 230 86 0.938 0.965 0.967 0.511
b52 230 70 0.948 0.971 0.987 0.835
kc10 230 62 0.99 0.984 0.988 0.82
command 230 40 0.979 1 0.995 0.83
f15 230 123 0.973 0.992 0.995 0.704
kc135 230 91 0.982 0.989 0.99 0.697
a10 230 27 1 0.814 0.958 0.481
b1 230 20 0.98 1 0.995 0.727
aew 230 25 0.941 1 0.989 0.754
f22 230 17 0.966 1 0.995 0.781
p3 230 105 0.99 0.993 0.995 0.807
p8 230 1 0.716 1 0.995 0.796
f35 230 32 0.96 0.969 0.99 0.551
f18 230 125 0.988 0.992 0.988 0.824
v22 230 41 0.988 1 0.995 0.734
su-27 230 31 0.927 1 0.995 0.865
il-38 230 27 0.977 1 0.995 0.833
tu-134 230 1 0.735 1 0.995 0.895
su-33 230 2 1 0.967 0.995 0.734
an-70 230 2 0.827 1 0.995 0.796
tu-22 230 98 0.995 1 0.995 0.833
Speed: 0.3ms preprocess, 3.3ms inference, 0.0ms loss, 0.5ms postprocess per image
还是有一定的提升的!我们在试试其他的方法。
改进二
测试结果
代码语言:javascript代码运行次数:0运行复制YOLOv8l summary (fused): 192 layers, 43612976 parameters, 0 gradients, 165.0 GFLOPs
Class Images Instances Box(P R mAP50 mAP50-95): 100%|██████████| 15/15 [00:02<00:00, 6.34it/s]
all 230 1412 0.95 0.974 0.988 0.739
c17 230 131 0.99 0.992 0.995 0.821
c5 230 68 0.977 1 0.995 0.827
helicopter 230 43 0.975 0.921 0.98 0.609
c130 230 85 0.987 0.988 0.995 0.651
f16 230 57 0.997 0.965 0.968 0.667
b2 230 2 0.835 1 0.995 0.896
other 230 86 0.928 0.93 0.955 0.527
b52 230 70 0.986 0.984 0.982 0.82
kc10 230 62 1 0.98 0.988 0.835
command 230 40 0.998 1 0.995 0.805
f15 230 123 0.987 0.992 0.995 0.654
kc135 230 91 0.976 0.989 0.979 0.678
a10 230 27 0.957 0.832 0.962 0.433
b1 230 20 0.977 1 0.995 0.722
aew 230 25 0.936 1 0.969 0.746
f22 230 17 0.938 1 0.995 0.758
p3 230 105 1 0.987 0.995 0.811
p8 230 1 0.785 1 0.995 0.697
f35 230 32 0.96 0.76 0.986 0.563
f18 230 125 0.992 0.987 0.99 0.814
v22 230 41 0.992 1 0.995 0.662
su-27 230 31 0.987 1 0.995 0.852
il-38 230 27 0.987 1 0.995 0.821
tu-134 230 1 0.79 1 0.995 0.995
su-33 230 2 0.866 1 0.995 0.759
an-70 230 2 0.861 1 0.995 0.725
tu-22 230 98 0.989 1 0.995 0.805
Speed: 0.4ms preprocess, 3.1ms inference, 0.0ms loss, 1.1ms postprocess per image
与改进一相比有下降,但是比官方的模型还是有提升的。
改进三
测试结果
代码语言:javascript代码运行次数:0运行复制YOLOv8l summary (fused): 202 layers, 45089072 parameters, 0 gradients, 174.3 GFLOPs
Class Images Instances Box(P R mAP50 mAP50-95): 100%|██████████| 15/15 [00:02<00:00, 5.75it/s]
all 230 1412 0.966 0.952 0.988 0.745
c17 230 131 0.992 0.977 0.995 0.819
c5 230 68 0.983 1 0.994 0.821
helicopter 230 43 0.948 0.845 0.977 0.566
c130 230 85 0.988 0.977 0.995 0.687
f16 230 57 1 0.879 0.967 0.66
b2 230 2 0.925 1 0.995 0.896
other 230 86 0.987 0.906 0.954 0.51
b52 230 70 0.985 0.962 0.98 0.814
kc10 230 62 1 0.978 0.988 0.836
command 230 40 0.992 1 0.995 0.806
f15 230 123 1 0.964 0.995 0.682
kc135 230 91 0.977 0.989 0.984 0.706
a10 230 27 1 0.465 0.968 0.472
b1 230 20 0.99 1 0.995 0.746
aew 230 25 0.928 1 0.983 0.802
f22 230 17 0.977 1 0.995 0.752
p3 230 105 1 0.982 0.995 0.807
p8 230 1 0.879 1 0.995 0.895
f35 230 32 1 0.797 0.982 0.542
f18 230 125 0.992 0.989 0.99 0.824
v22 230 41 0.997 1 0.995 0.709
su-27 230 31 0.991 1 0.995 0.862
il-38 230 27 0.987 1 0.995 0.787
tu-134 230 1 0.726 1 0.995 0.895
su-33 230 2 0.911 1 0.995 0.751
an-70 230 2 0.92 1 0.995 0.697
tu-22 230 98 0.996 1 0.995 0.78
Speed: 0.5ms preprocess, 3.4ms inference, 0.0ms loss, 0.6ms postprocess per image
可以看出增加的Conv_Ware模块还是有作用的!
文章和代码:
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。原始发表:2023-10-04,如有侵权请联系 cloudcommunity@tencent 删除intel测试论文模型优化本文标签: YoloV8改进策略Intel面向参数高效动态卷积KernelWarehouse,YoloV8的上分显眼包
版权声明:本文标题:YoloV8改进策略:Intel面向参数高效动态卷积KernelWarehouse,YoloV8的上分显眼包 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.betaflare.com/shuma/1754688368a3177294.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论