全网唯一标准王
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210977122.0 (22)申请日 2022.08.15 (71)申请人 艾迪恩 (山 东) 科技有限公司 地址 264000 山东省烟台市芝罘区港城西 大街69号B座6楼 申请人 西南交通大 学烟台新 一代信息技 术 研究院 (72)发明人 郑狄 李晶 姚涛 闫连山  蒲桂东  (74)专利代理 机构 烟台双联专利事务所(普通 合伙) 37225 专利代理师 矫智兰 (51)Int.Cl. G06V 40/10(2022.01) G06V 10/774(2022.01)G06V 10/80(2022.01) G06V 10/762(2022.01) G06V 10/82(2022.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 基于改进YOLOV5模型的工地安全帽佩戴检 测方法 (57)摘要 本发明公开了一种基于改进YOLOV5模型的 工地安全帽佩戴检测方法, 基于单阶段原始的 YOLOV5目标检测模型, 通过优化网络 结构降低最 小感受野, 利用池化金字塔及注 意力机制等手段 规范输入尺寸, 模糊背景差异, 增强小目标学习 能力, 本发 明所提出的方法在基准网络基础上只 增加了少量参数及计算开销, 并显著提升了小目 标检测效果, 克服原始YOLOV 5目标检测模型小目 标场景检测性能较低的缺点, 改进后的YOLOV 5模 型能够在施工场景下的安全帽检测任务中有着 优异的检测表现, 在同一场景下比原始YOLOV 5网 络检测到 更多正样本, 提高了施工场景下安全帽 佩戴检测的可靠性, 降低漏检、 误检的情况发生。 权利要求书2页 说明书6页 附图4页 CN 115512387 A 2022.12.23 CN 115512387 A 1.基于改进YOLOV5模型的工地 安全帽佩戴检测方法, 其特 征在于: 步骤1、 收集并划分数据集: 收集开源数据 集SHWD、 SHD及其他网络图片, 制作所需数据 集, 将数据集划分为训练集、 验证集和 测试集; 步骤2、 对YOLOV5目标检测模型进行改进: 通过在原始的YOLOV5目标检测模型基础上优化网路结构, 得到改进后的YOLOV5模型; 所述改进后的YOLOV5模 型采用K‑Means++聚类算法实时计算锚框, 加速模型收敛; 采用Swin   Tranformer  Block作为Backbone高层语义提取网络, 增强模型上下文特征提取能力; 添加 小目标检测层, 降低网络最小感受野; 特征融合部 分融入SPPF特征融合金字塔, 通过多层次 的空间箱从不同的角度进行特征提取再聚合, 提升算法对物体变形的鲁棒性; 采用 Bottleneck  Transformer优化特征融合部分的卷积层, 增强网络特征融合能力; 采用 Shuffle Attention作为注意力机制更新特 征矩阵, 增强小目标 特征表达能力; 步骤3、 利用改进后的YOLOV5模型进行训练: 将所述步骤1数据集中的训练集送入改进后的YOLOV5模型进行训练, 并保存训练过程 中改进后的YOLOV5模型在验证集上检测准确率最高的权重参数, 并将权重文件命名为 best.pt; 步骤4、 利用改进后的YOLOV5模型进行检测: 加载步骤3所述权重文件best.pt至改进后的YOLOV5模型中, 并将测试集图像输入改进 后的YOLOV5模型, 得到该模 型在测试集上的检测结果, 检测到的结果分为两部分, 包含施工 场景下佩戴的安全帽与未佩戴安全帽的头 部。 2.根据权利要求1所述的基于改进YOLOV5模型的工地安全帽佩戴检测方法, 其特征在 于, 对于步骤1中的数据集为图片及文本文件格式的锚框坐标, 数据集类别分为安全帽和头 部两类。 3.根据权利要求2所述的基于改进YOLOV5模型的工地安全帽佩戴检测方法, 其特征在 于: 步骤2中, 所述的添加小目标检测层, 是在原始的YOLOV5目标检测模型的三个尺度输出 的基础上添加降低感受野的检测尺度, 使改进后的Y OLOV5模型在四种尺度上预测检测目标 的边界框; 在改进后的Y OLOV5模型的检测头中, 每个尺度都输出一个三维预测张量; 预测张 量中的编码信息包含: 预测框的位置信息、 待检测目标的置信度、 预测框中包含的目标类 别; 所述预测框中包 含的目标类别分为佩戴的安全帽及未佩戴安全帽的头 部; 在改进后的YOLOV5模型的检测部分中, 对于尺度大小为N ×N的特征图, 改进后的 YOLOV5模型产生的预测张量大小为N ×N×[4*(1+4+2)], 其中第一个4代表改进后的YOLOV5 模型有四个预测头, 对应四个尺度的张量, 1代表置信度的预测, 第二个4代表预测框位置信 息, 2代表目标类别为两个 类。 4.根据权利要求3所述的基于改进YOLOV5模型的工地安全帽佩戴检测方法, 其特征在 于: 步骤2所述 的Swin Transformer  Block是基于滑动窗口机制 新视觉网络, 其通过移位 窗口将自注意力的计算限制在非重叠的局部窗口内, 同时考虑跨窗口连接, 通过相邻窗口 合并扩大窗口感受野, 利用移位窗口划分方法, Sw in变换块被 计算为:权 利 要 求 书 1/2 页 2 CN 115512387 A 2    (1)                   (2)       (3)        (4) 其中 代表块的W ‑MSA模块的输入特征, 和 、 和 分别表示块的 (S) W ‑ MSA模块和MLP模块的输出特征; W ‑MSA和SW‑MSA分别表示使用规则和移位窗口划分配置的 基于窗口 的多头部自注意; L N表示LayerNorm层。 5.根据权利要求4所述的基于改进YOLOV5模型的工地安全帽佩戴检测方法, 其特征在 于: 步骤2所述的Bottleneck  Transformer属于Hybrid  network, 其将CNN与Tran sformer结 合起来处理对输入图像尺寸要求较高的视 觉任务。 6.根据权利要求5所述的基于改进YOLOV5模型的工地安全帽佩戴检测方法, 其特征在 于: 步骤2所述的Shuffle  Attention是多分支结构的置换注意力机制, 其利用组卷积高效 结合通道注意力与空间注意力。 7.根据权利要求6所述的基于改进YOLOV5模型的工地安全帽佩戴检测方法, 其特征在 于: 步骤3中, 将训练集的输入图像尺寸限制为M ×M, 使用批量大小为8的小批量随机梯度下 降法对损失函数进 行优化, 通过遗传算法进 行超参数训练, 训练120代后初始学习率设置为 0.01013, 动量设置为0.98; 在训练过程中使用余弦退火的方法来调整学习率, 从而加 速模 型收敛至全局最优; 训练过程中, 验证集用于对模 型的训练情况进 行反馈, 当模 型在验证集 上检测的准确率 最高时, 保存 模型的权 重参数至 权重文件best.pt  。 8.根据权利要求7所述的基于改进YOLOV5模型的工地安全帽佩戴检测方法, 其特征在 于: 步骤4中, 使用非极大值抑制方法对测试集中的检测结果进行筛选, 其中对于检测到的 安全帽, 使用绿色的框将其框出; 对于检测到的头 部, 使用红色框进行框出。权 利 要 求 书 2/2 页 3 CN 115512387 A 3

.PDF文档 专利 基于改进YOLOV5模型的工地安全帽佩戴检测方法

文档预览
中文文档 13 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共13页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 基于改进YOLOV5模型的工地安全帽佩戴检测方法 第 1 页 专利 基于改进YOLOV5模型的工地安全帽佩戴检测方法 第 2 页 专利 基于改进YOLOV5模型的工地安全帽佩戴检测方法 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 10:14:46上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。