首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 62 毫秒
1.
针对破壳鸡蛋(破口蛋和裂纹蛋)缺陷差异性大,在线检测要求实时,以及人工检测依靠主观经验且检测速度慢、检测精度不高等问题,该研究提出一种基于改进的YOLOv7(You Only Look Once v7)模型的破壳鸡蛋在线实时检测系统。即以YOLOv7网络为基础,将YOLOv7网络的损失函数CIoU(complete-IoU)替换为WIoUv2(wise-IoU),在骨干网络(backbone)中嵌入坐标注意力模块(coordinate attention,CA)和添加可变形卷积DCNv2(deformable convnet)模块,同时将YOLOv7网络中的检测头(IDetect)替换为具有隐式知识学习的解耦检测头(IDetect_Decoupled)模块。在PC端的试验结果表明,改进后的模型在测试集上平均精度均值(mean average precision,mAP)为94.0%,单张图片检测时间为13.1 ms,与模型改进之前相比,其mAP提高了2.9个百分点,检测时间仅延长1.0 ms;改进后模型的参数量为3.64×107,较原始模型降低了2.1%。最后通过格式转换并利用ONNXRuntime深度学习框架把模型部署至设备端,在ONNXRuntime推理框架下进行在线检测验证。试验结果表明:该算法相较原始YOLOv7误检率降低了3.8个百分点,漏检率不变,并且在线检测平均帧率约为54帧/s,满足在线实时性检测需求。该研究可为破壳鸡蛋在线检测研究提供技术参考。  相似文献   

2.
为确保油茶果实处于最佳成熟度进行采摘,提高油茶果实的出油率及茶油品质,该研究针对自然环境下油茶果实多被遮挡的问题,以原始YOLOv7模型为基础进行改进,提出一种油茶果实成熟度检测方法。首先,在主干网络中引入十字交叉注意力机制(criss-cross attention,CCA)加强对被枝叶遮挡果实成熟度特征的提取能力;其次,使用基于距离和交并比的非极大值抑制(distance-iou non-maximum suppression,DIoU-NMS)算法代替传统非极大值抑制(nonmaximum suppression,NMS)算法,从而加强模型对相互遮挡果实的检测能力;最后,以训练集中3 098张油茶果实图像训练改进的YOLOv7模型,验证集中442张图像用于在训练过程中评估模型,并对测试集中885张图像进行测试。改进后的YOLOv7模型在测试集下的精确率P为93.52%,召回率R为90.25%,F1分数为91.86%,平均精度均值mAP为94.60%,平均检测时间为0.77 s,模型权重大小为82.6 M。与Faster R-CNN、EfficientDet、YOLOv3、YOLO...  相似文献   

3.
在复杂果园环境中,传统机器视觉算法难以处理光影变化、遮挡、杂草等因素的干扰,导致导航道路分割不准确。针对此问题,该研究提出了一种改进YOLOv7的果园内导航线检测方法。将注意力机制模块(convolutional block attention module,CBAM)引入到原始YOLOv7模型的检测头网络中,增强果树目标特征,削弱背景干扰;在ELAN-H(efficient layer aggregation networks-head,ELAN-H)模块和Repconv(re-parameterization convolution,Repconv)模块之间引入SPD-Conv(space-to-depth,non-strided convolution,SPD-Conv)模块,提高模型对低分辨率图像或小尺寸目标的检测能力。以树干根部中点作为导航定位基点,利用改进YOLOv7模型得到两侧果树行线的定位参照点,然后利用最小二乘法拟合两侧果树行线和导航线。试验结果表明,改进YOLOv7模型检测精度为95.21%,检测速度为42.07帧/s,相比于原始YOLOv7模型分别提升了2.31个百分点和4.85帧/s,能够较为准确地识别出树干,且对树干较密的枣园图像也能达到较好的检测效果;提取到的定位参照点与人工标记树干中点的平均误差为8.85 cm,拟合导航线与人工观测导航线的平均偏差为4.90 cm,处理1帧图像平均耗时为0.044 s,能够满足果园内导航需求。  相似文献   

4.
针对人工分拣柑橘过程中,检测表面缺陷费时费力的问题,该文提出了一种基于改进SSD深度学习模型的柑橘实时分类检测方法。在经改装的自制打蜡机试验台架下采集单幅图像含有多类多个柑橘的样本2 500张,随机选取其中2 000张为训练集,500张为测试集,在数据集中共有正常柑橘19 507个,表皮病变柑橘9 097个,机械损伤柑橘4 327个。该方法通过单阶段检测模型SSD-ResNet18对图片进行计算和预测,并返回图中柑橘的位置与类别,以此实现柑橘的分类检测。以平均精度AP(average precision)的均值m AP(mean average precision)作为精度指标,平均检测时间作为速度指标,在使用不同特征图、不同分辨率和ResNet18、MobileNetV3、ESPNetV2、VoVNet39等4种不同特征提取网络时,进行模型分类检测效果对比试验研究。研究表明,该模型使用C4、C5特征图,768×768像素的分辨率较为合适,特征提取网络ResNet18在检测速度上存在明显优势,最终该模型的m AP达到87.89%,比原SSD的87.55%高出0.34个百分点,平均检测时间为20.27 ms,相较于原SSD的108.83 ms,检测耗时降低了436.90%。该模型可以同时对多类多个柑橘进行实时分类检测,可为自动化生产线上分拣表面缺陷柑橘的识别方面提供技术借鉴。  相似文献   

5.
棉田虫害的快速检测与准确识别是预防棉田虫害、提高棉花品质的重要前提。针对真实棉田环境下昆虫相似度高、背景干扰严重的问题,提出一种ECSF-YOLOv7棉田虫害检测模型。首先,采用EfficientFormerV2作为特征提取网络,以加强网络的特征提取能力并减少模型参数量;同时,将卷积注意力模块(convolution block attention module,CBAM)嵌入到模型的主干输出端,以增强模型对小目标的特征提取能力并削弱背景干扰;其次,使用GSConv卷积搭建Slim-Neck颈部网络结构,在减少模型参数量的同时保持模型的识别精度;最后,采用Focal-EIOU(focal and efficient IOU loss,Focal-EIOU)作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进的ECSF-YOLOv7模型在棉田虫害测试集上的平均精度均值(mean average precision,mAP)为95.71%,检测速度为69.47帧/s。与主流的目标检测模型YOLOv7、SSD、YOLOv5l和YOLOX-m相比,ECSF-YOLOv7模型的mAP分别高出1.43、9.08、1.94、1.52个百分点,并且改进模型具有参数量更小、检测速度更快的优势,可为棉田虫害快速准确检测提供技术支持。  相似文献   

6.
芽眼精准检测是实现马铃薯种薯智能化切块的前提,但由于种薯芽眼区域所占面积小、可提取特征少以及种薯表面背景复杂等问题极易导致芽眼检测精度不高。为实现种薯芽眼精准检测,该研究提出一种基于改进YOLOv7的马铃薯种薯芽眼检测模型。首先在Backbone部分增加Contextual Transformer自注意力机制,通过赋予芽眼区域与背景区域不同权值大小,提升网络对芽眼的关注度并剔除冗余的背景信息;其次在Head部分利用InceptionNeXt模块替换原ELAN-H模块,减少因网络深度增加而造成芽眼高维特征信息的丢失,更好地进行多尺度融合提升芽眼的检测效果;最后更改边界框损失函数为NWD,降低损失值,加快网络模型的收敛速度。经试验,改进后的YOLOv7网络模型平均准确率均值达到95.40%,较原始模型提高4.2个百分点。与同类目标检测模型Faster-RCNN(ResNet50)、Faster-RCNN(VGG)、SSD、YOLOv3、YOLOv4、YOLOv5n、YOLOX相比,其检测精度分别高出34.09、26.32、27.25、22.88、35.92、17.23和15.70个百分点。...  相似文献   

7.
在干扰、遮挡等复杂环境下,对鸭蛋进行快速、准确识别定位是开发鸭蛋拾取机器人的关键技术,该研究提出一种基于改进YOLOv7(you only look once)模型的复杂环境鸭蛋检测方法,在主干网络加入卷积注意力模块(CBAM,convolutional block attention module),加强网络信息传递,提高模型对特征的敏感程度,减少复杂环境对鸭蛋识别干扰;利用深度可分离卷积(DSC,depthwise separable convolution)、调整空间金字塔池化结构(SPP,spatial pyramid pooling),降低模型参数数量和运算成本。试验结果表明,与SSD、YOLOv4、YOLOv5_M以及YOLOv7相比,改进YOLOv7模型的F1分数(F1 score)分别提高了8.3、10.1、8.7和7.6个百分点,F1分数达95.5%,占内存空间68.7 M,单张图片检测平均用时0.022 s。与不同模型在复杂环境的检测对比试验表明,改进的YOLOv7模型,在遮挡、簇拥、昏暗等复杂环境下,均能对鸭蛋进行准确快速的识别定位,具有较强鲁棒性和适用性。该研究可为后续开发鸭蛋拾取机器人提供技术支撑。  相似文献   

8.
刘诗怡  胡滨  赵春 《农业工程学报》2023,39(15):163-171
黄瓜叶片病虫害的检测与识别是科学防治病害的有效手段。为了提高对黄瓜叶片病斑细小特征的精准定位能力以及提高对早疫病叶片的检测性能,提出一种DCNSE-YOLOv7的深度学习算法。首先,将主干特征提取网络中对最后一个特征层的卷积2D convolution(Conv2D)改为可变形卷积2D Deformable convolution(DCNv2),提高模型对病斑细小特征的提取能力;其次,对主干特征提取网络输出的3个特征层结果添加Squeeze-and-Excitation networks(SENet)注意力机制模块构建网络模型,加强模型对发病早期相似病害特征的有效提取能力;同时,通过K-means++聚类算法对锚框重新聚类,避免算法在训练过程中盲目学习目标的尺寸和位置;最后,将原始YOLOv7的CIOU损失函数,更替为Focal-EIOU损失函数。试验结果表明,DCNSE-YOLOv7算法能够有效对黄瓜叶片病虫害进行检测,其平均精度均值为94.25%,比YOLOv5l、YOLOv7、Faster-RCNN、SSD和YOLOv7-tiny模型分别提高了2.72、2.87、0.28、12....  相似文献   

9.
目标检测与分割是实现黄花菜智能化采摘的关键技术,原始目标检测算法容易出现漏检、误检等问题,无法满足自然环境下生长的黄花菜采摘要求。该研究提出一种基于改进YOLOv7-seg的黄花菜目标检测与实例分割识别算法模型(YOLO-Daylily)。通过在YOLOv7-seg骨干网络(backbone)中引入CBAM(convolutional block attention module)注意力机制模块,降低背景等干扰因素的影响;在ELAN(efficient layer aggregation networks)模块中采用PConv(partial convolution)替换原有的3×3卷积层,减少冗余计算和内存访问,提升对目标黄花菜特征提取的能力。颈部网络(neck)采用坐标卷积(CoordConv)替换PA-FPN(path aggregation-feature pyramid networks)中1×1卷积层,增强模型对位置的感知,提高掩膜(mask)鲁棒性。在改进的PA-FPN结构中采用残差连接方法将浅层特征图几何信息与深层特征图语义信息特征相结合,提高模型对目标黄花菜的检测分割性能。消融试验表明:改进后的算法检测准确率、召回率和平均精度分别达到92%、86.5%、93%,相比YOLOv7-seg基线算法分别提升2.5、2.3、2.7个百分点;分割准确率、召回率和平均精度分别达到92%、86.7%、93.5%,比基线算法分别提升0.2、3.5、3个百分点。与Mask R-CNN、SOLOv2、YOLOV5-seg、YOLOv5x-seg算法相比,平均精度分别提升8.4、12.7、4.8、5.4个百分点。改进后的模型减少了漏检、误检等情况,对目标定位更加精准,为后续黄花菜智能化采摘实际应用提供理论支持。  相似文献   

10.
为解决自然环境中番茄叶片病虫害检测场景复杂、检测精度较低,计算复杂度高等问题,提出一种SLP-YOLOv7-tiny的深度学习算法。首先,将主干特征提取网络中部分3×3的卷积Conv2D(2D convolution)改为分布偏移卷积DSConv2D(2D Depthwise Separable Convolution),以减少网络的计算量,并且使计算速度更快,占用内存更少;其次,将无参数注意力机制(parameter-free attention module, SimAM)融合到骨干特征提取网络中,加强模型对病虫害特征的有效提取能力和特征整合能力;最后,将原始YOLOv7-tiny的CIOU损失函数,更替为Focal-EIOU损失函数,加快模型收敛并降低损失值。试验结果表明,SLP-YOLOv7-tiny模型整体识别精准度、召回率、平均精度均值mAP0.5(IOU阈值为0.5时的平均精度)、mAP0.5~0.95(IOU阈值从0.5到0.95之间的所有值进行平均计算的平均精度)分别为95.9%、94.6%、98.0%、91.4%,与改进前YOLOv7-tiny相比,分别提升14.7、29.2、20.2、30个百分点,同时,计算量降低了62.6%,检测速度提升了13.2%。与YOLOv5n、YOLOv5s、YOLOv5m、YOLOv7、YOLOv7-tiny、Faster-RCNN、SSD目标检测模型相比,mAP0.5分别提升了2.0、1.6、2.0、2.2、20.2、6.1和5.3个百分点,而计算量大小仅为YOLOv5s、YOLOv5m、YOLOv7、Faster-RCNN、SSD的31.5%、10.6%、4.9%、4.3%、3.8%。结果表明SLP-YOLOv7-tiny可以准确快速地实现番茄叶片病虫害的检测,且模型较小,可为番茄叶片病虫害的快速精准检测的发展提供一定的技术支持。  相似文献   

11.
针对复杂环境下柑橘果实大量重叠、枝叶遮挡且现有模型参数量大、计算复杂度高等问题,提出了一种基于改进YOLOv8n的柑橘识别模型YOLOv8-MEIN。首先,该研究设计了ME卷积模块并使用它改进YOLOv8n的C2f模块。其次,为了弥补CIoU损失函数在检测任务中泛化性弱和收敛速度慢的问题,使用Inner-CIoU损失函数加速边界框回归,提高模型检测性能。最后,在自建数据集上进行模型试验对比,试验结果表明,YOLOv8-MEIN模型交并比阈值为0.5的平均精度均值mAP0.5值为96.9%,召回率为91.7%,交并比阈值为0.5~0.95的平均精度均值mAP0.5~0.95值为85.8%,模型大小为5.8MB,参数量为2.87M。与原模型YOLOv8n相比,mAP0.5值、召回率、mAP0.5~0.95值分别提高了0.4、1.0、0.6个百分点,模型大小和参数量相比于原模型分别降低了3.3%和4.3%,为柑橘的自动化采摘提供技术参考。  相似文献   

12.
针对目前苹果在复杂环境下难以进行生长状态分类识别、姿态信息同步获取等问题,该研究提出了一种基于改进YOLOv7的苹果生长状态分类和果实姿态融合识别方法。首先改进多尺度特征融合网络,在骨干网络中增加160×160的特征尺度层,用于增强模型对微小局部特征的识别敏感度;其次引入注意力机制CBAM(convolutional block attention module),改善网络对输入图片的感兴趣目标区域的关注度;最后采用Soft-NMS算法,能够有效避免高密度重叠目标被一次抑制从而发生漏检现象。此外,结合UNet分割网络和最小外接圆及矩形特征获取未遮挡苹果姿态。试验结果表明,改进YOLOv7的识别精确率、召回率和平均识别精度分别为86.9%、80.5%和87.1%,相比原始YOLOv7模型分别提高了4.2、2.2和3.7个百分点,另外苹果姿态检测方法的准确率为94%。该文模型能够实现苹果生长状态分类及果实姿态识别,可为末端执行器提供了抓取方向,以期为苹果无损高效的采摘奠定基础。  相似文献   

13.
赵晨  陈明 《农业工程学报》2024,40(11):168-177
针对水下底栖生物检测模型参数量过多,计算量过大,同时水下环境复杂容易造成错检和漏检,影响模型在水下底栖生物检测任务中的准确性的问题。提出了一种水下底栖生物轻量化检测算法YOLOv7-RFPCW。对YOLOv7网络重新设计轻量级网络结构,降低了特征提取网络的参数量和计算量,减少模型体积。设计了P-ELAN和P-ELAN-W模块,进一步轻量化特征提取网络;针对水下图像颜色失真,目标的空间位置不准确的问题,采用CBAM注意力模块加强特征融合,减少信息丢失,以更好地适应特殊的水下环境;针对水下目标容易出现形状变形的问题,使用WIOU-V3损失函数替换默认的CIOU损失函数,提高水下底栖生物检测的鲁棒性。试验结果显示,改进后的模型YOLOv7-RFPCW的参数量和计算量分别减少了75.9%和30.7%,模型体积减小了75.3%,精度提升了1.9个百分点。这一综合性的提升兼顾了轻量化和精度,为在水下环境中部署提供了可行的解决方案,验证了所提出的改进算法能胜任水下底栖生物检测任务。  相似文献   

14.
畜牧业自动化管理面临的一个关键挑战是如何准确地检测大规模放牧养殖牲畜的种群,确定其数量和实时更新群体信息。牲畜规模化、自动化检测受环境场地等因素影响,当前目标检测算法经常出现漏检、误检等情况。该研究基于YOLOV5s目标检测网络设计了一种牲畜检测算法LDHorNet(livestock detect hor net),参考HorNet的递归门控卷积设计了HorNB模块对网络模型进行改进,以提高检测算法的空间交互能力和检测精度。然后在网络结构中嵌入CBAM(convolutional block attention module)注意力机制,以提高小目标的检测精度和注意力权重,并利用Repulsion 损失函数提高目标检测网络的召回率和预测精度。试验结果表明,所提出的LDHorNet算法的精准率、召回率分别为95.24%、88.87%,平均精准率均值mAP_0.5、mAP_0.5:0.95分别为94.11%、77.01%,比YOLOv5s、YOLOv8s、YOLOv7-Tiny精准率分别提高了2.83、2.93和9.79个百分点,召回率分别提高了6.66和4.95、13.42个百分点,平均精准率均值mAP_0.5:0.95分别提高12.46、5.26和20.97个百分点。该算法对于小目标和遮挡场景下的牲畜检测效果优于原算法与对比算法,表现出良好的鲁棒性,具有广泛的应用前景。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号