首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 140 毫秒
1.
基于改进RetinaNet的果园复杂环境下苹果检测   总被引:1,自引:1,他引:0  
为了快速准确地检测重叠、遮挡等果园复杂环境下的苹果果实目标,该研究提出一种基于改进RetinaNet的苹果检测网络。首先,该网络在传统RetinaNet的骨干网络ResNet50中嵌入Res2Net模块,提高网络对苹果基础特征的提取能力;其次,采用加权双向特征金字塔网络(Bi-directional Feature Pyramid Network,BiFPN)对不同尺度的特征进行加权融合,提升对小目标和遮挡目标的召回率;最后,采用基于焦损失(Focal Loss)和高效交并比损失(Efficient Intersection over Union Loss,EIoU Loss)的联合损失函数对网络进行优化,提高网络的检测准确率。试验结果表明,改进的网络在测试集上对叶片遮挡、枝干/电线遮挡、果实遮挡和无遮挡的苹果检测精度分别为94.02%、86.74%、89.42%和94.84%,平均精度均值(mean Average Precision,mAP)达到91.26%,较传统RetinaNet提升了5.02个百分点,检测一张苹果图像耗时42.72 ms。与Faster-RCNN和YOLOv4等主流目标检测网络相比,改进网络具有优异的检测精度,同时可以满足实时性的要求,为采摘机器人的采摘策略提供了参考。  相似文献   

2.
基于改进YOLOv3的果园复杂环境下苹果果实识别   总被引:5,自引:4,他引:1  
为使采摘机器人能够全天候的在不同光照、重叠遮挡、大视场等果园复杂环境下对不同成熟度的果实进行快速、准确的识别,该研究提出了一种基于改进YOLOv3的果实识别方法。首先,将DarkNet53网络中的残差模块与CSPNet(Cross Stage Paritial Network)结合,在保持检测精度的同时降低网络的计算量;其次,在原始YOLOv3模型的检测网络中加入SPP(Spatial Pyramid Pooling)模块,将果实的全局和局部特征进行融合,提高对极小果实目标的召回率;同时,采用Soft NMS(Soft Non-Maximum Suppression)算法代替传统NMS(Non-Maximum Suppression)算法,增强对重叠遮挡果实的识别能力;最后,采用基于Focal Loss和CIoU Loss的联合损失函数,对模型进行优化,提高识别精度。以苹果为例进行的试验结果表明:经过数据集训练之后的改进模型,在测试集下的MAP(Mean Average Precision)值达到96.3%,较原模型提高了3.8个百分点;F1值达到91.8%,较原模型提高了3.8个百分点;在GPU下的平均检测速度达到27.8帧/s,较原模型提高了5.6帧/s。与Faster RCNN、RetinaNet等几种目前先进的检测方法进行比较并在不同数目、不同光照情况下的对比试验结果表明,该方法具有优异的检测精度及良好的鲁棒性和实时性,对解决复杂环境下果实的精准识别问题具有重要参考价值。  相似文献   

3.
基于改进YOLOv4-Tiny的蓝莓成熟度识别方法   总被引:3,自引:2,他引:1  
为实现自然环境下蓝莓果实成熟度的精确快速识别,该研究对YOLOv4-Tiny网络结构进行改进,提出一种含有注意力模块的目标检测网络(I-YOLOv4-Tiny)。该检测网络采用CSPDarknet53-Tiny网络模型作为主干网络,将卷积注意力模块(Convolution Block Attention Module,CBAM)加入到YOLOv4-Tiny网络结构的特征金字塔(Feature Pyramid Network,FPN)中,通过对每个通道的特征进行权重分配来学习不同通道间特征的相关性,加强网络结构深层信息的传递,从而降低复杂背景对目标识别的干扰,且该检测网络的网络层数较少,占用内存低,以此提升蓝莓果实检测的精度与速度。对该研究识别方法进行性能评估与对比试验的结果表明,经过训练的I-YOLOv4-Tiny目标检测网络在验证集下的平均精度达到97.30%,能有效地利用自然环境中的彩色图像识别蓝莓果实并检测果实成熟度。对比YOLOv4-Tiny、YOLOv4、SSD-MobileNet、Faster R-CNN目标检测网络,该研究在遮挡与光照不均等复杂场景中,平均精度能达到96.24%。平均检测时间为5.723 ms,可以同时满足蓝莓果实识别精度与速度的需求。I-YOLOv4-Tiny网络结构占用内存仅为24.20 M,为采摘机器人与早期产量预估提供快速精准的目标识别指导。  相似文献   

4.
采用改进YOLOv3算法检测青皮核桃   总被引:2,自引:2,他引:0  
使用机器视觉对果实检测并进行估产是实现果园智能化管理的重要途径,针对自然环境下青皮核桃与叶片颜色差异小、核桃体积较小导致青皮核桃不易检出的问题,提出一种基于改进YOLOv3的青皮核桃视觉检测方法。依据数据集特征进行数据增强,引入Mixup数据增强方法,该研究使模型从更深的维度学习核桃特征;针对核桃单种类目标检测比较不同预训练模型,选择精度提升更明显的Microsoft Common Objects in Context(COCO)数据集预训练模型;依据标注框尺寸统计对锚框进行调整,避免锚框集中,提升模型多尺度优势。在消融试验中,前期改进将平均精度均值提升至93.30%,在此基础上,引入MobilNet-v3骨干网络替换YOLOv3算法中原始骨干网络,提升模型检测能力及轻量化。试验表明,基于改进YOLOv3的青皮核桃检测平均精度均值为94.52%,超越YOLOv3其他2个骨干网络和Faster RCNN-ResNet-50网络。本文改进模型大小为88.6 M,检测速度为31帧/s,检测速度是Faster RCNN-ResNet-50网络的3倍,可以满足青皮核桃实时准确检测需求。该方法可为核桃果园智能化管理中的估产、采收规划等提供技术支撑,也可为近背景颜色的小果实实时准确检测提供思路。  相似文献   

5.
基于改进型YOLOv4-LITE轻量级神经网络的密集圣女果识别   总被引:9,自引:9,他引:0  
对密集圣女果遮挡、粘连等情况下的果实进行快速识别定位,是提高设施农业环境下圣女果采摘机器人工作效率和产量预测的关键技术之一,该研究提出了一种基于改进YOLOv4-LITE轻量级神经网络的圣女果识别定位方法。为便于迁移到移动终端,该方法使用MobileNet-v3作为模型的特征提取网络构建YOLOv4-LITE网络,以提高圣女果果实目标检测速度;为避免替换骨干网络降低检测精度,通过修改特征金字塔网络(Feature Pyramid Networks,FPN)+路径聚合网络(Path Aggregation Network,PANet)的结构,引入有利于小目标检测的104×104尺度特征层,实现细粒度检测,在PANet结构中使用深度可分离卷积代替普通卷积降低模型运算量,使网络更加轻量化;并通过载入预训练权重和冻结部分层训练方式提高模型的泛化能力。通过与YOLOv4在相同遮挡或粘连程度的测试集上的识别效果进行对比,用调和均值、平均精度、准确率评价模型之间的差异。试验结果表明:在重叠度IOU为0.50时所提出的密集圣女果识别模型在全部测试集上调和均值、平均精度和准确率分别为0.99、99.74%和99.15%,同比YOLOv4分别提升了0.15、8.29个百分点、6.54个百分点,权重大小为45.3 MB,约为YOLOv4的1/5,对单幅416×416像素图像的检测,在图形处理器(Graphics Processing Unit,GPU)上速度可达3.01 ms/张。因此,该研究提出的密集圣女果识别模型具有识别速度快、识别准确率高、轻量化等特点,可为设施农业环境下圣女果采摘机器人高效工作以及圣女果产量预测提供有力的保障。  相似文献   

6.
针对目前苹果在复杂环境下难以进行生长状态分类识别、姿态信息同步获取等问题,该研究提出了一种基于改进YOLOv7的苹果生长状态分类和果实姿态融合识别方法。首先改进多尺度特征融合网络,在骨干网络中增加160×160的特征尺度层,用于增强模型对微小局部特征的识别敏感度;其次引入注意力机制CBAM(convolutional block attention module),改善网络对输入图片的感兴趣目标区域的关注度;最后采用Soft-NMS算法,能够有效避免高密度重叠目标被一次抑制从而发生漏检现象。此外,结合UNet分割网络和最小外接圆及矩形特征获取未遮挡苹果姿态。试验结果表明,改进YOLOv7的识别精确率、召回率和平均识别精度分别为86.9%、80.5%和87.1%,相比原始YOLOv7模型分别提高了4.2、2.2和3.7个百分点,与Faster RCNN、YOLOv5s、YOLOv5m相比,检测平均准确率分别提升了18.9、7.2和5.9个百分点,另外苹果姿态检测方法的准确率为94%。该文模型能够实现苹果生长状态分类及果实姿态识别,可为末端执行器提供了抓取方向,以期为苹果无损高效的采摘奠定基础。  相似文献   

7.
为确保油茶果实处于最佳成熟度进行采摘,提高油茶果实的出油率及茶油品质。该研究针对自然环境下油茶果实多被遮挡的问题,以原始YOLOv7模型为基础进行改进,提出一种油茶果实成熟度检测方法。首先,在主干网络中引入十字交叉注意力机制(criss-cross attention,CCA)加强对被枝叶遮挡果实成熟度特征的提取能力;其次,使用基于距离和交并比的非极大值抑制(distance-iou non-maximum suppression,DIoU-NMS)算法代替传统非极大值抑制(non-maximum suppression,NMS)算法,从而加强模型对相互遮挡果实的检测能力;最后,以训练集中3098张油茶果实图像训练改进的YOLOv7模型,验证集中442张图像用于在训练过程中评估模型,并对测试集中885张图像进行测试。改进后的YOLOv7模型在测试集下的精确率P为93.52%,召回率R为90.25%,F1分数为91.86%,平均精度均值mAP为94.60%,平均检测时间为0.77s,模型权重大小为82.6M。与Faster R-CNN、EfficientDet、YOLOv3、YOLOv5l和原始YOLOv7模型相比,平均精度均值mAP分别提升7.51、5.89、4.21、4.21和2.91个百分点。试验证明,改进的YOLOv7模型为实现油茶果实的智能化采摘提供理论依据。  相似文献   

8.
基于特征递归融合YOLOv4网络模型的春见柑橘检测与计数   总被引:3,自引:3,他引:0  
春见柑橘个体小、单株果树柑橘密集、柑橘之间的形态与颜色相似度高且易被树叶严重遮挡,这些特点给春见柑橘检测与计数带来了较大困难。该研究以实际春见果园环境中的春见柑橘作为检测与计数对象,提出了一种以春见柑橘为检测目标的基于特征递归融合YOLOv4网络模型(YOLOv4 network model with recursive fusion of features,FR-YOLOv4)。针对春见柑橘尺寸小的特点,FR-YOLOv4网络模型的主干特征提取网络采用了感受野更小的CSPResNest50网络,降低了小尺寸目标的特征图传不到目标检测器中的可能性;针对春见柑橘被遮挡和密集分布的情况,采用了递归特征金字塔(Recursive Feature Pyramid,RFP)网络来进行特征递归融合,提高了对果园环境下春见柑橘的检测精度。试验结果表明:FR-YOLOv4网络模型对于果园环境中春见柑橘的平均检测精度为94.6%,视频检测帧率为51帧/s。FR-YOLOv4网络模型相比于YOLOv4、单次多框检测器(Single Shot Multi-Box Detector,SSD)、CenterNet和更快速卷积神经网络(Faster- Region-Convolutional Neural Networks,Faster R-CNN)的平均检测精度分别提高了8.9、29.3、14.1和16.2个百分点,视频检测帧率分别比SSD、Faster R-CNN提高了17帧/s和33帧/s。FR-YOLOv4网络模型对于实际果园环境中春见柑橘的检测精度高,具备检测实时性,适用于春见果园中春见柑橘检测与计数。  相似文献   

9.
基于深度学习与目标跟踪的苹果检测与视频计数方法   总被引:2,自引:2,他引:0  
基于机器视觉技术自动检测苹果树上的果实并进行计数是实现果园产量测量和智慧果园生产管理的关键。该研究基于现代种植模式下的富士苹果视频,提出基于轻量级目标检测网络YOLOv4-tiny和卡尔曼滤波跟踪算法的苹果检测与视频计数方法。使用YOLOv4-tiny检测视频中的苹果,对检测到的果实采用卡尔曼滤波算法进行预测跟踪,基于欧氏距离和重叠度匹配改进匈牙利算法对跟踪目标进行最优匹配。分别对算法的检测性能、跟踪性能和计数效果进行试验,结果表明:YOLOv4-tiny模型的平均检测精度达到94.47%,在果园视频中的检测准确度达到96.15%;基于改进的计数算法分别达到69.14%和79.60%的多目标跟踪准确度和精度,较改进前算法分别提高了26.86和20.78个百分点;改进后算法的平均计数精度达到81.94%。该研究方法可有效帮助果农掌握园中苹果数量,为现代化苹果园的测产研究提供技术参考,为果园的智慧管理提供科学决策依据。  相似文献   

10.
基于改进的轻量化卷积神经网络火龙果检测方法   总被引:2,自引:2,他引:0  
在自然环境下对火龙果进行实时检测是实现火龙果自动化采摘的必要条件之一。该研究提出了一种轻量级卷积神经网络YOLOv4- LITE火龙果检测方法。YOLOv4集成了多种优化策略,YOLOv4的检测准确率比传统的YOLOv3高出10%。但是YOLOv4的骨干网络复杂,计算量大,模型体积较大,不适合部署在嵌入式设备中进行实时检测。将YOLOv4的骨干网络CSPDarknet-53替换为MobileNet-v3,MobileNet-v3提取特征可以显著提高YOLOv4的检测速度。为了提高小目标的检测精度,分别设置在网络第39层以及第46层进行上采样特征融合。使用2 513张不同遮挡环境下的火龙果图像作为数据集进行训练测试,试验结果表明,该研究提出的轻量级YOLOv4-LITE模型 Average Precision(AP)值为96.48%,F1值为95%,平均交并比为81.09%,模型大小仅为2.7 MB。同时对比分析不同骨干网络,MobileNet-v3检测速度大幅度提升,比YOLOv4的原CSPDarknet-53平均检测时间减少了132.33 ms。YOLOv4-LITE在GPU上检测一幅1 200×900的图像只需要2.28 ms,可以在自然环境下实时检测,具有较强的鲁棒性。相比现有的目标检测算法,YOLOv4-LITE的检测速度是SSD-300的9.5倍,是Faster-RCNN的14.3倍。进一步分析了多尺度预测对模型性能的影响,利用4个不同尺度特征图融合预测,相比YOLOv4-LITE平均检测精度提高了0.81%,但是平均检测时间增加了10.33 ms,模型大小增加了7.4 MB。因此,增加多尺度预测虽然提高了检测精度,但是检测时间也随之增加。总体结果表明,该研究提出的轻量级YOLOv4-LITE在检测速度、检测精度和模型大小方面具有显著优势,可应用于自然环境下火龙果检测。  相似文献   

11.
基于改进YOLOv4模型的全景图像苹果识别   总被引:3,自引:3,他引:0  
苹果果园由于密植栽培模式,果树之间相互遮挡,导致苹果果实识别效果差,并且普通的图像采集方式存在图像中果实重复采集的问题,使得果实计数不准确。针对此类问题,该研究采用全景拍摄的方式采集苹果果树图像,并提出了一种基于改进YOLOv4和基于阈值的边界框匹配合并算法的全景图像苹果识别方法。首先在YOLOv4主干特征提取网络的Resblock模块中加入scSE注意力机制,将PANet模块中的部分卷积替换为深度可分离卷积,且增加深度可分离卷积的输出通道数,以增强特征提取能力,降低模型参数量与计算量。将全景图像分割为子图像,采用改进的YOLOv4模型进行识别,通过对比Faster R-CNN、CenterNet、YOLOv4系列算法和YOLOv5系列算法等不同网络模型对全景图像的苹果识别效果,改进后的YOLOv4网络模型精确率达到96.19%,召回率达到了95.47%,平均精度AP值达到97.27%,比原YOLOv4模型分别提高了1.07、2.59、2.02个百分点。采用基于阈值的边界框匹配合并算法,将识别后子图像的边界框进行匹配与合并,实现全景图像的识别,合并后的结果其精确率达到96.17%,召回率达到95.63%,F1分数达到0.96,平均精度AP值达到95.06%,高于直接对全景图像苹果进行识别的各评价指标。该方法对自然条件下全景图像的苹果识别具有较好的识别效果。  相似文献   

12.
采用改进YOLOv4-tiny的复杂环境下番茄实时识别   总被引:7,自引:7,他引:0  
实时识别番茄的成熟度是番茄自主采摘车的关键功能。现有目标识别算法速度慢、对遮挡番茄和小番茄识别准确率低。因此,该研究提出一种基于改进YOLOv4-tiny模型的番茄成熟度识别方法。在头部网络(Head network)部分增加一个76×76的检测头(y3)来提高小番茄的识别准确率。为了提高被遮挡番茄的识别准确率,将卷积注意力模块(Convolution Block Attention Module,CBAM)集成到YOLOv4-tiny模型的骨干网络(Backbone network)部分。在深层卷积中使用Mish激活函数替代ReLU激活函数以保证提取特征的准确性。使用密集连接的卷积网络(Densely Connected Convolution Networks, DCCN)来加强全局特征融合,并建立红风铃番茄成熟度识别的数据集。试验结果表明,与YOLOv3、YOLOv4、YOLOv4-tiny、YOLOv5m和YOLOv5l模型相比,改进YOLOv4-tiny-X模型的平均精度均值(mean Average Precision, mAP)分别提高了30.9、0.2、0.7、5.4和4.9个百分点,在Nvidia GTX 2060 GPU 上达到111帧/s的速度,平均精度均值达到97.9%。不同模型的实时测试可视化结果表明,改进模型能够有效解决遮挡和小番茄识别准确率低的问题,可为番茄采摘车研制提供参考。  相似文献   

13.
为快速获取单分蘖水稻植株的形态结构和表型参数,该研究提出了一种基于目标检测和关键点检测模型相结合的骨架提取和表型参数获取方法。该方法基于目标检测模型生成穗、茎秆、叶片的边界框和类别,将所得数据分别输入到关键点检测模型检测各部位关键点,按照语义信息依次连接关键点形成植株骨架,依据关键点坐标计算穗长度、茎秆长度、叶片长度、叶片-茎秆夹角4种表型参数。首先,构建单分蘖水稻的关键点检测和目标检测数据集;其次,训练Faster R-CNN、YOLOv3、YOLOv5s、YOLOv5m目标检测模型,经过对比,YOLOv5m的检测效果最好,平均精度均值(mean average precision,mAP)达到91.17%;然后,应用人体姿态估计的级联金字塔网络(cascaded pyramid network,CPN)提取植株骨架,并引入注意力机制CBAM(convolutional block attention module)进行改进,与沙漏网络(hourglass networks,HN)、堆叠沙漏网络模型(stacked hourglass networks,SHN)和CPN模型相比,CBAM-CPN模型的预测准确率分别提高了9.68、8.83和0.5个百分点,达到94.75%,4种表型参数的均方根误差分别为1.06、0.81、1.25 cm和2.94°。最后,结合YOLOv5m和CBAM-CPN进行预测,4种表型参数的均方根误差分别为1.48 、1.05 、1.74 cm和2.39°,与SHN模型相比,误差分别减小1.65、3.43、2.65 cm和4.75°,生成的骨架基本能够拟合单分蘖水稻植株的形态结构。所提方法可以提高单分蘖水稻植株的关键点检测准确率,更准确地获取植株骨架和表型参数,有助于加快水稻的育种和改良。  相似文献   

14.
为实现花椒簇的快速准确检测,该研究提出了一种基于改进YOLOv5s的花椒簇检测模型。首先,使用MBConv(MobileNetV3 block convolution,MBConv)模块和基于ReLU的轻量级自注意力机制优化了EfficientViT网络,用其代替YOLOv5s的主干,减少模型的参数量、增强模型对重要特征的表达能力。其次,在模型的训练过程中采用了OTA(optimal transport assignment)标签分配策略,优化训练中的标签分配结果。最后,使用WIoU损失函数对原损失函数CIoU进行替换,提高锚框的质量。试验结果表明,改进YOLOv5s模型的平均准确度均值(mean average precision,mAP)为97.3%、参数量为5.9 M、检测速度为131.6帧/s。相较于YOLOv5s模型,mAP提升1.9个百分点、参数量降低15.7%、检测速度提高14.5%。结果表明,该研究提出的改进YOLOv5s模型准确度高、参数量低、检测速度快,可实现对花椒簇的有效检测。  相似文献   

15.
为实现自然环境下的板栗果实目标快速识别,该研究以湖北省种植板栗为研究对象,提出了一种基于改进YOLOv8模型的栗果识别方法YOLOv8-PBi。首先,将部分卷积(partial convolution,PConv)引入C2f模块中,缩减卷积过程中的浮点数和计算量;其次,引入加权双向特征金字塔网络(bidirectional feature pyramid network,BiFPN),增强多尺度特征融合性能,最后,更改边界框损失函数为动态非单调聚焦机制WIoU(wise intersection over union,WIoU),提高模型收敛速度,进一步提升模型检测性能。试验结果表明,改进YOLOv8-PBi模型准确率、召回率和平均精度分别为89.4%、74.9%、84.2%;相比原始基础网络YOLOv8s,模型权重减小46.22%,准确率、召回率和平均精度分别提升1.3、1.5、1.8个百分点。部署模型至边缘嵌入式设备上,经过TensorRT加速后,检测帧率达到43 帧/s。该方法可为板栗智能化收获过程中的栗果识别提供技术基础。  相似文献   

16.
为解决自然环境中苹果叶片病害检测场景复杂、小目标病害检测难度高以及模型参数大无法在移动端和嵌入式设备部署等问题,提出一种基于YOLOv5s的苹果叶片小目标病害轻量化检测方法。该方法将YOLOv5s的骨干网络更改为ShuffleNet v2轻量化网络,引入CBAM(convolutional block attention module)注意力模块使模型关注苹果叶片小目标病害,添加改进RFB-s(receptive field block-s)支路获取多尺度特征,提高苹果叶片病害检测精度,并更改边界框回归损失函数为SIoU(scylla-intersection over union),增强病斑定位能力。试验表明改进后的YOLOv5s模型在IoU大于0.5时的平均精度均值(mean average precision,mAP0.5)和每秒传输帧数(frame per second,FPS)分别达到90.6%和175帧/s,对小目标的平均检测准确率为38.2%,与基准模型YOLOv5s相比,其mAP0.5提升了0.8个百分点,参数量减少了6.17 MB,计算量减少了13.8 G,对小目标的检测准确率提高了3个百分点。改进后的YOLOv5s目标检测模型与Faster R-CNN、SSD、YOLOv5m、YOLOv7、YOLOv8和YOLOv5s目标检测模型相比,具有最小的参数量和计算量,对小目标病害叶斑病和锈病的检测准确率分别提高了1.4、4.1、0.5、5.7、3.5、3.9和1.5、4.3、1.2、2.1、4、2.6个百分点,该方法为真实自然环境下苹果叶片病害尤其是小目标病害的轻量化检测提供参考依据。  相似文献   

17.
快速精准识别棚内草莓的改进YOLOv4-Tiny模型   总被引:5,自引:5,他引:0  
为了实现棚内草莓果实的快速精准识别,该研究提出一种基于改进YOLOv4-Tiny的草莓检测模型。首先,为了大幅度减少模型计算量,采用轻量型网络GhostNet作为特征提取网络,并在GhostBottleneck结构中嵌入卷积注意力模块以加强网络的特征提取能力;其次,在颈部网络中添加空间金字塔池化模块和特征金字塔网络结构,融合多尺度特征提升小目标草莓的检测效果;最后,采用高效交并比损失作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进YOLOv4-Tiny模型权重大小仅为4.68 MB,平均每幅图片的检测时间为5.63 ms,在测试集上的平均精度均值达到92.62%,相较于原YOLOv4-Tiny模型提升了5.77个百分点。与主流的目标检测模型SSD、CenterNet、YOLOv3、YOLOv4和YOLOv5s相比,改进YOLOv4-Tiny模型平均精度均值分别高出9.11、4.80、2.26、1.22、1.91个百分点,并且模型权重大小和检测速度方面均具有绝对优势,该研究可为后续果实智能化采摘提供技术支撑。  相似文献   

18.
随着食用菌行业由自动化向智能化、信息化发展的趋势越来越明显,为了实现现代化菇房中平菇的准确检测,解决工厂化平菇栽培中收获阶段平菇之间相互遮挡等问题,帮助平菇采收机器人进行准确的自动化采收,该文提出了一种基于YOLOv5(you only look once version 5)模型的OMM-YOLO(ostreatus measure modle-YOLO)平菇目标检测与分类模型。通过在YOLOv5模型的Backbone层添加注意力模块,对输入的平菇图像特征进行动态加权,以获得更详细的特征信息,并在Neck层采用加权双向特征金字塔网络,通过与不同的特征层融合,提高算法的平菇目标检测的精度。此外,为了改善算法的准确性和边界框纵横比的收敛速度,该文采用了EIoU(enhanced intersection over union)损失函数替代了原有的损失函数。试验结果表明,与原始模型相比,改进模型OMM-YOLO对成熟平菇、未成熟平菇和未生长平菇的平均精度均值分别提高了0.4个百分点、4.5个百分点和1.1个百分点。与当前主流模型Resnet50、VGG16、YOLOv3、YOLOv4、YOLOv5m和YOLOv7相比,该模型的精确率、召回率和检测精度均处于优势,适用于收集现代化菇房中的平菇信息,有效避免了平菇之间因相互遮挡而产生的误检测现象。菇房平菇目标检测可以自动化地检测平菇的数量、生长状态等信息,帮助菇房工作人员掌握菇房内的菇况,及时调整温湿度等环境条件,提高生产效率,并且对可以对平菇进行质量控制,确保平菇产品的统一性和品质稳定性。同时可以减少对人工的依赖,降低人力成本,实现可持续发展,对智能化现代菇房建设具有积极作用。  相似文献   

19.
为了快速精准地识别复杂果园环境下的葡萄目标,该研究基于YOLOv5s提出一种改进的葡萄检测模型(MRWYOLOv5s)。首先,为了减少模型参数量,采用轻量型网络MobileNetv3作为特征提取网络,并在MobileNetv3的bneck结构中嵌入坐标注意力模块(coordinate attention,CA)以加强网络的特征提取能力;其次,在颈部网络中引入RepVGG Block,融合多分支特征提升模型的检测精度,并利用RepVGG Block的结构重参数化进一步加快模型的推理速度;最后,采用基于动态非单调聚焦机制的损失(wise intersection over union loss,WIoU Loss)作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进的MRW-YOLOv5s模型参数量仅为7.56 M,在测试集上的平均精度均值(mean average precision,mAP)达到97.74%,相较于原YOLOv5s模型提升了2.32个百分点,平均每幅图片的检测时间为10.03 ms,比原YOLOv5s模型减少了6.13 ms。与主流的目标检测模型S...  相似文献   

20.
为提高诱虫板图像蔬菜害虫检测精度,针对背景区域容易导致误检的问题基于显著图分析技术构建了一种注意力深度网络害虫智能视觉检测方法。首先通过显著图筛选出粗候选区域;然后在粗候选区域内用全卷积神经网络精选出细候选区域;接着用神经网络分类器识别细候选区域害虫种类,得到含有冗余的若干检测框;最后用改进的非极大值抑制消除冗余检测框,实现诱虫板图像中目标害虫的检测。针对小菜蛾和瓜实蝇展开试验,获得86.4%的平均精度均值和0.111只的平均绝对计数误差均值,所提方法平均精度均值比Faster R-CNN和YOLOv4分别高2.74和1.56个百分点,平均绝对计数误差均值比Faster R-CNN和YOLOv4分别低0.006和0.003只;同时,消融试验中移除显著图注意力模块后平均精度均值下降了4个百分点、平均绝对计数误差均值增加了0.207只。试验结果表明,所提方法有效提高了诱虫板图像蔬菜害虫检测精度,其中,引入显著图注意力模块对提升检测精度有重要作用。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号