首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 46 毫秒
1.

为实现自然环境下的板栗果实目标快速识别,该研究以湖北省种植板栗为研究对象,提出了一种基于改进YOLOv8模型的栗果识别方法YOLOv8-PBi。首先,将部分卷积(partial convolution,PConv)引入C2f模块中,缩减卷积过程中的浮点数和计算量;其次,引入加权双向特征金字塔网络(bidirectional feature pyramid network,BiFPN),增强多尺度特征融合性能,最后,更改边界框损失函数为动态非单调聚焦机制WIoU(wise intersection over union,WIoU),提高模型收敛速度,进一步提升模型检测性能。试验结果表明,改进YOLOv8-PBi模型准确率、召回率和平均精度分别为89.4%、74.9%、84.2%;相比原始基础网络YOLOv8s,模型权重减小46.22%,准确率、召回率和平均精度分别提升1.3、1.5、1.8个百分点。部署模型至边缘嵌入式设备上,经过TensorRT加速后,检测帧率达到43 帧/s。该方法可为板栗智能化收获过程中的栗果识别提供技术基础。

  相似文献   

2.
为解决智能化采收中红花识别性能易受田间复杂环境、设备计算资源等限制的问题,该研究提出一种基于改进YOLOv8n的轻量化红花识别方法,以便将模型部署在移动端上进行目标检测。该研究应用Vanillanet轻量化网络结构代替YOLOv8n的骨干特征提取网络,降低了模型的复杂程度;将大型可分离核注意力模块(large separable kernel attention, LSKA)引入特征融合网络,以降低存储量和计算资源消耗;将YOLOv8n的损失函数从中心点与边界框的重叠联合(center intersection of union, CIoU)替换为动态非单调的聚焦机制(wise intersection of union, WIoU)提升检测器的总体性能;并选用随机梯度下降算法(stochastic gradient descent, SGD)进行模型训练,以提高模型鲁棒性。试验结果表明,改进后的轻量化模型每秒传输帧数(frames per second, FPS)为123.46帧/s,与原YOLOv8n模型相比提高了7.41%,而模型大小为3.00MB,仅为原来的50.17%,并且精确度(precision, P)和平均精度值(mean average precision, mAP)达到了93.10%和96.40%,与YOLOv5s与YOLOv7-tiny检测模型相比,FPS分别提高了25.93%和19.76%,模型大小为原模型的21.90%和25.86%,研究结果为后续红花的智能化采收装备研发提供技术支持。  相似文献   

3.
为提高小麦病害检测精度,实现将模型方便快速部署到移动端,该研究提出了一种基于改进YOLOv8的轻量化小麦病害检测方法。首先,使用PP-LCNet模型替换YOLOv8网络结构的骨干网络,并在骨干网络层引入深度可分离卷积(depthwise separable convolution, DepthSepConv)结构,减少模型参数量,提升模型检测性能;其次,在颈部网络部分添加全局注意力机制(global attention mechanism, GAM)模块,强化特征中语义信息和位置信息,提高模型特征融合能力;然后,引入轻量级通用上采样内容感知重组(content-aware reassembly of features,CARAFE)模块,提高模型对重要特征的提取能力;最后,使用Wise-IoU(weighted interpolation of sequential evidence for intersection over union)边界损失函数代替原损失函数,提升网络边界框回归性能和对小目标病害的检测效果。试验结果表明,对于大田环境下所采集的小麦病害数据集,改进后模型的参数量及...  相似文献   

4.
针对非结构化环境下香梨识别准确率低,检测速度慢的问题,该研究提出了一种基于改进YOLOv8n的香梨目标检测方法。使用Min-Max归一化方法,对YOLOv3-tiny、YOLOv5n、YOLO6n、YOLOv7-tiny和YOLOv8n评估选优;以YOLOv8n为基线,进行以下改进:1)使用简化的残差与卷积模块优化部分C2f(CSP bottleneck with 2 convolutions)进行特征融合。2)利用simSPPF(simple spatial pyramid pooling fast)对SPPF(spatial pyramid pooling fast)进行优化。3)引入了PConv(partial convolution)卷积,并提出权重参数共享以实现检测头的轻量化。4)使用Inner-CIoU(inner complete intersection over union)优化预测框的损失计算。在自建的香梨数据集上,指标F0.5分数(F0.5-score)和平均精度均值(mean average precision, mAP)比原模型分别提升0.4和0.5个百分点,达到94.7%和88.3%。在GPU和CPU设备上,检测速度分别提升了34.0%和24.4%,达到了每秒99.4和15.3帧。该模型具有较高的识别准确率和检测速度,为香梨自动化采摘提供了一种精确的实时检测方法。  相似文献   

5.
针对名优茶智能采摘中茶叶嫩梢识别精度不足的问题,该研究对YOLOv8n模型进行优化。首先,在主干网络中引入动态蛇形卷积(dynamic snake convolution,DSConv),增强模型对茶叶嫩梢形状信息的捕捉能力;其次,将颈部的路径聚合网络(path aggregation network,PANet)替换为加权双向特征金字塔网络(bi-directional feature pyramid network,BiFPN),强化模型的特征融合效能;最后,在颈部网络的每个C2F模块后增设了无参注意力模块(simple attention module,SimAM),提升模型对茶叶嫩梢的识别关注度。试验结果表明,改进后的模型比原始模型的精确率(precision,P)、召回率(recall,R)、平均精确率均值(mean average precision,mAP)、F1得分(F1 score,F1)分别提升了4.2、2.9、3.7和3.3个百分点,推理速度为42 帧/s,模型大小为6.7 MB,满足低算力移动设备的部署条件。与Faster-RCNN、YOLOv5n、YOLOv7n和YOLOv8n目标检测算法相比,该研究提出的改进模型精确率分别高出57.4、4.4、4.7和4.2个百分点,召回率分别高出53.0、3.6、2.8和2.9个百分点,平均精确率均值分别高出58.9、5.0、4.6和3.7个百分点,F1得分分别高出了56.8、3.9、3.7和3.3个百分点,在茶叶嫩梢检测任务中展现出了更高的精确度和更低的漏检率,能够为名优茶的智能采摘提供算法参考。  相似文献   

6.
小白菜是中国种植面积较广、深受大众喜爱的蔬菜,但真实菜地环境中虫害往往出现在叶片的特定区域,且受环境因素如光照和背景干扰较大,影响对其的智能检测。为提高小白菜虫害的检测效率和准确率,该研究提出一种基于YOLOv5s网络框架改进的YOLOPC小白菜虫害识别模型。首先,引入CBAM(Convolutional Block Attention Module)注意力机制,将其放在CBS(卷积层Convolution+归一化层Batch normalization+激活函数层SILU)的输入端构成CBAM-CBS的结构,动态调整特征图中各个通道和空间位置的权重;使用上采样和1×1卷积操作来调整特征图的尺寸和通道数,实现不同层次特征的融合,增强模型的特征表示能力。同时,改进损失函数,使其更适合边界框回归的准确性需求;利用空洞卷积的优势提高网络的感受野范围,使模型能够更好地理解图像的上下文信息。试验结果表明,与改进前的YOLOv5s模型相比,YOLOPC模型对小白菜小菜蛾和潜叶蝇虫害检测的平均精度(mean Average Precision, mAP)达到91.40%,提高了12.9个百分点;每秒传输帧数(Frame Per Second, FPS)为58.82帧/s,增加了11.2帧/s,增加幅度达23.53个百分点;参数量仅为14.4 MB,降低了25.78个百分点。与经典的目标检测算法SSD、Faster R-CNN、YOLOv3、YOLOv7和YOLOv8相比,YOLOPC模型的平均精度分别高出20.1、24.6、14、13.4和13.3个百分点,此外,其准确率、召回率、帧速率和参数量均展现出显著优势。该模型可为复杂背景下小白菜虫害的快速准确检测提供技术支持。  相似文献   

7.
基于改进YOLOv3的果园复杂环境下苹果果实识别   总被引:1,自引:4,他引:1  
为使采摘机器人能够全天候在不同光照、重叠遮挡、大视场等果园复杂环境下对不同成熟度的果实进行快速、准确识别,该研究提出了一种基于改进YOLOv3的果实识别方法。首先,将DarkNet53网络中的残差模块与CSPNet(Cross Stage Paritial Network)结合,在保持检测精度的同时降低网络的计算量;其次,在原始YOLOv3模型的检测网络中加入SPP(Spatial Pyramid Pooling)模块,将果实的全局和局部特征进行融合,提高对极小果实目标的召回率;同时,采用Soft NMS(Soft Non-Maximum Suppression)算法代替传统NMS(Non-Maximum Suppression)算法,增强对重叠遮挡果实的识别能力;最后,采用基于Focal Loss和CIoU Loss的联合损失函数对模型进行优化,提高识别精度。以苹果为例进行的试验结果表明:经过数据集训练之后的改进模型,在测试集下的MAP(Mean Average Precision)值达到96.3%,较原模型提高了3.8个百分点;F1值达到91.8%,较原模型提高了3.8个百分点;在GPU下的平均检测速度达到27.8帧/s,较原模型提高了5.6帧/s。与Faster RCNN、RetinaNet等几种目前先进的检测方法进行比较并在不同数目、不同光照情况下的对比试验结果表明,该方法具有优异的检测精度及良好的鲁棒性和实时性,对解决复杂环境下果实的精准识别问题具有重要参考价值。  相似文献   

8.
为提高金银花采摘机器人的工作效率和采摘精度,实现将模型方便快速部署到移动端,该研究提出一种基于改进YOLOv5s的轻量化金银花识别方法。用EfficientNet的主干网络替换YOLOv5s的Backbone层,并在改进之后的Backbone层加入原YOLOv5s的SPPF特征融合模块,减少了模型的参数量和计算量,同时降低模型权重的大小,便于之后移动端的部署;其次,为提高模型对于金银花的识别效果,该研究在Neck层中用CARAFE上采样模块替换原始模型中的上采样模块,在略微提高参数量的前提下提高了模型识别金银花的精确度和平均精度,提高了采摘效率。试验结果显示,改进后的轻量化模型参数量仅为3.89 × 106 M,为原始YOLOv5s模型的55.5%;计算量仅为7.8 GFLOPs,为原始模型的49.4%;权重仅为7.8 MB,为原始模型的57.4%,并且精确度和平均精度达到了90.7%和91.8%,相比原始YOLOv5s模型分别提高1.9和0.6个百分点。改进后的轻量化模型与当前主流的Faster-RCNN、SSD、YOLO系列目标检测模型相比,不但提高了检测精度,还大幅减少了模型的参数量、计算量和权重大小,研究结果为后续金银花采摘机器人的识别和移动端的部署提供了参考和依据。  相似文献   

9.
针对现有目标检测模型对自然环境下茶叶病害识别易受复杂背景干扰、早期病斑难以检测等问题,该研究提出了YOLOv5-CBM茶叶病害识别模型。YOLOv5-CBM以YOLOv5s模型为基础,在主干特征提取阶段,将一个带有Transformer的C3模块和一个CA(coordinate attention)注意力机制融入特征提取网络中,实现对病害特征的提取。其次,利用加权双向特征金字塔(BiFPN)作为网络的Neck,通过自适应调节每个尺度特征的权重,使网络在获得不同尺寸特征时更好地将其融合,提高识别的准确率。最后,在检测端新增一个小目标检测头,解决了茶叶病害初期病斑较小容易出现漏检的问题。在包含有3种常见茶叶病害的数据集上进行试验,结果表明,YOLOv5-CBM对自然环境下的初期病斑检测效果有明显提高,与原始YOLOv5s模型相比,对早期茶饼病和早期茶轮斑病识别的平均精度分别提高了1.9和0.9个百分点,对不同病害检测的平均精度均值达到了97.3%,检测速度为8ms/幅,均优于其他目标检测算法。该模型具有较高的识别准确率与较强的鲁棒性,可为茶叶病害的智能诊断提供参考。  相似文献   

10.
为解决多器官特征识别存在的多器官数据集难以获取以及待处理数据集存在的密集小目标和多尺度目标等问题,该研究提出了一种基于改进YOLOv8s的果实与叶片器官分割方法。该方法以YOLOv8s为基础,在Backbone部分设计了跨阶段局部残差(residual CSPLayer 2Conv,RC2)模块,以拓宽每个网络层的感受野,使网络能充分提取密集的小目标特征。在Neck部分设计了尺度空间金字塔池化(scale spatial pyramid pooling,SSPP)模块,以充分融合网络的高阶多尺度特征信息,增强模型对多尺度目标的检测能力。在Head部分设计了非对称解耦检测头(asymmetric decoupling detection head,ADDH)模块,使模型分类更关注于中心内容,而回归更关注于边缘信息。试验结果表明,在PlantCLEF2022公共数据集中选取的17种果树的数据集中,改进的YOLOv8s模型对果树果实和叶片器官识别的平均精度均值为90.2%,比YOLOv8s模型高6.7个百分点。此外,该研究还将该模型应用到自建的枣数据集上,达到了99.1%的识别准确率,较原模型提升6.6个百分点,证明了所提出方法的通用性,可为常见果树的器官分割与基于多器官特征的细粒度品种分类研究提供参考。  相似文献   

11.
为实现花椒簇的快速准确检测,该研究提出了一种基于改进YOLOv5s的花椒簇检测模型。首先,使用MBConv(MobileNetV3 block convolution,MBConv)模块和基于ReLU的轻量级自注意力机制优化了EfficientViT网络,用其代替YOLOv5s的主干,减少模型的参数量、增强模型对重要特征的表达能力。其次,在模型的训练过程中采用了OTA(optimal transport assignment)标签分配策略,优化训练中的标签分配结果。最后,使用WIoU损失函数对原损失函数CIoU进行替换,提高锚框的质量。试验结果表明,改进YOLOv5s模型的平均准确度均值(mean average precision,mAP)为97.3%、参数量为5.9 M、检测速度为131.6帧/s。相较于YOLOv5s模型,mAP提升1.9个百分点、参数量降低15.7%、检测速度提高14.5%。结果表明,该研究提出的改进YOLOv5s模型准确度高、参数量低、检测速度快,可实现对花椒簇的有效检测。  相似文献   

12.
为解决莲田环境下不同成熟期莲蓬的视觉感知问题,该研究提出了一种改进YOLOv5s的莲蓬成熟期检测方法。首先,通过在主干特征网络中引入BoT(bottleneck transformer)自注意力机制模块,构建融合整体与局部混合特征的映射结构,增强不同成熟期莲蓬的区分度;其次,采用高效交并比损失函数EIoU(efficient IoU)提高了边界框回归定位精度,提升模型的检测精度;再者,采用K-means++聚类算法优化初始锚框尺寸的计算方法,提高网络的收敛速度。试验结果表明,改进后YOLOv5s模型在测试集下的精确率P、召回率R、平均精度均值mAP分别为98.95%、97.00%、98.30%,平均检测时间为6.4ms,模型尺寸为13.4M。与YOLOv3、 YOLOv3-tiny、 YOLOv4-tiny、 YOLOv5s、YOLOv7检测模型对比,平均精度均值mAP分别提升0.2、1.8、1.5、0.5、0.9个百分点。基于建立的模型,该研究搭建了莲蓬成熟期视觉检测试验平台,将改进YOLOv5s模型部署在移动控制器Raspberry Pi 4B中,对4种距离范围下获取的莲蓬场景图像...  相似文献   

13.
针对复杂环境下柑橘果实大量重叠、枝叶遮挡且现有模型参数量大、计算复杂度高等问题,提出了一种基于改进YOLOv8n的柑橘识别模型YOLOv8-MEIN。首先,该研究设计了ME卷积模块并使用它改进YOLOv8n的C2f模块。其次,为了弥补CIoU损失函数在检测任务中泛化性弱和收敛速度慢的问题,使用Inner-CIoU损失函数加速边界框回归,提高模型检测性能。最后,在自建数据集上进行模型试验对比,试验结果表明,YOLOv8-MEIN模型交并比阈值为0.5的平均精度均值mAP0.5值为96.9%,召回率为91.7%,交并比阈值为0.5~0.95的平均精度均值mAP0.5~0.95值为85.8%,模型大小为5.8MB,参数量为2.87M。与原模型YOLOv8n相比,mAP0.5值、召回率、mAP0.5~0.95值分别提高了0.4、1.0、0.6个百分点,模型大小和参数量相比于原模型分别降低了3.3%和4.3%,为柑橘的自动化采摘提供技术参考。  相似文献   

14.
基于改进YOLOv5s的自然环境下猕猴桃花朵检测方法   总被引:2,自引:2,他引:0  
为实现对猕猴桃花朵的快速准确检测,该研究提出了一种基于改进YOLOv5s的猕猴桃花朵检测模型YOLOv5s_S_N_CB_CA,并通过对比试验进行了精度验证。在YOLOv5s基础上引入C3HB模块和交叉注意力(criss-cross atte ntion,CCA)模块增强特征提取能力,结合样本切分和加入负样本处理方法进一步提升模型精度。改进模型的检测精确率为85.21%,召回率为90%,模型大小为14.6 MB,交并比(intersection over union,IoU)为0.5下的均值平均精度(mAP0.5)为92.45%,比仅进行样本缩放处理的原始YOLOv5s提高了31.91个百分点,检测速度为35.47帧/s,比原始YOLOv5s提高了34.15%。使用改进模型对自然环境下不同天气、晴天不同时段光照强度下的猕猴桃花朵进行检测,结果表明模型检测晴天、阴天下猕猴桃花朵的mAP0.5分别为91.96%、91.15%,比原始YOLOv5s分别高出2.55、2.25个百分点;检测晴天9:00-11:00、15:00-17:00光强下猕猴桃花...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号