首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 452 毫秒
1.
针对甘蔗智能切种机作业过程中背景杂乱导致茎节识别精度低等问题,提出了基于改进YOLOv5的一种甘蔗茎节识别方法。采用跨层级连接的方式优化颈部结构,增强不同层级间的信息融合能力;同时改进模型损失函数,一方面引入EIoU损失函数代替原始CIoU损失函数,提高边界框回归精度,另一方面利用Focal loss损失函数替换交叉熵损失函数,解决正负样本比例不均衡问题;最后引入Ghost模块轻量化网络模型。试验结果表明,本研究提出的模型相较于原模型,平均精度值提高了1.4个百分点,达97.80%,单张检测时间为16.9ms,模型大小仅11.40 Mb,实现了在不同杂乱程度场景下的甘蔗茎节识别,降低了切种时背景杂乱产生的影响。  相似文献   

2.
番茄检测模型的检测速度和识别精度会直接影响到番茄采摘机器人的采摘效率,因此,为实现复杂温室环境下对番茄精准实时的检测与识别,为采摘机器人视觉系统研究提供重要的参考价值,提出一种以YOLO v5s模型为基础,使用改进的MobileNet v3结构替换主干网络,平衡模型速度和精度。同时,在颈部网络引入Ghost轻量化模块和CBAM注意力机制,在保证模型检测精度的同时提高模型的检测速度。通过扩大网络的输入尺寸,并设置不同尺度的检测网络来提高对远距离小目标番茄的识别精度。采用SIoU损失函数来提高模型训练的收敛速度。最终,改进YOLO v5s模型检测番茄的精度为94.4%、召回率为92.5%、均值平均精度为96.6%、模型大小为7.1 MB、参数量为3.69 M、浮点运算(FLOPs)为6.0 G,改进的模型很好地平衡了模型检测速度和模型识别精度,能够快速准确地检测和识别复杂温室环境下的番茄,且对远距离小目标番茄等复杂场景都能实现准确检测与识别,该轻量化模型未来能够应用到嵌入式设备,对复杂环境下的温室番茄实现实时准确的检测与识别。  相似文献   

3.
基于YOLOv5改进模型的柑橘果实识别方法   总被引:2,自引:2,他引:0  
为实现在自然环境下对柑橘果实的识别,提出一种基于YOLOv5改进模型的柑橘识别方法。通过引入CBAM(convolutional block attention module,卷积注意力模块)注意力机制模块来提高网络的特征提取能力,改善遮挡目标与小目标的漏检问题;采用α-IoU损失函数代替GIoU损失函数作为边界框回归损失函数,提高边界框定位精度。结果显示:本研究提出的模型平均精度AP值达到91.3%,在GPU上对单张柑橘果实图像的检测时间为16.7 ms,模型占用内存为14.5 Mb。结果表明,本研究基于YOLOv5的改进算法可实现在自然环境下快速准确地识别柑橘果实,满足实时目标检测的实际应用需求。  相似文献   

4.
针对水稻害虫识别过程中存在的检测难度大、模型精度低、计算量大等问题,以稻纵卷叶螟等14类水稻害虫为研究对象,改进了YOLO v5检测算法,引入高效通道注意力机制(efficient channel attention, ECA)与EIoU(efficient-IoU)损失函数,并结合Ghost卷积,提出了一种基于改进的YOLO v5水稻害虫识别方法:(1)通过引入ECA注意力机制实现对水稻害虫识别过程中重要信息的处理,采用跨通道信息交互,保证模型性能和降低复杂度;(2)引入EIoU损失函数代替CIoU(complete-IoU)损失函数,从而降低原有CIoU损失函数存在的回归精度问题;(3)利用Ghost卷积替换CBS模块及C3模块中的标准卷积,实现模型轻量化处理。结果表明,改进后的模型较原始YOLO v5模型精度略微提升,参数量减少,模型体积降低至7.38 MB,较原模型减少了46%,与YOLO v7、Faster-RCNN模型相比,mAP比YOLO v7高1.49百分点,比Faster-RCNN高12.89百分点,且本研究模型体积最小,检测速度满足实时性要求,使水稻害虫检测识别能够...  相似文献   

5.
针对工业施工场所背景复杂导致安全帽检测精度低及漏检等问题,提出一种融合注意力机制的安全帽检测算法。该算法在YOLOv5s网络模型的基础上,在主干网络中加入坐标注意力模块,使得网络可以有效关注目标信息的特征,提升远距离目标的检测能力。在网络训练过程中优化损失函数,将原有的CIoU损失函数更换为EIoU损失函数,优化了目标边界框回归的收敛速度,可以生成定位更精准的边界框,提高了模型检测精度。实验结果表明,改进后的算法平均精度达到94.5%,相较于原始模型提高了1.9个百分点,相较于YOLOv3算法提高了12.3个百分点。提出的算法有效地改善了原算法中安全帽漏检、误检的情况,同时提高了检测精度。  相似文献   

6.
目的 实现精确迅速的农作物病害检测,减少人工诊断成本,降低病害带来的农作物产量和品质影响。方法 根据对农作物病害和病斑特征的分析,提出一种基于卷积注意力机制改进的YOLOX-Nano智能检测与识别模型,该模型采用CSPDarkNet作为主干网络,将卷积注意力模块CBAM引入到YOLOX-Nano网络结构的特征金字塔(Feature pyramid network,FPN)中,并在训练中引入Mixup数据增强方式,同时将分类的损失函数由二分类交叉熵损失函数(Binary cross entropy loss,BCE Loss)替换为焦点损失函数Focal Loss、回归损失函数由GIOU Loss替换为本文设计的CenterIOU Loss函数,采用迁移学习策略训练改进的YOLOX-Nano模型,以此提升农作物病害检测的精度。结果 改进后的YOLOX-Nano模型仅有0.98×106的参数量,在移动端测试单张图片检测时间约为0.187 s,平均识别精度达到99.56%。实践结果表明,其能快速有效地检测与识别苹果、玉米、葡萄、草莓、马铃薯和番茄等农作物的常见病害,且达到了精度与速度的平衡。结论 改进后的模型不仅对农作物叶片病害识别具有较高的精度和较快的检测速度,参数量和计算量较少,还易于部署在手机等移动端设备。该模型实现了在田间复杂环境对多种农作物病害精准定位与识别,对于指导早期农作物病害的防治具有十分重要的现实意义。  相似文献   

7.
针对自然环境下橙子检测存在枝叶遮挡、相邻果实重叠等情况而导致检测效果差的问题,提出一种改进的YOLO v5方法。首先,在主干网络部分使用RepVGG(re-param VGG)模块替换原始C3模块,加强网络对特征信息的提取能力;其次,在颈部网络使用鬼影混洗卷积(ghost-shuffle convolution)代替原有的标准卷积,能够在保证精度的前提下,降低模型参数量;再次,在预测头前加入ECA(efficient channel attention)注意力模块,能够更加准确定位目标信息;最后,引入EIOU(efficient intersection over union)损失函数加速预测框的收敛,提高其回归精度。改进的YOLO v5网络在自然环境下的橙子检测中平均精度达到90.1%,相比于目前热门的检测网络CenterNet、YOLO v3和YOLO v4其在识别效果方面有一定的提升。可见,所提出的改进网络在橙子检测上更有优势,能为今后智能采摘机器人的研发提供理论支撑和技术参考。  相似文献   

8.
【目的】提出了一种改进的YOLOv4模型,为自然环境下3种常见茶叶病害(茶白星病、茶云纹叶枯病和茶轮斑病)的快速精准识别提供支持。【方法】使用MobileNetv2和深度可分离卷积来降低YOLOv4模型的参数量,并引入卷积注意力模块对YOLOv4模型进行识别精度改进。采用平均精度、平均精度均值、图像检测速度和模型大小作为模型性能评价指标,在相同的茶叶病害数据集和试验平台中,对改进YOLOv4模型与原始YOLOv4模型、其他目标检测模型(YOLOv3、SSD和Faster R CNN)的病害识别效果进行对比试验。【结果】与原始YOLOv4模型相比,改进YOLOv4模型的大小减少了83.2%,对茶白星病、茶云纹叶枯病和茶轮斑病识别的平均精度分别提高了6.2%,1.7%和1.6%,平均精度均值达到93.85%,图像检测速度为26.6帧/s。与YOLOv3、SSD和Faster R-CNN模型相比,改进YOLOv4模型的平均精度均值分别提高了6.0%,13.7%和3.4%,图像检测速度分别提高了5.5,7.3和11.7帧/s。【结论】对YOLOv4模型所使用的改进方法具备有效性,所提出的改进YOLOv4模型可以实现对自然环境下3种常见茶叶病害的快速精准识别。  相似文献   

9.
【目的】中国柑橘产区分布广、生态类型复杂,不同产地纽荷尔脐橙果实品质和市场效应具有较大差异。研究基于近红外光谱技术的柑橘产地识别技术,利于不同柑橘产地果品的识别和鉴伪。【方法】从中国南方17个纽荷尔脐橙主要产地选择代表性成年果园,分别采摘成熟鲜果样品100个。利用SupNIR-1500近红外分析仪采集脐橙果实赤道部、肩部表面以及果汁滤液的近红外反射光谱,光谱波长范围为1 000-2 499 nm。采用主成分分析法对原始光谱数据进行预处理,提取近红外光谱的特征信息以降低数据集维度以及噪声。研究人工神经网络理论,构建由一个输入层、一个具有非线性激励函数的隐藏层和一个输出层组成的典型的3层人工神经网络识别模型。研究由径向基函数作为核函数、以光谱主成分作为输入的支持向量机模型,构建由126个分类器组成的一对一扩展支持向量机模型。研究遗传算法优异的自然选择特性,利用遗传算法从光谱主成分中选择出最优的特征基因子集作为支持向量机的输入,构建遗传算法-支持向量机模型。利用3种模型分别对果汁滤液的近红外反射光谱数据进行分类,从而实现产地识别测试,并根据产地识别精度筛选出最优的产地识别模型。进一步对比该最优识别模型对果实赤道部、肩部反射光谱数据的识别精度,从而确定识别精度最高的光谱数据采集源。【结果】利用所建立的3层人工神经网络模型对纽荷尔脐橙果汁滤液的近红外光谱进行产地识别测试,确定当输入神经元数量为11、隐藏神经元数量为13时,模型对果实产地识别的最佳精度达81.45%。采用一对一扩展方式建立支持向量机产地识别模型,研究确定采用径向基函数作为核函数,当主成分数量为20时,脐橙产地识别精度最高可达86.98%。测试利用遗传算法-支持向量机混合模型进行脐橙产地分类识别,确定当种群数量为200、遗传代数为100、交叉概率0.7、突变概率0.01时,遗传算法选择出最优的基因子集进行产地识别,遗传算法-支持向量机模型的产地识别精度最高可达89.72%,优于人工神经网络分类模型和支持向量机分类模型的产地识别精度。进一步利用遗传算法-支持向量机产地识别模型对果实赤道部及肩部的果面反射光谱进行产地识别测试,得到对应的最高识别精度分别为80.00%和69.00%。【结论】遗传算法-支持向量机模型对果汁反射近红外光谱进行产地识别精度最高,优于人工神经网络模型和支持向量机模型。该模型对果实赤道部反射光谱进行分类的精度次于果汁滤液反射光谱但优于果实肩部反射光谱,因此,可利用赤道部的反射光谱实现非破坏性果实产地分类识别。  相似文献   

10.
[目的]肉鹅姿态是预警肉鹅异常行为、评判肉鹅健康状态的重要指标,针对传统养殖场人工观察肉鹅姿态耗时费力且有很大主观性等问题,提出了一种基于深度学习模型自动识别肉鹅姿态的检测算法。[方法]利用YOLO v5模型对扬州鹅4种姿态(站立、休憩、饮水和梳羽)进行识别;对YOLO v5模型加入SENet、CBAM、ECA三种注意力模块改进网络结构,提高模型的识别能力;设计明暗试验和密集场景试验进一步验证模型在复杂场景下的鲁棒性。[结果]YOLO v5+ECA模型的平均检测精度(mAP)为88.93%,相比YOLO v5提升了2.27%。在识别精度(AP)上,站立姿态为91.85%,休憩姿态为93.42%,饮水姿态为90.02%,梳羽姿态为80.42%。在明暗试验和密集场景试验中,YOLO v5+ECA模型性能表现稳定,漏检现象和误检现象相对较少。[结论]该模型可以实现养殖场复杂场景下肉鹅姿态准确快速检测,为后续肉鹅行为监控和健康防疫提供数据支撑。  相似文献   

11.
针对多种树形果园环境下,由于树冠背景复杂导致的树冠分割、检测及树形识别困难的问题,本研究提出了1种改进Mask R-CNN的B-Mask R-CNN检测模型,实现自然复杂环境下的果树树冠检测与树形识别。该模型引入了IoU(Intersection over Union)平衡采样,提高了模型的训练效果;其次,在边界框损失中引入平衡L1损失,使得多分类损失与边界框损失更快地收敛;另外,在区域推荐网络中调整锚框比例适应数据集中的目标,提升了模型准确率。该研究搜集矮化密植形、小冠疏层形、自然开心形、自然圆头形以及Y形5种常见修剪树形制作数据集,应用5个检测模型进行对比试验。试验结果表明,B-Mask R-CNN检测模型平均检测精度达到98.7%,与Mask R-CNN、Faster R-CNN、U-Net以及K-means模型相比检测精度更高,对复杂背景下的树形识别具有更好的鲁棒性,能够为后续精准喷施中喷施模式和控制参数的分析及应用奠定基础。  相似文献   

12.
为了实现自然场景下水稻害虫实时精准被识别,构建基于VGG-16卷积神经网络的水稻害虫智能识别模型。该模型采用VGG-16卷积神经网络为核心网络结构,根据水稻害虫的个体特征和自然场景,对VGG-16网络的卷积层局部调整,优化主要模型参数,实现水稻害虫的智能识别,其识别的平均准确率是90.7%,实现对沙叶蝉、大螟、斑须蝽、点蜂缘蝽和白背飞虱的准确识别。研究结果显示,采用卷积神经网络技术可以实现自然场景下害虫图像的精准识别,代替人工辨认,提高水稻害虫防治率,实现实时、精准防治的目标。  相似文献   

13.
【目的】为提高脐橙采摘机器人在自然环境下对脐橙果实进行识别定位的精度,提出采用深度学习结合快速导向滤波方法识别自然环境下脐橙果实。【方法】以赣南脐橙为对象,改进导向滤波方法,去除自然环境下脐橙图像的光照等噪声信息,突出图像颜色和纹理特征。采用带有残差模块的Darknet-53作为特征提取网络,将多尺度融合的3尺度检测网络减少为2尺度检测网络,引入GIoU边界损失函数代替原损失函数,并使用DBSCAN+Kmeans聚类算法,对训练数据集聚类分析,优化预测分支的先验框尺寸,通过迁移学习训练方法建立脐橙果实识别模型,设计单果、向光、背光、果实重叠、枝叶遮挡5组测试集的对比实验,并与其他几种识别模型性能进行比较。【结果】快速导向滤波方法能很好地去除脐橙图像在自然环境下光照及边缘模糊等噪音信息。当优化2个预测分支先验框尺寸时,改进后模型在5种环境下综合性能都优于其他网络,尤其在真实种植环境下识别准确率达到了91.22%,召回率为97.30%,F1平均值为94.16%,识别速率约为26.48 fps。【结论】使用快速导向滤波结合深度学习方法建立的脐橙果实识别模型对自然环境下脐橙果实的识别具有较高的...  相似文献   

14.
基于深度学习的苹果树侧视图果实识别   总被引:3,自引:2,他引:1  
【目的】传统果树侧面果实识别方法精度难以满足实际果实识别的需求,研究深度学习方法对提高苹果树侧面果实识别精度、增强模型对苹果复杂生长环境的适应性和泛化性具有重要意义。【方法】文章提出基于深度卷积神经网络对广域复杂背景环境下的侧面苹果特征进行学习的方法,完成苹果树侧面果实多目标识别任务。【结果】在广域复杂场景下,基于VGG16为特征提取网络的Faster-RCNN多目标检测模型在果实多目标检测任务中,识别精度达到91%,单幅影像识别时间约为1.4 s,相较于ResNet50作为特征提取层的目标检测模型识别精度提高4%;在相同影像数据下,模型识别精度的主要影响因素是遮挡,导致模型漏判果实数量较多,VGG16在不同程度遮挡区域的漏判率比ResNet低6%。【结论】基于VGG16卷积神经网络果树侧视图果实识别算法对广域复杂场景下的果实提取效果较好,特别是在具有遮挡情况下的识别结果更优,能够为果园产量估算提供一定的借鉴。  相似文献   

15.
茶叶智能采摘的关键技术之一是待采摘嫩芽的识别,而嫩芽大小、环境光照、拍摄角度等因素都会给嫩芽的精准识别带来困难。针对复杂场景下传统茶树嫩芽识别方法准确率低的问题,文章提出一种基于YOLOV3深度卷积模型的识别方法,并通过增加SPP模块优化模型,提高模型对茶树嫩芽的识别能力。实验结果表明,YOLOV3模型和YOLOV3优化模型均能在复杂场景下实现茶树嫩芽识别,且YOLOV3优化模型的平均精度均值mAP比YOLOV3模型提高3.5百分点,达到91%,说明YOLOV3优化模型能够更好地应用于自然场景下的茶树嫩芽识别。  相似文献   

16.
针对多肉植物种类多,类内差异大、类间差异小,数据难收集,导致传统分类算法不能有效解决多肉植物图像分类的问题,提出一种基于对比学习的多肉植物图像分类网络CL_ConvNeXt。该网络以ConvNeXt为基础结构引入对比学习思想,在网络中间层添加非线性投影层(Projection head)作为辅助分类器来帮助模型对浅层网络进行特征提取;在一个批处理中通过数据增强来构造正样本,将剩余样本看作负样本;将交叉熵损失函数和对比损失函数进行加权计算,重新设计新的损失函数计算方法,实现单阶段模型训练。训练时采用迁移学习将预训练权重迁移到模型中来提高模型训练时的收敛速度,通过优化各种策略和参数来进一步提升模型的识别准确率。结果表明,在自制的190类多肉植物数据集中,在使用相同训练策略和环境配置的情况下,最终模型CL_ConvNeXt对多肉植物图像分类识别准确率达到了91.79%,较原ConvNeXt模型结构的识别准确率提升了12.24个百分点,对解决多肉植物图像分类识别问题有较好的效果。  相似文献   

17.
[目的]为实现果园自然场景下智能农业机器人对桃花的准确、快速、有效检测.[方法]文章采用相机获取桃花图片数据,通过LabelImg软件进行人工标记建立桃花目标识别的检测样本数据集,训练Darknet深度学习框架下的YOLO v4模型对桃花进行识别.[结果]模型精度评估表明,YOLO v4模型的平均准确率MAP值(86%...  相似文献   

18.
基于纹理特征模型的檀香咖啡豹蠹蛾图像诊断方法,根据健康图像和虫害图像在纹理方面表现出的差异,提出海南省北部县市檀香受咖啡豹蠹蛾虫害“多纹理特征”的确定方法。针对每种图像类型,使用提取出的4维多纹理特征,组合得到6种数学模型,并对其进行评估。结果表明:模型1(自变量为熵值均值-相关性均值,因变量为熵值均值-能量均值)的模型精度与分类精度均为最佳,并且总体分类精度达到91.25%。与逐步聚类算法和K-means聚类算法、Logistic模型二分类法相比,该方法在保证分类精度的前提下减小了计算量,并为之后纹理图像分类提供了参考依据。  相似文献   

19.
为实现穴盘甘蓝的智能化管理,针对穴盘甘蓝病害识别存在的光照不均匀、对比度低和待检测目标小等问题,研究了基于深度学习的穴盘甘蓝病害检测算法。该算法结合通道空间注意力机制模块,在特征提取模块对特征信息进行重标定,引导模型关注病害区域特征,抑制背景噪声,降低模型漏检率。并采用自适应多尺度特征融合算法提取穴盘甘蓝病害多尺度特征,充分利用不同尺度特征的语义信息提升小目标的检测精确率。由于算法的检测框定位不准确,在回归损失函数中添加了重叠面积损失、中心点距离损失和宽高损失,对回归任务进行了优化,提高穴盘甘蓝病害预测框定位精度;同时引入变焦损失函数作为分类损失函数,利用权重缩放因子缓解模型训练过程中相似病害类间差距小的问题。结果表明,研究算法对穴盘甘蓝炭疽病、细菌性黑斑病、褐斑病、黑腐病的检测平均精确率分别为97.59%、99.70%、98.69%和97.64%;其平均精度均值达到98.41%,与YOLOX、Faster R-CNN、YOLOv3、SSD、CenterNet算法相比,分别提高了4.96、12.86、18.19、4.71、10.69百分点。  相似文献   

20.
基于YOLOv4网络的棉花顶芽精准识别方法   总被引:1,自引:0,他引:1  
为实现非接触、低成本、精准识别棉花顶芽,提出一种基于YOLOv4网络在复杂环境下对棉花顶芽进行精准识别的方法。利用K-means算法对棉花顶芽数据集进行聚类,优化先验框改善网络检测精度和速度,得到最优权值模型。对聚类前后模型以及与其他目标检测模型在棉花顶芽检测性能上进行了对比试验,并探究了顶芽在逆光和遮挡环境下,不同模型的检测性能。结果表明:该模型在测试集的平均检测精度(AP)、精确率(P)、召回率(R)、调和平均值(F1)比原模型分别提高0.36%、1.73%、0.52%、1.16%,单张图像平均检测时间缩短0.28 s;对比SSD、YOLOv3、Tiny-YOLOV4模型,该模型检测精确率和F1值最高,性能均衡;在自然场景处于逆光状态下,YOLOv4模型检测顶芽效果好于其他模型,且逆光环境对检测影响小;在遮挡条件下各个模型检测精度均有不同程度下降。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号