首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 343 毫秒
1.
基于改进CornerNet的水稻灯诱飞虱自动检测方法构建与验证   总被引:1,自引:0,他引:1  
针对水稻灯诱昆虫图像中稻飞虱自动检测存在严重误检和漏检问题,提出一种基于改进CornerNet的水稻灯诱飞虱自动检测方法。由于稻飞虱个体在灯诱昆虫图像中所占区域比例极小,利用重叠滑动窗方法提高飞虱在图像检测区域中所占比例,提高2种稻飞虱(白背飞虱和褐飞虱)的检测率和避免滑动窗边界造成的目标漏检。针对CornerNet存在角点匹配不准确导致检测框冗余问题,利用检测框抑制方法去除冗余检测框。对灯诱昆虫图像进行稻飞虱检测,结果表明,该研究提出的基于改进CornerNet的水稻灯诱飞虱自动检测方法对2种稻飞虱检测的平均精确率和召回率分别为95.53%和95.50%,有效地提高了灯诱昆虫图像中稻飞虱的检测效果,可用于智能虫情测报灯的灯诱昆虫图像中白背飞虱和褐飞虱的智能测报。  相似文献   

2.
基于深度学习的番茄授粉机器人目标识别与检测   总被引:1,自引:1,他引:0  
为满足植物工厂中番茄智能化授粉作业的需要,解决目前机器人在授粉过程中因花朵小、姿态朝向各异而导致的检测精度不高和授粉策略不完善的问题,该研究提出一种由目标检测、花期分类和姿态识别相结合的番茄花朵检测分类算法--TFDC-Net(Tomato flower detection and classification network)。在花朵检测阶段,基于YOLOv5s对其网络进行改进,添加了卷积块注意力模块(Convolutional Block Attention Module,CBAM)及采用了加权框融合(Weighted Boxes Fusion,WBF)的方法,提出一种改进的YOLOv5s网络。该网络在使用线下数据增强的基础上训练得到ACW_YOLOv5s模型,该模型的准确率为0.957,召回率为0.942,mAP0.5为0.968,mAP0.5~0.95为0.62,各项指标相较于原网络模型分别提高了0.028,0.004,0.012,0.066。经测试表明,ACW_YOLOv5s模型解决了远处的小目标及被遮挡的目标漏检,重叠目标误检的问题。同时,为解决花朵不同花期和花蕊不同朝向的授粉问题,研究采用EfficientNetV2分类网络分别对3种不同花期和5种不同姿态的花朵进行训练得到花期分类模型及姿态识别模型,模型准确率分别为94.5%和86.9%,通过对目标进行花期分类和姿态识别判断是否对其进行授粉。为进一步验证分类模型的性能,分别选取300张花期图片和200张姿态图片对模型进行测试,花期分类模型和姿态分类模型的测试总体准确率分别为97%,90.5%。将TFDC-Net算法应用于自主研发的授粉机器人中并进行试验验证,结果表明,该算法能够完成对番茄花朵的目标检测,花期分类和姿态识别。再通过坐标转换实现目标定位,并对目标进行授粉。该研究为授粉机器人的目标检测与定位提供了一定的技术依据。  相似文献   

3.
基于改进EfficientNet模型的作物害虫识别   总被引:8,自引:7,他引:1  
精准识别作物害虫是控制虫害发生态势的重要基础.针对现有害虫识别准确率较低、基于卷积神经网络的害虫识别结构较复杂且计算成本较高、害虫识别模型泛化能力低及难以部署等问题,该研究提出了一种基于改进EfficientNet模型的作物害虫智能识别模型.该模型通过引入坐标注意力(Coordinate Attention,CA)机制...  相似文献   

4.
基于改进型YOLOv4的果园障碍物实时检测方法   总被引:9,自引:6,他引:3  
针对农业机器人在复杂的果园环境中作业时需要精确快速识别障碍物的问题,该研究提出了一种改进型的YOLOv4目标检测模型对果园障碍物进行分类和识别。为了减少改进后模型的参数数量并提升检测速度,该研究使用了深度可分离卷积代替模型中原有的标准卷积,并将主干网络CSP-Darknet中的残差组件(Residual Unit)改进为逆残差组件(Inverted Residual Unit)。此外,为了进一步增强模型对目标密集区域的检测能力,使用了软性非极大值抑制(Soft DIoU-Non-Maximum Suppression,Soft-DIoU-NMS)算法。为了验证该研究所提方法的有效性,选取果园中常见的3种障碍物作为检测对象制作图像数据集,在Tensorflow深度学习框架上训练模型。然后将测试图片输入训练好的模型中检测不同距离下的目标障碍物,并在同一评价指标下,将该模型的测试结果与改进前YOLOv4模型的测试结果进行评价对比。试验结果表明,改进后的YOLOv4果园障碍物检测模型的平均准确率和召回率分别为96.92%和91.43%,视频流检测速度为58.5帧/s,相比于原模型,改进后的模型在不损失精度的情况下,将模型大小压缩了75%,检测速度提高了29.4%。且改进后的模型具有鲁棒性强、实时性更好、轻量化的优点,能够更好地实现果园环境下障碍物的检测,为果园智能机器人的避障提供了有力的保障。  相似文献   

5.
采用组合增强的YOLOX-ViT协同识别温室内番茄花果   总被引:1,自引:1,他引:0  
番茄花果的协同识别是温室生产管理调控的重要决策依据,针对温室番茄栽培密度大,植株遮挡、重叠等因素导致的现有识别算法精度不足问题,该研究提出一种基于级联深度学习的番茄花果协同识别方法,引入图像组合增强与前端ViT分类网络,以提高模型对于小目标与密集图像检测性能。同时,通过先分类识别、再进行目标检测的级联网络,解决了传统检测模型因为图像压缩而导致的小目标模糊、有效信息丢失问题。最后,引入了包括大果和串果在内的不同类型番茄品种数据集,验证了该方法的可行性与有效性。经测试,研究提出的目标检测模型的平均识别率均值(mean average precision,m AP)为92.30%,检测速度为28.46帧/s,其中对小花、成熟番茄和未成熟番茄识别平均准确率分别为87.92%、92.35%和96.62%。通过消融试验表明,与YOLOX、组合增强YOLOX相比,改进后的模型m AP提高了2.38~6.11个百分点,相比于现有YOLOV3、YOLOV4、YOLOV5主流检测模型,m AP提高了16.56~23.30个百分点。可视化结果表明,改进模型实现了对小目标的零漏检和对密集对象的无误检,从而达到...  相似文献   

6.
针对YOLOv5(you only look once version five)模型在农作物害虫密集目标上的检测效果无法满足实际需求,以及训练过程中模型收敛速度较慢等问题,该研究提出了融入全局响应归一化(global response normalization,GRN)注意力机制的YOLOv5农作物害虫识别模型(YOLOv5-GRNS)。设计了融入GRN注意力机制的编码器(convolution three,C3)模块,提高对密集目标的识别精度;利用形状交并比(shape intersection over union,SIoU)损失函数提高模型收敛速度和识别精度;在公开数据集IP102(insect pests 102)的基础上,筛选出危害陕西省主要农作物的8种害虫类型,构建了新数据集IP8-CW(insect pests eight for corn and wheat)。改进后的模型在新IP8-CW和完整的IP102两种数据集上进行了全面验证。对于IP8-CW,全类别平均准确率(mean average precision,mAP)mAP@.5和mAP@.5:.95分别达到了72.3%和47.0%。该研究还对YOLOv5-GRNS模型进行了类激活图分析,不仅从识别精度,而且从可解释性的角度,验证了对农作物害虫、尤其是密集目标的优秀识别效果。此外,模型还兼具参数量少、运算量低的优势,具有良好的嵌入式设备应用前景。  相似文献   

7.
为提高诱虫板图像蔬菜害虫检测精度,针对背景区域容易导致误检的问题基于显著图分析技术构建了一种注意力深度网络害虫智能视觉检测方法。首先通过显著图筛选出粗候选区域;然后在粗候选区域内用全卷积神经网络精选出细候选区域;接着用神经网络分类器识别细候选区域害虫种类,得到含有冗余的若干检测框;最后用改进的非极大值抑制消除冗余检测框,实现诱虫板图像中目标害虫的检测。针对小菜蛾和瓜实蝇展开试验,获得86.4%的平均精度均值和0.111只的平均绝对计数误差均值,所提方法平均精度均值比Faster R-CNN和YOLOv4分别高2.74和1.56个百分点,平均绝对计数误差均值比Faster R-CNN和YOLOv4分别低0.006和0.003只;同时,消融试验中移除显著图注意力模块后平均精度均值下降了4个百分点、平均绝对计数误差均值增加了0.207只。试验结果表明,所提方法有效提高了诱虫板图像蔬菜害虫检测精度,其中,引入显著图注意力模块对提升检测精度有重要作用。  相似文献   

8.
便携式柑橘虫害实时检测系统的研制与试验   总被引:3,自引:2,他引:1  
为实现柑橘虫害的快速、准确识别,帮助果农及时掌握果园内虫害的危害程度和分布情况,该研究结合嵌入式图像处理技术设计了一套基于深度卷积神经网络的柑橘虫害实时检测系统。优选MoblieNet作为虫害图像特征提取网络,区域候选网络生成害虫的初步位置候选框,快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)实现候选框的分类和定位。检测系统根据目标图像中虫害数量计算危害程度,按照正常、轻度、中度、重度4个等级判定柑橘虫害的严重程度,形成虫害识别与级别定量化测评软件。最后引入北斗模块获取采样点位置信息,进一步处理成可视化的虫害热力图。结果表明,该方法可实现对柑橘红蜘蛛和蚜虫的快速准确检测,识别准确率分别达到91.0%和89.0%,单帧图像平均处理速度低至286ms。该系统实现了柑橘虫害的精准识别与定位,可为农药喷洒作业提供精准信息服务。  相似文献   

9.
自动监测装置用温室粉虱和蓟马成虫图像分割识别算法   总被引:6,自引:5,他引:1  
为了监测温室黄瓜作物虫害种类、数量变化情况以预测虫害发展趋势,该文以粉虱和蓟马为例,提出了一种基于Prewitt、Canny边缘检测算子分割和SVM(support vector machine)的温室粉虱和蓟马诱虫板的图像识别算法。该方法利用HSI(Hue-Saturation-Intensity)颜色空间的I分量与L*a*b*颜色空间的b分量二值图像中害虫目标与背景的高对比性,再分别相应地利用Prewitt算子和Canny算子进行单头害虫边缘分割,再经过形态学处理,最后融合这两幅二值图像完成单头害虫区域的提取。然后提取害虫的5个形态特征(面积、相对面积、周长、复杂度、占空比)及9个颜色特征(Hue-Saturation-Value颜色空间、HSI颜色空间、L*a*b*颜色空间各分量的一阶矩),并对这14个特征参数进行归一化处理,将特征值作为SVM的输入向量,进行温室粉虱和蓟马的诱虫板图像识别。通过分析比较不同向量组合的BP(back propagation)与SVM的害虫识别率、4种不同SVM核函数的害虫识别率,发现颜色特征向量是粉虱和蓟马识别的主成分,且SVM的识别效果优于BP神经网络、线性核函数的SVM分类性能最好且稳定。结果表明:平均识别准确率达到了93.5%,粉虱和蓟马成虫的识别率分别是96.0%和91.0%,能够实现温室害虫的诱虫板图像识别。该研究可以为虫害的监测与预警提供支持,为及时采取正确的防治措施提供重要的理论依据。  相似文献   

10.
为提高自然环境下生姜叶片病虫害的识别精确率,提出一种基于改进YOLOv5s的生姜叶片病虫害识别模型。建立了田间不同自然环境条件下的生姜叶片病虫害数据集,为保证模型在田间移动设备上流畅运行,实现网络模型的轻量化,在YOLOv5s中引入GhostNet网络中的Ghost模块和Ghost BottleNeck结构。同时,为避免生姜叶片病虫害图像小目标特征丢失的情况,增强图像特征提取,加入CA注意力机制模块,提升生姜叶片病虫害的识别准确率和定位精确度。改进后的模型参数量、计算量和权重文件大小分别为YOLOv5s模型的52.0%、50.6%和55.2%,对生姜叶片病虫害识别平均精度均值达到了83.8%。与Faster-RCNN、SSD、YOLOv4、YOLOv5s、Tea-YOLOv5s等算法相比,平均精度均值分别提高37.6、39.1、22.5、1.5、0.7个百分点,将改进后的目标检测模型部署在Jetson Orin NX开发板上,并使用TensorRT、Int8量化和CUDA等方法对检测模型加速,加速后的模型检测速度为74.3帧/s,满足实时检测的要求,测试结果显示,改进后的模型减少了漏检、误检的情况,并且对目标定位更加精准,适用于自然环境下生姜叶片病虫害的精准识别,为后续生姜机械自动化施药作业提供技术理论支持。  相似文献   

11.
基于YOLOv5s的农田垃圾轻量化检测方法   总被引:2,自引:2,他引:0  
针对目前垃圾检测算法在农田复杂环境下检测精度不高、检测效率低,模型复杂等问题,该研究提出了基于YOLOv5s的农田垃圾轻量化检测方法。首先,使用轻量级分类网络ShuffleNetV2的构建单元作为特征提取网络,降低模型的计算量和参数量,提高运行速度,以满足移动端的应用要求;其次,为应对模型轻量化后带来的检测精度降低,该文相继对ShuffleNetV2的构建单元进行了卷积核扩大化改进和激活函数优化,在增加部分计算量的前提下提高了模型精度;此外,为增强模型在田间环境下对目标的精准定位能力,该研究针对边界框损失函数进行了优化,将CIoU边界框损失函数高宽纵横比的损失项拆分为预测框的高宽分别与最小外接框高宽的差值,然后通过不断迭代减小差值,提高模型的收敛速度和回归精度。试验结果显示,最终的改进模型检测精度达到了90.9%,此时检测速度为74 ms/帧,计算量仅为3.6 GFLOPs,与当前主流的目标检测算法SSD、YOLOv3等相比,不仅具有更优越的检测精度和推理速度,同时还大幅减少了计算量;最后,将改进前后的模型部署到Jetson TX1和Raspberry 4B 两种边缘计算设备上进行测试,测试结果表明,改进后的YOLOv5s模型在边缘计算设备上的检测速度相对原模型提高了至少20%,同时保持了较好的检测效果,平衡了边缘计算设备对精度和速度的性能需求,为田间垃圾检测任务提供了参考。  相似文献   

12.
为提高复杂环境下棉花顶芽识别的精确率,提出了一种基于YOLOv5s的改进顶芽识别模型。建立了田间复杂环境下棉花顶芽数据集,在原有模型结构上增加目标检测层,提高了浅层与深层的特征融合率,避免信息丢失。同时加入CPP-CBAM注意力机制与SIOU边界框回归损失函数,进一步加快模型预测框回归,提升棉花顶芽检测准确率。将改进后的目标检测模型部署在Jetson nano开发板上,并使用TensorRT对检测模型加速,测试结果显示,改进后的模型对棉花顶芽识别平均准确率达到了92.8%。与Fast R-CNN、YOLOv3、YOLOv5s、YOLOv6等算法相比,平均准确率分别提升了2.1、3.3、2、2.4个百分点,该检测模型适用于复杂环境下棉花顶芽的精准识别,为后续棉花机械化精准打顶作业提供技术理论支持。  相似文献   

13.
基于特征金字塔注意力与深度卷积网络的多目标生猪检测   总被引:13,自引:12,他引:1  
在生猪饲养环境中,猪只黏连、杂物遮挡等给生猪个体多目标检测带来很大困难。该研究以猪圈群养生猪为研究对象,以视频帧为数据源,提出一种适用于生猪形体检测的特征金字塔注意力(FeaturePyramidAttention,FPA)与Tiny-YOLO相结合的模型FPA-Tiny-YOLO。该模型将注意力信息融入到特征提取过程,在不大幅增加计算量的前提下即可提升特征提取能力、提高检测精度。对8栏日龄20~105 d的45头生猪视频截取图像进行图像处理,获得标注图片4 102张,构建了4种深度FPA模块分别加入YOLOV3与Tiny-YOLO模型中。试验表明,深度为3的FPA模块(即FPA-3)的Tiny-YOLO模型在测试集上对群养生猪多目标检测的召回率Recall、F1与平均检测精度m AP指标值最佳,分别达到86.09%、91.47%和85.85%,比未引入FPA模块的Tiny-YOLO模型均有不同程度的提高。选用不同的IOU(Intersection Over Union)和score阈值超参数值对模型预测结果均有不同程度影响;将测试集图像按照是否黏连与遮挡划分4种场景来探究该模型的鲁棒性。试验表明,加入FPA-3模块后Tiny-YOLO的Recall、F1与m AP比Tiny-YOLO分别提升6.73、4.34和7.33个百分点,说明特征金字塔注意力信息有利于精确、有效地对不同场景群养生猪进行多目标检测。研究结果可为后续开展生猪身份识别和行为分析移动端应用提供参考。  相似文献   

14.
针对现有目标检测模型对自然环境下茶叶病害识别易受复杂背景干扰、早期病斑难以检测等问题,该研究提出了YOLOv5-CBM茶叶病害识别模型。YOLOv5-CBM以YOLOv5s模型为基础,在主干特征提取阶段,将一个带有Transformer的C3模块和一个CA(coordinate attention)注意力机制融入特征提取网络中,实现对病害特征的提取。其次,利用加权双向特征金字塔(BiFPN)作为网络的Neck,通过自适应调节每个尺度特征的权重,使网络在获得不同尺寸特征时更好地将其融合,提高识别的准确率。最后,在检测端新增一个小目标检测头,解决了茶叶病害初期病斑较小容易出现漏检的问题。在包含有3种常见茶叶病害的数据集上进行试验,结果表明,YOLOv5-CBM对自然环境下的初期病斑检测效果有明显提高,与原始YOLOv5s模型相比,对早期茶饼病和早期茶轮斑病识别的平均精度分别提高了1.9和0.9个百分点,对不同病害检测的平均精度均值达到了97.3%,检测速度为8ms/幅,均优于其他目标检测算法。该模型具有较高的识别准确率与较强的鲁棒性,可为茶叶病害的智能诊断提供参考。  相似文献   

15.
在香菇栽培中,需要评估其生长发育状态,以便调控栽培环境和采取适当的栽培措施。针对香菇生育期子实体外观特征变化不显著,机器自动采收时部分成熟期香菇子实体易误检和漏检的问题,该研究提出了一种基于改进YOLOv5的香菇子实体生育期识别方法。首先替换YOLOv5模型中上采样模块,采用一种包含上采样预测模块和特征重组模块的轻量级上采样模块;其次在YOLOv5l模型中添加小目标检测层,增加模型对香菇子实体生育期特征信息的提取,提高模型区分香菇生育期和识别小香菇的能力。试验结果表明,改进的 YOLOv5l 模型具有较好的检测能力,平均帧率为 45.25 帧/s,平均精确度均值为92.70%,与SSD、Faster-RCNN、Mushroom-YOLO和YOLOv5相比平均精确度均值分别提升22.6、28.38、6.8和2.5个百分点。该研究方法能够满足对香菇子实体不同生育期识别的精度与速度要求,为香菇子实体生育期识别提供了一种方法参考。  相似文献   

16.
在复杂和密集尺度的农业检测任务中基于Transformer的DETR类模型逐渐崭露头角,但现有的传统量化分析难以深入探究检测模型的优化策略和机制的有效性。为了满足密集小型昆虫的检测和计数的需求,该研究构建了真实场景采集的包含稻飞虱、蚜虫和麦蜘蛛3类小型害虫的多尺度虫害数据集(multi-scale tiny crowded planthopper-aphid-wheat mite pest detection,MTC-PAWPD),提出基于黏连率和相对尺寸的数据划分方式,将虫害数据集分为密集分布、大尺度、中小尺度和超小尺度4类场景。通过分析DINO模型在特定场景下的性能表现,设计详尽的消融试验方案,以特征与其关键组件查询的可视化试验辅助,验证虫害检测任务性能提高与各个模块之间尤其是与查询相关模块的联系。经试验,模型在MTC-PAWPD测试集上的mAP@50达70.0%,与其他主流模型相比提升2.3个百分点。在4类场景中mAP@50分别达42.5%、79.4%、75.7%和62.4%,在多尺度、密集任务中表现出较强的检测性能。通过针对自身模块的消融和可视化试验证明模型性能提升与Trans...  相似文献   

17.
为实现虾只机械剥壳环节裸肉虾与带壳虾自动分选,该研究提出一种基于改进YOLOv4模型的虾只肉壳辨识方法。将YOLOv4模型中CSP-Darknet53网络替换为GhostNet网络,增强模型自适应特征提取能力及简化模型参数计算量。在YOLOv4主干特征提取网络Resblock模块中引入轻量级注意力机制,增强主干特征提取网络的特征提取能力。将YOLOv4模型中GIoU损失函数替换为CIoU损失函数,提高模型预测框的回归效果。为检测改进效果进行了不同模型对比验证,轻量化结果表明改进YOLOv4模型参数量最少、计算量最小;消融试验表明改进YOLOv4模型的平均精度均值为92.8%,比YOLOv4模型提升了6.1个百分点。不同场景下应用改进YOLOv4模型进行虾只肉壳辨识性能试验。结果表明:同品种不同环境的虾只肉壳辨识总体平均准确率为95.9 %,同品种不同剥壳方式的虾只肉壳辨识准确率平均值为90.4 %,不同品种虾只肉壳辨识准确率平均值为87.2 %。研究结果可为裸肉虾与带壳虾自动分选提供技术支撑。  相似文献   

18.
基于自注意力机制与无锚点的仔猪姿态识别   总被引:1,自引:1,他引:0  
在猪场养殖过程中,仔猪姿态识别对其健康状况和环境热舒适度监测都有着重要意义。仔猪个体较小,喜欢聚集、扎堆,且姿态随意性较大,给姿态识别带来困难。为此,该文结合Transformer网络与无锚点目标检测头,提出了一种新的仔猪姿态识别模型TransFree(Transformer + Anchor-Free)。该模型使用Swin Transformer作为基础网络,提取仔猪图像的局部和全局特征,然后经过一个特征增强模块(Feature Enhancement Module,FEM)进行多尺度特征融合并得到高分辨率的特征图,最后将融合后的特征图输入Anchor-Free检测头进行仔猪的定位和姿态识别。该文以广东佛山市某商业猪场拍摄的视频作为数据源,从12个猪栏的拍摄视频中选取9栏作为训练集,3栏作为测试集,训练集中仔猪的俯卧、侧卧和站立3类姿态总计19 929个样本,测试集中3类姿态总计5 150个样本。在测试集上,TransFree模型的仔猪姿态识别精度达到95.68%,召回率达到91.18%,F1-score达到93.38%;相较于CenterNet、Faster R-CNN和YOLOX-L目标检测网络,F1-score分别提高了2.32、4.07和2.26个百分点。该文提出的TransFree模型实现了仔猪姿态的高精度识别,为仔猪行为识别提供了技术参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号