首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 218 毫秒
1.
为解决水稻害虫体型小且不同类型害虫外观差异小、同类型害虫不同生长过程中外观差异大导致水稻害虫难以识别的问题,将卷积块注意力和特征金字塔模块引入图像识别网络YOLOv7。以湖北省鄂州市水稻种植基地为样本采集点,构建一个具有挑战性的大规模水稻虫害数据集;根据样本分布特点进行数据增强,引入随机噪声、Mixup、Cutout等数据增强方法,使深度学习模型从更深的维度学习害虫判别力视觉特征;将MobileNetv3作为主干网络,对YOLOv7网络进行改进,并构建基于特征金字塔的多尺度神经网络模型,提升小个体害虫的识别精度。试验结果显示,基于改进YOLOv7的水稻虫害检测平均准确率为85.46%,超越YOLOv7、EfficientNet-B0等网络。改进YOLOv7模型大小为20.6 M,检测速度为92.2 帧/s,检测速度是原始YOLOv7算法的5倍以上。结果表明,该方法能用于实现水稻虫害远程实时自动化识别。  相似文献   

2.
姚青  姚波  吕军  唐健  冯晋  朱旭华 《中国农业科学》2021,54(21):4562-4572
【目的】智能虫情测报灯诱捕到的农业害虫因种类繁多、虫体姿态多样、鳞片脱落等原因造成有些害虫图像存在种间相似和种内差异的现象。为了提高农业灯诱害虫识别率,针对YOLOv4检测模型检测到且容易混淆的19种灯诱害虫,本文提出了基于双线性注意力网络的农业灯诱害虫细粒度图像识别模型。【方法】首先,根据灯诱害虫外观图像的相似性和检测误检的情况,将19种害虫分为6类;将所有害虫图像通过补边操作使得长宽相等,并缩放至统一尺寸224×224像素。为了提高模型的鲁棒性和泛化能力,对害虫图像进行镜像翻转、旋转180度、高斯噪声和均值滤波的数据增强,训练集、验证集和测试集样本量按照8:1:1比例划分。然后,针对6类19种农业灯诱害虫细粒度图像,建立了基于双线性注意力网络的农业灯诱害虫识别模型(bilinear-attention pest net,BAPest-net),模型包括双线性特征提取、注意力机制和分类识别3个模块;通过修改特征提取模块的下采样方式提高特征提取能力;添加注意力机制模块让整个模型更关注于局部细节的特征,将双线性结构中的上下两个注意力机制的输出进行外积运算增加细粒度特征的权重,提高识别的准确性和学习效率;模型优化器使用随机梯度下降法SGD,分类模块中使用全局平均池化,旨在对整个网络从结构上做正则化防止过拟合。最后,在同一个训练集训练VGG19、Densenet、ResNet50、BCNN和BAPest-net 5个模型,对6类相似的19种农业灯诱害虫进行识别,以精准率、Precision-Recall(PR)曲线和平均识别率作为模型的评价指标。【结果】BAPest-net对6类相似的19种农业灯诱害虫平均识别率最高,达到94.9%;BCNN次之,为90.2%;VGG19模型最低,为82.1%。BAPest-net识别的6类害虫中4类鳞翅目害虫的平均识别率均大于95%,表明该模型能较好地识别出鳞翅目害虫。测试结果中仍存在少数相似度较高的害虫误判,特别当害虫腹部朝上或侧身,种类特征不够明显的时候容易引起相似害虫的误判。对于区分度较低的相似害虫需要更多的训练样本以获取更多的特征,提高模型的识别率和泛化能力。【结论】基于双线性注意力网络的农业灯诱害虫细粒度图像识别模型可以自动识别6类相似的19种农业灯诱害虫,提高了农业灯诱害虫自动识别的准确率。  相似文献   

3.
为了实现自然环境下疏果前苹果的快速识别和精确定位,满足果园智能化种植需求,提出了一种基于改进的YOLOv5深度学习的检测模型。首先,为了解决苹果的尺度大小不一带来的问题,改进目标检测层,在YOLOv5的第17层之后对特征图进行上采样,在第20层将网络提取到的特征图与Backbone网络中的第2层特征图进行融合操作,以生成不同尺寸的检测层。其次,为了克服复杂环境的影响,改进特征融合网络,使用BiFPN(Bidirectional Feature Pyramid Network))进行特征融合,来更有效地提取目标信息。最后,将采集到的苹果图像进行不同网络模型检测效果对比试验。试验表明,改进的模型经过8 274幅图像训练,在2 759幅测试集上的检测准确率为94.2%,召回率为95.2%,F1值为94.7%;相比YOLOv3、YOLOv4、原YOLOv5网络,准确率分别提高了4.4%、7.0%、2.3%,F1值分别提高6.1%、6.5%、2.6%;相比YOLOv3、YOLOv4网络,图像的检测速度分别提高了13.5、21.4 ms/幅。结果表明,在...  相似文献   

4.
针对现有目标检测算法对自然环境下核桃识别存在漏检、误检等问题,提出了一种基于Swin Transformer多层特征融合改进的YOLOX-S核桃识别算法。首先,在主干特征提取网络中引入基于Swin Transformer的多层特征融合模块,借助Swin Transformer的多头注意力机制对小目标的特征信息进行提取并与特征图进行融合,可以有效解决因网络层数加深导致的高层特征图中小目标特征信息丢失问题;其次,为了提高算法的检测精度,引入更高效的Repblock模块对原网络中的CSP模块进行替换;最后,为了提高下采样效果,使用更为优秀的Transition Block模块作为主干特征提取网络的下采样模块。结果表明,改进后的YOLOX-S模型在采集的自然环境下核桃数据集上平均精度AP50达到96.72%,分别比Faster-RCNN、YOLOv5-S、YOLOX-S算法提高7.36、1.38、0.62百分点,检测速度达到46 f/s,模型参数大小为20.55 M。改进后的YOLOX-S算法具有更好的精度,改善了漏检和误检问题,对自然环境下的核桃有更好的识别效果。  相似文献   

5.
为提高多目标和雾天环境下的海上船舶识别准确率,提出一种基于改进YOLOv5深度学习的海上船舶识别模型(SE-NMS-YOLOv5),该模型结合暗通道去雾算法(Dark channel),并融合了SE(squeeze-and-excitation)注意力机制模块和改进非极大值抑制模型,对船舶数据集进行训练和测试。结果表明:在船舶识别任务上,SE-NMS-YOLOv5模型的准确率、召回率和F1值分别为90.6%、89.9%、90.5%,检测效果比YOLOv5模型分别提升了6.3%、4.8%、5.8%,比YOLOv4模型分别提升了19.1%、19.0%、19.3%;在雾天船舶识别任务上,SE-NMS-YOLOv5-Dark channel模型的准确率、召回率和F1值分别为88.1%、87.2%、87.6%,比SE-NMS-YOLOv5模型的检测结果分别提升了13.8%、13.3%、13.5%。研究表明,SE-NMS-YOLOv5海上船舶识别模型有效地解决了多目标和雾天条件下,海上船舶检测准确率低的问题,提升了船舶检测和识别的整体效果。  相似文献   

6.
为实现自然环境下不同成熟度火龙果在不同光照、不同遮挡场景下的精确快速识别,提出了一种基于对YOLOv5的网络模型改进的一种检测模型(PITAYA-YOLOv5)。首先,使用k-means++算法重新生成火龙果数据集的锚框,提高了网络的特征提取能力;其次,将CSPDarkNet替换成PPLCNet作为骨干网络,并加入SE注意力模块(Squeeze-and-Excitation block),在降低网络参数量的同时保持检测精度;同时加入加权双向特征金字塔网络(Bi-FPN)替换YOLOv5的特征融合网络,提高网络对不同尺度特征图的融合效率;引入αDIoU损失函数,提高了模型的收敛效果。试验结果表明:PITAYA-YOLOv5目标检测模型的平均精度均值为94.90%,较原模型提高1.33个百分点,F1值为91.37%,较原模型提高1.12个百分点,平均检测速度达到20.2 ms,占用内存仅有8.1 M。针对枝条遮挡和果间遮挡下的火龙果检测能力明显增强。对比Faster R-CNN、CenterNet、YOLOv3、YOLOv5以及轻量化骨干网络ShuffleNetv2,该模型具有良好的检测精...  相似文献   

7.
小样本目标检测旨在通过少量样本实现对图像中目标的识别和定位。目前针对柑橘缺陷的小样本数据集进行的检测较少,本文提出了使用数据增强和迁移学习来对小样本柑橘的缺陷类型进行检测的方法,采用旋转、裁剪和高斯模糊进行数据增强来扩充数据集,与使用迁移学习方法进行对比。实验表明:迁移学习方法中最优算法是FRCN ft-full,基于该算法的20-shot任务的mAP值为67.823%;在基于数据增强的方法中使用Faster R-CNN算法的mAP值达到了84.7%,使用YOLOv8算法的mAP是85.3%,YOLOv8算法略优于Faster R-CNN算法。迁移学习方法增强了检测模型的泛化能力,加快了模型的收敛速度;数据增强方法有效扩充了数据集,提升了小样本柑橘缺陷检测模型的准确性。  相似文献   

8.
目的 提高杂交稻种子活力分级检测精度和速度。方法 提出了一种基于YOLOv5改进模型(YOLOv5-I)的杂交稻芽种快速分级检测方法,该方法引入SE (Squeeze-and-excitation)注意力机制模块以提高目标通道的特征提取能力,并采用CIoU损失函数策略以提高模型的收敛速度。结果 YOLOv5-I算法能有效实现杂交稻芽种快速分级检测,检测精度和准确率高,检测速度快。在测试集上,YOLOv5-I算法目标检测的平均精度为97.52%,平均检测时间为3.745 ms,模型占用内存空间小,仅为13.7 MB;YOLOv5-I算法的检测精度和速度均优于YOLOv5s、Faster-RCNN、YOLOv4和SSD模型。结论 YOLOv5-I算法优于现有的算法,提升了检测精度和速度,能够满足杂交稻芽种分级检测的实用要求。  相似文献   

9.
基于YOLO的贻贝(Mytilus edulis)识别与检测技术,是实现贻贝分级、分苗等作业环节机械化和智能化的关键。然而,贻贝因外部特征不够清晰明确,给识别准确率的提高带来了挑战。本文提出一种基于改进YOLOv5算法的贻贝目标检测模型(CST-YOLO)。该算法融合CoordAttention注意力机制,以增强特征表达能力;采用SIoU作为边界框回归损失函数,以减少边界框回归损失,提高模型的检测速度;将Head替换为改进的解耦头TSCODE Head来提高检测准确率。并在自制的贻贝数据集上进行算法测试,实验结果显示:相比YOLOv5算法,CST-YOLO算法的准确率P提高了0.428%,mAP_0.5:0.95达到92.221%,提高了1.583%。实验表明CST-YOLO算法在保证检测速度的前提下,有效提高了贻贝目标的检测精度。本研究有助于机器视觉技术在贻贝养殖业自动化与智能化生产加工中的应用。  相似文献   

10.
【目的】提出了一种改进的YOLOv4模型,为自然环境下3种常见茶叶病害(茶白星病、茶云纹叶枯病和茶轮斑病)的快速精准识别提供支持。【方法】使用MobileNetv2和深度可分离卷积来降低YOLOv4模型的参数量,并引入卷积注意力模块对YOLOv4模型进行识别精度改进。采用平均精度、平均精度均值、图像检测速度和模型大小作为模型性能评价指标,在相同的茶叶病害数据集和试验平台中,对改进YOLOv4模型与原始YOLOv4模型、其他目标检测模型(YOLOv3、SSD和Faster R CNN)的病害识别效果进行对比试验。【结果】与原始YOLOv4模型相比,改进YOLOv4模型的大小减少了83.2%,对茶白星病、茶云纹叶枯病和茶轮斑病识别的平均精度分别提高了6.2%,1.7%和1.6%,平均精度均值达到93.85%,图像检测速度为26.6帧/s。与YOLOv3、SSD和Faster R-CNN模型相比,改进YOLOv4模型的平均精度均值分别提高了6.0%,13.7%和3.4%,图像检测速度分别提高了5.5,7.3和11.7帧/s。【结论】对YOLOv4模型所使用的改进方法具备有效性,所提出的改进YOLOv4模型可以实现对自然环境下3种常见茶叶病害的快速精准识别。  相似文献   

11.
基于卷积神经网络的水稻虫害识别方法   总被引:1,自引:0,他引:1  
为解决人工识别水稻虫害难度大、费时费力的问题,研究了一种自动识别水稻虫害的方法。选取2 500张红袖蜡蝉、稻绿蝽、稻螟蛉、点蜂缘蝽、大螟图片建立数据库,利用深度卷积神经网络提取水稻虫害数据集特征,采用随机梯度下降法训练,得到最优权重文件。测试训练好的模型,并对比Faster-RCNN、SSD和YOLOv3算法的效果。结果表明,YOLOv3算法的平均精度最高,其在红袖蜡蝉、稻绿蝽、稻螟蛉、点蜂缘蝽、大螟5种水稻虫害中分别为97.40%、88.76%、85.74%、92.96%、94.78%,五类水稻虫害mAP为91.93%。与Faster-RCNN算法相比,平均准确率高1.43个百分点,单张图像检测耗时减少853.68 ms;与SSD算法相比,平均准确率高5.56个百分点,单张图像检测耗时减少2.9 ms。选择5类比较具有代表性的水稻虫害图片进行测试,对于叶片遮挡目标和相似背景等情况,YOLOv3算法能够正确识别不会出现漏检错检,且识别准确率大于98%。将YOLOv3算法引入田间复杂情况下的水稻虫害识别是可行的,具有较高的平均准确率以及较快的检测速度,能够准确识别水稻虫害,这对于水稻虫害防治和田间喷药等方面具有重要意义。  相似文献   

12.
为了提升猪舍环境下生猪姿态检测的速度和性能,在YOLOv4模型的基础上提出一种改进的Mini_YOLOv4模型。首先,该模型将YOLOv4的特征提取网络改为轻量级的MobileNetV3网络结构,以降低模型参数量;其次,在检测网络的CBL_block1、CBL_block2模块中使用深度可分离卷积代替传统卷积,避免了复杂模型导致的内存不足和高延迟问题;最后,将原YOLOv4网络每个尺度的最后一层3×3卷积改为Inception网络结构,以提高模型在生猪姿态检测上的准确率。应用上述模型,对生猪的站立、坐立、腹卧、趴卧和侧卧5类姿态进行识别。结果显示,Mini_YOLOv4模型较YOLOv4模型在检测精度上提升了4.01百分点,在检测速度上提升近1倍,在保证识别精度的同时提升了实时性,可为生猪行为识别提供技术参考。  相似文献   

13.
小麦是重要的粮食作物之一,针对人工田间麦穗计数及产量预测效率低的问题,基于深度学习提出了一种高分辨率的小密集麦穗实时检测方法。对麦穗图像数据集进行图像分割、标注、增强预处理,基于Tensorflow搭建YOLOv4网络模型,调整改进后对其进行迁移学习;与YOLOv3、YOLOv4-tiny、Faster R-CNN训练模型进行对比,对改进模型的实用性与局限性进行分析;重点分析影响麦穗检测模型性能的关键因素。通过图像分割的方式,证明了通过改变图像分辨率确定麦穗所占图像最优像素比,可以提高前景与背景差异,对小密集麦穗有显著效果。通过对改进模型的测试,表明该模型检测精度高,鲁棒性强。不同分辨率、不同品种、不同时期的麦穗图像均类平均精度(mAP)为93.7%,单张图片的检测速度为52帧·s-1,满足了麦穗的高精度实时检测。该研究结果为田间麦穗计数以及产量预测提供技术支持。  相似文献   

14.
针对目前油菜虫害识别在背景、角度、姿态、光照等方面的鲁棒性问题,提出一种基于深度卷积神经网络的油菜虫害检测方法:首先在卷积神经网络和区域候选网络的基础上,构建油菜虫害检测模型,再在深度学习tensorflow框架上实现模型的检测,最后对比分析结果。油菜虫害检测模型利用VGG16网络提取油菜虫害图像的特征,区域候选网络生成油菜害虫的初步位置候选框,Fast R–CNN实现候选框的分类和定位。结果表明,该方法可实现对蚜虫、菜青虫(幼虫)、菜蝽、跳甲、猿叶甲5种油菜害虫的快速准确检测,平均准确率达94.12%,与RCNN、Fast R–CNN、多特征融合方法、颜色特征提取方法相比,准确率分别提高了28%、23%、12%、2%。  相似文献   

15.
  目的  目前利用测报灯,通过灯光诱捕昆虫,并由计算机完成昆虫图像的采集、计数和识别已逐步成为害虫测报的重要方法。为了减少昆虫在采样盘上重叠造成的计数和识别误差,基于害虫图像,根据昆虫密度研究采样盘中昆虫的收集方法,从而提高采集效率和精度。  方法  根据昆虫在采样盘上姿态特点,提出基于全局对比度的图像分割方法,结合阈值迭代分割获得昆虫区域,计算昆虫比例,并控制采样盘翻转完成对昆虫的收集。  结果  通过对5种害虫的实际图像进行的试验表明:与水平集、大津法(OTSU)、阈值迭代法和基于直方图对比度的显著性检测(HC)4种算法相比,本研究方法在准确率和召回率上均提高10%以上,取得了较好的结果;同时,在分割速度上比水平集快3倍,与阈值和HC算法基本持平。  结论  基于全局对比度的分割方法简单、高效,在害虫自动测报中具有较高的实际应用价值。图7表1参17  相似文献   

16.
为了解决水稻小病斑检测不准确的问题,提出一种基于改进YOLOv3的水稻叶部病害检测方法Rice–YOLOv3。首先,采用K–means++聚类算法,计算新的锚框尺寸,使锚框尺寸与数据集相匹配;其次,采用激活函数Mish替换YOLOv3主干网络中的Leaky Relu激活函数,利用该激活函数的平滑特性,提升网络的检测准确率,同时将CSPNet与DarkNet53中的残差模块相结合,在避免出现梯度信息重复的同时,增加神经网络的学习能力,提升检测精度和速率;最后,在FPN层分别引入注意力机制ECA和CBAM模块,解决特征层堆叠处的特征提取问题,提高对小病斑的检测能力。在训练过程中,采用COCO数据集预训练网络模型,得到预训练权重,改善训练效果。结果表明:在测试集下,Rice–YOLOv3检测水稻叶部3种病害的平均精度均值(mAP)达92.94%,其中,稻瘟病、褐斑病、白叶枯病的m AP值分别达93.34%、89.68%、95.80%,相较于YOLOv3,Rice–YOLOv3检测的m AP提高了6.05个百分点,速率提升了2.8帧/s,对稻瘟病和褐斑病的小病斑的检测能力明显增强,可以检测出原...  相似文献   

17.
草莓目标检测对草莓智能化监测和自动化采摘具有非常重要的意义。本文提出了一种基于YOLOv4的草莓目标检测方法。针对复杂环境下采集到的草莓数据集,首先采用LabelImg进行数据类型标注,然后采用改进的Kmeans聚类算法进行先验框尺寸的计算,最后采用分阶段训练方法对搭建的YOLOv4模型进行训练和模型评估。结果表明,该方法的测试集平均精度均值达到97.05%,单张图像检测时间平均为74 ms,能够满足草莓的高精度实时检测需求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号