首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 140 毫秒
1.
目的 引入区域卷积神经网络Faster R-CNN算法并对其改进,以实现在田间真实环境下背景复杂且具有相似病斑特征的玉米病害的智能诊断。方法 在玉米田间和公开数据集网站获取具有复杂背景的9种常见病害图像1 150幅,人工标注后对原始图像进行离线数据增强扩充;对Faster R-CNN算法进行适应性改进,在卷积层加入批标准化处理层,引入中心代价函数构建混合代价函数,提高相似病斑的识别精度;采用随机梯度下降算法优化训练模型,分别选取4种预训练的卷积结构作为Faster R-CNN的特征提取网络进行训练,并测试得到最优特征提取网络,利用训练好的模型选取不同天气条件下的测试集进行对比,并将改进Faster R-CNN与未改进的Faster R-CNN和SSD算法进行对比试验。结果 在改进Faster R-CNN病害识别框架中,以VGG16卷积层结构作为特征提取网络具有更出色的性能,利用测试集图像检验模型,识别结果的平均精度为 0.971 8,平均召回率为0.971 9,F1为0.971 8,总体平均准确率可达97.23%;晴天的图像识别效果优于阴天的。改进Faster R-CNN算法与未改进的Faster R-CNN算法相比,平均精度高0.088 6,单张图像检测耗时减少0.139 s;与SSD算法相比,平均精度高0.0425,单张图像检测耗时减少0.018 s,表明在大田环境中具有复杂背景的玉米病害智能检测领域,改进Faster R-CNN算法综合性能优于未改进的Faster R-CNN算法和SSD算法。结论 将改进后的Faster R-CNN算法引入田间复杂条件下的玉米病害智能诊断是可行的,具有较高的准确率和较快的检测速度,能够避免传统人工识别的主观性,该方法为田间玉米病害的及时精准防控提供了依据。  相似文献   

2.
目的 实现精确迅速的农作物病害检测,减少人工诊断成本,降低病害带来的农作物产量和品质影响。方法 根据对农作物病害和病斑特征的分析,提出一种基于卷积注意力机制改进的YOLOX-Nano智能检测与识别模型,该模型采用CSPDarkNet作为主干网络,将卷积注意力模块CBAM引入到YOLOX-Nano网络结构的特征金字塔(Feature pyramid network,FPN)中,并在训练中引入Mixup数据增强方式,同时将分类的损失函数由二分类交叉熵损失函数(Binary cross entropy loss,BCE Loss)替换为焦点损失函数Focal Loss、回归损失函数由GIOU Loss替换为本文设计的CenterIOU Loss函数,采用迁移学习策略训练改进的YOLOX-Nano模型,以此提升农作物病害检测的精度。结果 改进后的YOLOX-Nano模型仅有0.98×106的参数量,在移动端测试单张图片检测时间约为0.187 s,平均识别精度达到99.56%。实践结果表明,其能快速有效地检测与识别苹果、玉米、葡萄、草莓、马铃薯和番茄等农作物的常见病害,且达到了精度与速度的平衡。结论 改进后的模型不仅对农作物叶片病害识别具有较高的精度和较快的检测速度,参数量和计算量较少,还易于部署在手机等移动端设备。该模型实现了在田间复杂环境对多种农作物病害精准定位与识别,对于指导早期农作物病害的防治具有十分重要的现实意义。  相似文献   

3.
目的 针对传统奶牛养殖中采用人工识别奶牛个体的方法效率低且主观性强的问题,提出一种基于改进Mask R-CNN的奶牛个体识别方法。方法 该方法对Mask R-CNN中的特征提取网络结构进行优化,采用嵌入SE block的ResNet-50网络作为Backbone,通过加权策略对图像通道进行筛选以提高特征利用率;针对实例分割时目标边缘定位不准确的问题,引入IoU boundary loss构建新的Mask损失函数,以提高边界检测的精度;对3000张奶牛图像进行训练、验证和测试。结果 改进Mask R-CNN模型的精度均值(AP)达100%,IoUMask达91.34%;与原始Mask R-CNN模型相比,AP提高了3.28%,IoUMask提高了5.92%。结论 本文所提方法具备良好的目标检测能力,可为复杂农场环境下的奶牛个体精准识别提供参考。  相似文献   

4.
基于深度学习和无人机遥感技术的玉米雄穗检测研究   总被引:1,自引:0,他引:1  
【目的】玉米雄穗在玉米的生长过程和最终产量中起关键作用,使用无人机采集玉米抽穗期的RGB图像,研究不同的目标检测算法,构建适用于无人机智能检测玉米雄穗的模型,自动计算图像中雄穗的个数。【方法】使用无人飞行器(UAV)在25 m飞行高度下获得大量玉米抽穗时期的RGB图像,裁剪并标注出图像中玉米雄穗的位置和大小,训练数据和测试数据按照3:1的比例划分数据集;在深度学习框架MXNet下,利用这些数据集,分别训练基于ResNet50的Faster R-CNN、基于ResNet50的SSD、基于mobilenet的SSD和YOLOv3等4种模型,对比4种模型的准确率、检测速度和模型大小。【结果】使用无人机采集了236张图像,裁剪成1 024×1 024大小的图片,去除成像质量差的图像,利用标注软件labelme获得100张标注的玉米雄穗数据集;最终得到4个模型的mAP值分别为0.73、0.49、0.58和0.72。在测试数据集上进行测试,Faster R-CNN模型的准确率最高为93.79%,YOLOv3的准确率最低,仅有20.04%,基于ResNet50的SSD和基于mobilenet的SSD分别为89.9%和89.6%。在识别的速度上,SSD_mobilenet最快(8.9 samples·s-1), Faster R-CNN最慢(2.6 samples·s-1), YOLOv3检测速度为3.47samples·s-1, SDD_ResNet50检测速度为7.4 samples·s-1。在模型大小上,YOLO v3的模型最大,为241 Mb, SSD_mobilenet的模型最小,为55.519 Mb。【结论】由于无人机的机载平台计算资源稀缺,综合模型的速度、准确率和模型大小考虑,SSD_mobilenet最适于部署在无人机机载系统上用于玉米雄穗的检测。  相似文献   

5.
基于深度卷积神经网络的水稻田杂草识别研究   总被引:2,自引:1,他引:1  
目的 利用深度卷积神经网络对水稻田杂草进行准确、高效、无损识别,得出最优的网络模型,为水稻田种植管理以及无人机变量喷施提供理论依据。方法 以水稻田杂草为主要研究对象,利用CCD感光相机采集杂草图像样本,构建水稻田杂草数据集(PFMW)。利用多种结构的深度卷积神经网络对PFMW数据集进行特征的自动提取,并进行建模与试验。结果 在各深度模型对比试验中,VGG16模型取得了最高精度,其在鬼针草、鹅肠草、莲子草、千金子、鳢肠和澎蜞菊6种杂草中的F值分别为0.957、0.931、0.955、0.955、0.923和0.992,其平均F值为0.954。在所设置的深度模型优化器试验中,VGG16-SGD模型取得了最高精度,其在上述6种杂草中的F值分别为0.987、0.974、0.965、0.967、0.989和0.982,其平均F值为0.977。在PFMW数据集的样本类别数量均衡试验中,无失衡杂草数据集训练出来的VGG16深度模型的准确率为0.900,而16.7%、33.3%和66.6%类别失衡的数据集训练的模型准确率分别为0.888、0.866和0.845。结论 利用机器视觉能够准确识别水稻田杂草,这对于促进水稻田精细化耕作以及无人机变量喷施等方面具有重要意义,可以有效地协助农业种植过程中的杂草防治工作。  相似文献   

6.
目的 提高杂交稻种子活力分级检测精度和速度。方法 提出了一种基于YOLOv5改进模型(YOLOv5-I)的杂交稻芽种快速分级检测方法,该方法引入SE (Squeeze-and-excitation)注意力机制模块以提高目标通道的特征提取能力,并采用CIoU损失函数策略以提高模型的收敛速度。结果 YOLOv5-I算法能有效实现杂交稻芽种快速分级检测,检测精度和准确率高,检测速度快。在测试集上,YOLOv5-I算法目标检测的平均精度为97.52%,平均检测时间为3.745 ms,模型占用内存空间小,仅为13.7 MB;YOLOv5-I算法的检测精度和速度均优于YOLOv5s、Faster-RCNN、YOLOv4和SSD模型。结论 YOLOv5-I算法优于现有的算法,提升了检测精度和速度,能够满足杂交稻芽种分级检测的实用要求。  相似文献   

7.
目的 提升柑橘果园的智能化管理水平,快速无损获取柑橘树冠层的施药情况,改善小规模数据集导致施药情况分类模型易发生过拟合的问题。方法 提出一种基于卷积神经网络的柑橘树冠层施药情况分类模型——VGG_C模型。模型以VGG模型核心思想为基础进行构建,通过交叉熵损失函数优化,加速概率分布与真实分布的迭代过程,并在输出端引入不确定性度量计算以及在下采样模块中插入Droupout方法,降低由于数据较少而发生过拟合的概率。结果 VGG_C模型针对训练集的分类损失值为0.44%,比ResNet和VGG模型分别降低了87%和91%;准确率为95.3%,比ResNet和VGG模型分别提高了5%和10%;验证集的预测平均准确率为96.4%。结论 VGG_C模型通过多层卷积模型协同实现柑橘冠层热红外图像特征的高效提取,通过优化输出端结构提高了柑橘冠层施药情况分类模型在小数据集规模上的训练测试优度,可为柑橘树施药情况的智能化判断提供有效参考。  相似文献   

8.
目的 水稻产量关乎全人类的粮食安全,如何有效地预防和高效地检测水稻病虫害是智慧农业领域的重要课题。深度学习由于具备自主学习图像特征等优异性能,成为水稻病虫害识别的首选方法。但在自然环境下,数据集偏小,且容易受到复杂背景的影响,在训练过程中容易产生过拟合,以及细微特征难以提取等问题。本研究致力于解决上述问题。方法 提出一种基于改进ResNet的多尺度双分支结构的水稻病虫害识别模型(MSDB-ResNet)。在ResNet模型的基础上,引入ConvNeXt残差块,以优化残差块的计算比例,构建双分支结构,通过调整每条分支的卷积核大小,提取输入病害图像中大小不同的病害特征。针对现实环境复杂、数据集太小、过拟合等问题,利用从自然环境拍摄到的5932张水稻病虫害图像,使用随机亮度、运动模糊等数据预处理方法,以及镜像、裁剪、缩放等数据增强方法,将数据集扩充到20000张,训练MSDB-ResNet模型识别4种常见的水稻病害。结果 MSDB-ResNet在水稻病虫害数据集上具有良好的识别性能,识别准确率高达99.10%,较原ResNet 模型提高了2.42个百分点,明显优于AlexNet、VGG、DenseNet和ResNet等经典网络。该模型具有良好的泛化能力和极强的鲁棒性。结论 MSDB-ResNet模型在水稻病虫害识别中具有一定的可行性和先进性,可为实现复杂背景下的水稻病虫害识别提供参考。  相似文献   

9.
基于Mixup算法和卷积神经网络的柑橘黄龙病果实识别研究   总被引:2,自引:1,他引:1  
目的 解决传统柑橘黄龙病果实图像识别方法依赖人工设计特征、费时费力、网络模型参数量大、识别准确率低等问题。方法 首先,采集柑橘黄龙病的果实图像,并对其进行翻转、旋转、仿射、高斯扰动等数据扩增;采用Mixup算法建立样本之间的线性关系,增强模型识别数据样本的鲁棒性;然后,迁移Xception网络在ImageNet数据集上的先验知识,提出一种基于Mixup算法和卷积神经网络的柑橘黄龙病果实识别模型-X-ResNeXt模型;最后,采用动量梯度下降优化方法,有效地减缓震荡影响,并且有效地加速模型向局部最优点收敛。结果 采用数据扩增数据集训练的X-ResNeXt模型准确率可以达到91.38%;在进行迁移学习优化后,训练时间减少了432 s,准确率提升为91.97%;结合Mixup混类数据增强进一步训练,模型准确率提升为93.74%;最后,利用动量梯度下降方法进行模型收敛优化,最终模型的准确率达到94.29%,比Inception-V3和Xception网络分别提高了3.98%和1.51%。结论 在数据量较少情况下,降低模型复杂度并迁移已有先验知识,有助于模型性能提升;Mixup混类数据增强方法有利于提高模型识别柑橘黄龙病果实图像样本的适应性,提升柑橘黄龙病果实识别模型性能;X-ResNeXt模型在准确率与召回率指标上优于经典识别模型,可为柑橘黄龙病的高精度、快速无损识别提供参考。  相似文献   

10.
目的 针对玉米田间路径边界模糊和形状不规则特点,普通的田间导航线提取算法在农业机器人实际应用中会出现偏差过大的问题,本文针对3~5叶期玉米田提出了基于离散因子的相机与三维激光雷达融合的导航线提取算法。方法 首先利用三维激光雷达获取玉米植株点云数据,同时将相机采集的图像利用超绿化算法和最大类间方差法自动获得绿色特征二值图像,然后将聚类分析后的点云数据投影到图像中的目标边框上,构建多传感器数据融合支持度模型进行特征识别,最后拟合所获取特征中心点即为导航基准线。结果 该算法能够很好地适应复杂环境,具有很强的抗干扰能力,单帧平均处理时间仅为95.62 ms,正确率高达95.33%。结论 该算法解决了传统算法寻找特征质心偏移、识别结果不可靠等问题,为机器人在玉米田间行走提供了可靠的、实时的导航路径。  相似文献   

11.
【目的】针对目前三七Panax notoginseng病害识别模型结构复杂、参数庞大,难以实现在移动设备上部署的问题,提出一种基于SSD(Single shot multibox detector)目标检测的改进模型,以期实现三七病害检测的便捷化、快速化与精准化。【方法】基于SSD模型架构,采用轻量化卷积神经网络(MobileNet)替换原始特征提取网络(VGG16),降低主干网络的参数量与计算量,同时根据人类视觉皮层中群智感受野(pRF)的大小与其视网膜图中偏心率之间的函数关系,构建RFB模块,用该模块替换原SSD模型框架顶部卷积层,从而增强网络深层特征,提高轻量化模型的检测精度与检测速度,实现多尺度三七病害检测。【结果】与SSD模型相比,RFBMobileNet-SSD模型网络参数量和参数计算量分别降低了96.67%和96.10%。在不同天气条件下应用模型对4种不同病害数据进行验证发现,改进模型的准确率提高了4.6个百分点,召回率提高了6.1个百分点,F1精度提高了5.4个百分点,单幅图像检测时间由SSD模型的0.073 s缩短为0.020 s,尺寸仅为SSD模型的54.6%。【结...  相似文献   

12.
基于优化卷积神经网络的玉米螟虫害图像识别   总被引:4,自引:2,他引:2  
【目的】随着人工智能和大数据技术的不断发展,针对常规玉米虫害识别方法存在的准确率和效率低等问题,本文提出了一种基于改进GoogLeNet卷积神经网络模型的玉米螟虫害图像识别方法。【方法】首先通过迁移学习将GoogLeNet的Inception-v4网络结构知识转移到玉米螟Pyrausta nubilalis虫害识别的任务上,构建模型的训练方式;然后通过数据增强技术对玉米螟虫图像进行样本扩充,得到神经网络训练模型的数据集;同时利用Inception模块拥有多尺度卷积核提取多尺度玉米螟虫害分布特征的能力构建网络模型,并在试验过程中对激活函数、梯度下降算法等模型参数进行优化;最后引入批标准化(BN)操作加速优化模型网络训练,并将该模型运用到玉米螟虫害识别中。【结果】基于TensorFlow框架下的试验结果表明,优化后的神经网络算法对玉米螟虫害图像平均识别准确率达到了96.44%。【结论】基于优化的卷积神经网络识别模型具有更强的鲁棒性和适用性,可为玉米等农作物虫害识别、智能诊断提供参考。  相似文献   

13.
为实现水稻氮素营养的快速、准确识别,采用改进的VGG 16网络和迁移学习相结合的水稻氮素营养诊断识别方法,以杂交稻‘两优培九’为试验对象进行田间试验,设置4组不同的施氮水平(施氮量分别为0、210、300和390 kg/hm2),在水稻幼穗分化期和齐穗期,扫描获取水稻叶片图像数据;通过图像预处理方法,对数据进行扩充;构建改进的VGG16和迁移学习相结合的网络模型对水稻叶片图像数据进行氮素营养诊断识别。结果表明:1)在幼穗分化期时,改进的VGG16网络的识别准确率为93.1%,模型大小约为迁移学习VGG16模型的1/6,训练时间约为1 261 s。2)在水稻幼穗分化期和齐穗期,该模型微调后的识别准确率均能达到95%以上。基于迁移学习和改进的VGG16网络所建立的水稻氮素营养诊断模型具有较好的泛化能力,可以预测水稻氮素营养状况,为水稻氮素营养诊断提供参考。  相似文献   

14.
为精确掌握水下海珍品养殖分布情况,摆脱传统上依赖人工潜水了解海珍品情况的方式,提出了一种基于轻量化深度学习的Mobilenet-SSD网络模型并用于海珍品检测,该方法对在渔船下方的水下摄像头所采集的海珍品图像实时进行目标快速检测。结果表明:采用本研究中建立的Mobilenet-SSD模型,在海胆、海参、扇贝等3种海珍品上建立数据集进行训练,可实现水下海珍品的精确识别,海胆、海参、扇贝的识别准确率分别为81.43%、86.02%、89.44%,总体平均准确率为85.79%;将Mobilenet-SSD网络模型分别与Tiny-YOLO和VGG-SSD网络模型进行比较,在相同设备上,Mobilenet-SSD网络模型相较Tiny-YOLO网络模型能更好地利用目标特征,同时较VGG-SSD网络模型节约80%的用时,实现了准确性与实时性的兼顾。研究表明,本研究中构建的Mobilenet-SSD网络模型,可用于水产养殖环境中水下海珍品的准确识别。  相似文献   

15.
玉米须多糖的提取和纯化研究进展   总被引:1,自引:0,他引:1  
玉米须为我国传统中药材,含有多种生物活性成分,其中所含的多糖具有调节免疫、降血压、溶血栓、抑制肿瘤等功效。玉米在我国种植范围广,因此玉米须资源十分丰富,倘若能充分开发利用,则能变废为宝。对玉米须多糖的提取方法和分离纯化研究进展进行了综述,并对今后的研究方向进行了展望。  相似文献   

16.
为快速、高效地利用高光谱成像技术诊断小麦赤霉病病症,分析了卷积层结构与光谱病症特征的关联性,并重点研究了高光谱的像元分类建模方法。首先,基于深度卷积神经网络的2种典型结构,构建了不同深度的卷积神经网络,比较了小麦赤霉病高光谱数据点集的训练和测试结果。结果显示:Visual Geometry Group(VGG)结构随着网络深度的增加,模型损失值不断下降;残差神经网络(ResNet)结构随着深度增加,损失值没有明显降低,说明ResNet网络的深度与模型性能无关。从测试集评测模型泛化性可知,具有4个基础单元模块的22层VGG网络在所有深度卷积模型中最优,其建模和验证准确率远高于传统的支持向量机(SVM),分别为0.846和0.843,测试集准确率为0.742。以VGG为基础单元构建的深度神经网络,能有效提取小麦赤霉病病症的高光谱特征。研究结果可为大尺度小麦赤霉病的智能成像诊断提供理论基础。  相似文献   

17.
Koirala  A.  Walsh  K. B.  Wang  Z.  McCarthy  C. 《Precision Agriculture》2019,20(6):1107-1135

The performance of six existing deep learning architectures were compared for the task of detection of mango fruit in images of tree canopies. Images of trees (n?=?1 515) from across five orchards were acquired at night using a 5 Mega-pixel RGB digital camera and 720 W of LED flood lighting in a rig mounted on a farm utility vehicle operating at 6 km/h. The two stage deep learning architectures of Faster R-CNN(VGG) and Faster R-CNN(ZF), and the single stage techniques YOLOv3, YOLOv2, YOLOv2(tiny) and SSD were trained both with original resolution and 512?×?512 pixel versions of 1 300 training tiles, while YOLOv3 was run only with 512?×?512 pixel images, giving a total of eleven models. A new architecture was also developed, based on features of YOLOv3 and YOLOv2(tiny), on the design criteria of accuracy and speed for the current application. This architecture, termed ‘MangoYOLO’, was trained using: (i) the 1 300 tile training set, (ii) the COCO dataset before training on the mango training set, and (iii) a daytime image training set of a previous publication, to create the MangoYOLO models ‘s’, ‘pt’ and ‘bu’, respectively. Average Precision plateaued with use of around 400 training tiles. MangoYOLO(pt) achieved a F1 score of 0.968 and Average Precision of 0.983 on a test set independent of the training set, outperforming other algorithms, with a detection speed of 8 ms per 512?×?512 pixel image tile while using just 833 Mb GPU memory per image (on a NVIDIA GeForce GTX 1070 Ti GPU) used for in-field application. The MangoYOLO model also outperformed other models in processing of full images, requiring just 70 ms per image (2 048?×?2 048 pixels) (i.e., capable of processing?~?14 fps) with use of 4 417 Mb of GPU memory. The model was robust in use with images of other orchards, cultivars and lighting conditions. MangoYOLO(bu) achieved a F1 score of 0.89 on a day-time mango image dataset. With use of a correction factor estimated from the ratio of human count of fruit in images of the two sides of sample trees per orchard and a hand harvest count of all fruit on those trees, MangoYOLO(pt) achieved orchard fruit load estimates of between 4.6 and 15.2% of packhouse fruit counts for the five orchards considered. The labelled images (1 300 training, 130 validation and 300 test) of this study are available for comparative studies.

  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号