首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 515 毫秒
1.
为了解决饲料生产过程中入仓原料种类采用人工取样感官识别所存在的问题,实现原料种类自动识别,以玉米、麸皮、小麦、豆粕、鱼粉等大宗饲料原料为研究对象,自主设计搭建了多通道入仓原料种类自动识别装置,采集饲料原料图像数据集,并使用数据增强的方法增加样本多样性。基于ResNet18网络模型加入通道注意力机制、增加Dropout函数,并嵌入余弦退火法的Adam优化器,引入迁移学习机制训练模型,构建适用于饲料原料种类识别的CAM-ResNet18网络模型。CAM-ResNet18网络模型的原料种类验证准确率达99.1%,识别时间为2.58ms。与ResNet18、ResNet34、AlexNet、VGG16等网络模型相比,模型验证集准确率分别提升0.6、0.2、3.7、1.1个百分点。针对混淆矩阵结果分析,测试集识别平均准确率达99.4%,具有较高的精确度和召回率。结果表明,构建的CAM-ResNet18网络模型在饲料原料种类识别方面具有较高的识别精度和较快检测速度,自主研发的多通道入仓原料种类自动识别装置具有实际应用价值。  相似文献   

2.
针对谷物联合收获机喂入量实时调整的需求,研究成熟期作物密度与收获机喂入量间的函数关系。首先对图像进行灰度化与中值滤波处理,然后以改进的图像分割算法获得了更为准确的图像分割阈值,从而将作物的谷、叶从背景中分割出来。在此基础上,以数据拟合的方式得到小麦收获机喂入量随图像像素的变化模型,为谷物收获机实时、精准地控制喂入量提供可行的方案。  相似文献   

3.
小麦白粉病、赤霉病和锈病是危害小麦产量的三大病害。为提高小麦病害图像的识别准确率,构建一种基于Vision Transformer的小麦病害图像识别算法。首先,通过田间拍摄的方式收集包含小麦白粉病、赤霉病和锈病3种病害在内的小麦病害图像,并对原始图像进行预处理,建立小麦病害图像识别数据集;然后,基于改进的Vision Transformer构建小麦病害图像识别算法,分析不同迁移学习方式和数据增强对模型识别效果的影响。试验可知,全参数迁移学习和数据增强能明显提高Vision Transformer模型的收敛速度和识别精度。最后,在相同时间条件下,对比Vision Transformer、AlexNet和VGG16算法在相同数据集上的表现。试验结果表明,Vision Transformer模型对3种小麦病害图像的平均识别准确率为96.81%,相较于AlexNet和VGG16模型识别准确率分别提高6.68%和4.94%。  相似文献   

4.
互花米草的侵入对我国的生态系统多样性造成了巨大损失,如何准确地识别零散斑块的互花米草对其早期监测及预警具有重要意义。采用低空无人机遥感技术,以广西北海地区春季时期红树林中的互花米草为研究对象,利用AlexNet、VGG16、GoogleNet、ResNet50、EfficientNetB0五种卷积神经网络,分别对包含互花米草、红树林及其他地物背景的图像数据集进行模型的训练、验证与测试,然后将训练好的五种网络模型对整个试验区域的互花米草及地物背景进行识别并标记,得到互花米草的分布图。基于混淆矩阵和运算时间的综合定量评估结果表明,ResNet50网络模型总体上优于另外四种网络模型,识别准确率最高,达到了96.96%,且在测试集上耗时仅为5.47 s。将识别结果图与互花米草实际分布图进行对比,ResNet50网络模型的识别结果与互花米草的实际分布基本重合。  相似文献   

5.
基于Faster R-CNN的田间西兰花幼苗图像检测方法   总被引:4,自引:0,他引:4  
为解决自然环境下作物识别率不高、鲁棒性不强等问题,以西兰花幼苗为研究对象,提出了一种基于Faster R-CNN模型的作物检测方法。根据田间环境特点,采集不同光照强度、不同地面含水率和不同杂草密度下的西兰花幼苗图像,以确保样本多样性,并通过数据增强手段扩大样本量,制作PASCAL VOC格式数据集。针对此数据集训练Faster R-CNN模型,通过设计ResNet101、ResNet50与VGG16网络的对比试验,确定ResNet101网络为最优特征提取网络,其平均精度为90. 89%,平均检测时间249 ms。在此基础上优化网络超参数,确定Dropout值为0. 6时,模型识别效果最佳,其平均精度达到91. 73%。结果表明,本文方法能够对自然环境下的西兰花幼苗进行有效检测,可为农业智能除草作业中的作物识别提供借鉴。  相似文献   

6.
随着深度学习应用的普及和飞速发展,基于深度学习的图像识别方法广泛应用于农作物病虫害领域,但大部分的神经网络重视识别准确率的提高,却忽略神经网络庞大的参数计算量。为解决这个问题,基于渐进式生成对抗网络判别器模型和卷积注意力模块,提出一种改进的渐进式生成对抗网络判别器CPDM网络模型对农作物病虫害进行识别。通过对渐进式生成对抗网络判别器网络结构的调整,采用均衡学习率、像素级特征向量归一化和卷积注意力模块增强CPDM网络模型的特征提取能力,提高对真实图片的识别准确率。试验在PlantVillage数据集上进行,将该模型与VGG16、VGG19和ResNet18进行比较,得到TOP-1准确率分别为99.06%、96.50%、96.65%、98.86%,分别提高2.56%、2.41%、0.2%,且参数量仅为8.2 M。试验证明提出的CPDM网络模型满足在保证分类准确率的基础上,有效控制神经网络参数计算量的目的。  相似文献   

7.
针对新疆棉田杂草的伴生特点带来的特征过拟合、精确率低等问题,以新疆棉花幼苗与杂草为研究对象,分析杂草识别率低的影响因素,建立了基于Faster R-CNN的网络识别模型.采集不同角度、不同自然环境和不同密集程度混合生长的棉花幼苗与杂草图像5 370张.为确保样本质量以及多样性,利用颜色迁移和数据增强来提高图像的颜色特征与扩大样本量,以PASCAL VOC格式数据集进行网络模型训练.通过综合对比VGG16,VGG19,ResNet50和ResNet101这4种网络的识别时间与精度,选择VGG16网络训练Faster R-CNN模型.在此基础上设计了纵横比为1∶1的最佳锚尺度,在该模型下对新疆棉花幼苗与杂草进行识别,实现91.49%的平均识别精度,平均识别时间262 ms.为农业智能精确除草装备的研发提供了参考.  相似文献   

8.
基于迁移学习的农作物病虫害检测方法研究与应用   总被引:3,自引:0,他引:3  
为了提高农作物病虫害严重程度(健康、一般、严重)的分类效果,采用迁移学习方式并结合深度学习提出了一种基于残差网络(ResNet 50)的CDCNNv2算法。通过对10类作物的3万多幅病虫害图像进行训练,获得了病虫害严重程度分类模型,其识别准确率可达91.51%。为了验证CDCNNv2模型的鲁棒性,分别与使用迁移学习的ResNet 50、Xception、VGG16、VGG19、DenseNet 121模型进行对比试验,结果表明,CDCNNv2模型比其他模型的平均精度提升了2.78~10.93个百分点,具有更高的分类精度,病虫害严重程度识别的鲁棒性增强。基于该算法所训练的模型,结合Android技术开发了一款实时在线农作物病虫害等级识别APP,通过拍摄农作物叶片病虫害区域图像,能够在0.1~0.5s之内获取识别结果(物种-病害种类-严重程度)及防治建议。  相似文献   

9.
为实现苹果树叶片病虫害快速且准确地识别与分类,研究基于迁移学习的多种神经网络模型,对比不同模型在苹果树叶片病虫害识别上的准确度。构建VGG16,ResNet50,Inception V3三种神经网络模型,利用从PlantVillage上获取的4种不同的苹果树叶片图片,分别为苹果黑星病叶片,苹果黑腐病叶片,苹果锈病叶片以及健康苹果叶片。按照8∶1∶1的比例将图片分为训练集,测试集和验证集对模型进行训练。在相同的试验条件下对比分析VGG16,ResNet50和Inception V3的试验结果。三种模型在使用迁移学习技术的情况下对苹果树叶片病虫害识别准确率分别达到97.67%,95.34%和100%。与不使用迁移学习的模型相比,使用迁移学习能够明显提升模型的收敛速度以及准确率,为常见的苹果树病虫害识别提供了新的方法。  相似文献   

10.
针对蓝莓果蝇虫害分类识别存在效率低、准确度差等问题,采用深度学习方法对采集的蓝莓高光谱图像进行数据处理与分析,以实现蓝莓果蝇虫害的无损检测。首先蓝莓高光谱图像采用PCA进行降维,优选数据集PC2与PC3并进行拼接得到最佳数据集PC23,对数据集中图像进行旋转90°、旋转180°、模糊、高亮、低亮、镜像和高斯噪声共7种增强操作,使各数据集容量扩增为原始容量的18倍。然后采用VGG16、InceptionV3与ResNet50深度学习模型对蓝莓果蝇虫害图像进行检测,均取得了较高的识别准确率。其中ResNet50模型效率最高,且ResNet50模型的准确率最高,达到92.92%,损失率最低,仅有3.08%,因此ResNet50模型在蓝莓果蝇虫害无损检测方面整体识别效果最佳。为了进一步提高蓝莓果蝇虫害无损检测性能,从ECA注意力模块、Focal Loss损失函数与Mish激活函数3方面对ResNet50模型进行了改进,构建了改进的im-ResNet50模型。得出im-ResNet50模型识别准确率达95.69%,损失率为1.52%。试验结果表明, im-ResNet50模型有效提升了蓝莓果蝇虫害识别能力。采用Grad-CAM分析了im-ResNet50模型可解释性,能够快速、准确地无损检测蓝莓果蝇虫害。  相似文献   

11.
为实现非接触、高精度个体识别,本文提出了一种基于牛只脸部RGB-D信息融合的个体身份识别方法。以108头28~30月龄荷斯坦奶牛作为研究对象,利用Intel RealSense D455深度相机采集2334幅牛脸彩色/深度图像作为原始数据集。首先,采用冗余图像剔除方法和自适应阈值背景分离算法进行图像预处理,经增强共得到8344幅牛脸图像作为数据集;然后,分别选取Inception ResNet v1、Inception ResNet v2和SqueezeNet共3种特征提取网络进行奶牛脸部特征提取研究,通过对比分析,确定FaceNet模型的最优主干特征提取网络;最后,将提取的牛脸图像特征L2正则化,并映射至同一特征空间,训练分类器实现奶牛个体分类。测试结果表明,采用Inception ResNet v2作为FaceNet模型的主干网络特征提取效果最优,在经过背景分离数据预处理的数据集上测试牛脸识别准确率为98.6%,验证率为81.9%,误识率为0.10%。与Inception ResNet v1、SqueezeNet网络相比,准确率分别提高1、2.9个百分点;与未进行背景分离的数据集相比,准确率提高2.3个百分点。  相似文献   

12.
履带自走式全喂入联合收割机结构设计的改进   总被引:2,自引:0,他引:2  
综合论述了履带自走式全喂入联合收割机在作物切割、分离清选、转向制动、液压驱动和行走操纵等方面的结构改进设计以及为套种小麦收割而进行的变型设计,为完善该型联合收割机的整体设计提供了依据。  相似文献   

13.
基于卷积网络的沙漠腹地绿洲植物群落自动分类方法   总被引:1,自引:0,他引:1  
为解决沙漠腹地绿洲遥感图像植物群落背景较易混淆,仅用传统的基于像元光谱信息的图像处理方法未能充分利用其图像特征信息,使得提取效果不佳的问题,针对地物类内特征复杂、类间边界模糊的特点,以连续分布的区域为研究对象,提出了一种基于深度卷积神经网络(Convolutional neural network,CNN)的高分辨率遥感影像植物群落自动分类方法。切分无人机影像获得规则块图像,利用基于CNN的VGGNet和Res Net模型分别对块图像的特征进行抽象与学习,以自动获取更加深层抽象、更具代表性的图像块深层特征,从而实现对植物群落分布区域的提取,以原图像与结果图像叠加的形式输出植物群落自动分类结果。采用了不同梯度的样本数量作为训练样本,利用文中提出的方法分析了不同梯度的训练样本数量对自动分类结果的影响。实验结果表明,训练样本数量对分类精度具有明显的影响;提高其泛化能力后,Res Net50模型与VGG19模型的建模精度从86. 00%、83. 33%分别提升到92. 56%、90. 29%; Res Net50模型分类精度为83. 53%~91. 83%,而VGG19模型分类精度为80. 97%~89. 56%,与传统的监督分类方法比较,深度卷积网络明显提高了分类精度。分类结果表明,训练样本数量不低于200时,基于CNN的Res Net50模型表现出最佳的分类结果。  相似文献   

14.
投喂作为水产养殖过程中的一个关键环节,饵料的投喂量直接影响水产品的质量和养殖成本。然而,目前的投喂方法包括人工投喂和机器定时定量投喂,大多依靠人工经验,很难实现精准投喂。本文基于改进的ResNet34识别鱼群不同的饱腹程度。根据鱼群在不同饱腹阶段表现的摄食行为创建了含有5种不同饱腹程度的数据集,并采用数据增强操作对图像进行预处理。其次在原始模型ResNet34的基础上,本文提出使用坐标注意力机制,使模型在对图像进行特征提取的过程中能够做到专注于更大区域范围。并且使用深度可分离卷积的方式来代替传统卷积,减少模型参数量。为了评估改进的有效性,分析了改进后的模型在鱼群饱腹程度数据集上的性能,并将其与原模型ResNet34、AlexNet、VGG16、MobileNet-v2、GoogLeNet等经典卷积神经网络架构进行比较。综合实验结果表明,该模型相较于原模型参数量减少46.7%,准确率达到93.4%,相较于原模型提升3.4个百分点,同时改进后的模型在准确率、精确度、召回率等方面也都优于其他卷积神经网络。综上所述,本模型实现了性能与参数量之间的良好平衡,为后续模型在实际养殖环境中的部署并指导养殖户改善和制定投喂策略提供了可能。  相似文献   

15.
卷积神经网络(CNN)的发展带来了大量的网络参数和庞大的模型体积,极大地限制了其在小规模计算资源设备上的应用。为将CNN应用在各种小型设备上,研究了一种基于知识蒸馏的结构化模型压缩方法。该方法首先利用VGG16训练了一个识别率较高的教师模型,再将该模型中的知识通过蒸馏的方法迁移到MobileNet,从而大幅减少了模型的参数量。将知识蒸馏后的Distilled-MobileNet模型应用在14种作物的38种常见病害分类中。进行了知识蒸馏在VGG16、AlexNet、GoogleNet和ResNet 4种不同网络结构上的表现测试,结果表明,当VGG16作为教师模型时,模型准确率提升了97.54%;使用单个病害识别率、平均准确率、模型内存、平均识别时间4个指标对训练好的Distilled-MobileNet模型进行真实环境下准确性评估,经测试,模型的平均准确率达到了97.62%,平均识别时间缩短至0.218 s,仅占VGG16模型的13.20%,模型大小压缩仅为19.83 MB,相比于VGG16缩小了93.60%,使其具备了较高的准确性和实时性要求。本方法模型在压缩内存体积和缩短识别时间上较传统神经网络有了明显提高,为内存和计算资源受限设备上的病害识别提供了新的思路。  相似文献   

16.
含杂率是小麦机械化收获重要指标之一,但现阶段我国小麦收获过程含杂率在线检测难以实现。为了实现小麦机械化收获过程含杂率在线检测,本文提出基于结合注意力的改进U-Net模型的小麦机收含杂率在线检测方法。以机收小麦样本图像为基础,采用Labelme手工标注图像,并通过随机旋转、缩放、剪切、水平镜像对图像进行增强,构建基础图像数据集;设计了结合注意力的改进U-Net模型分类识别模型,并在torch 1.2.0深度学习框架下实现模型的离线训练;将最优的离线模型移植到Nvidia jetson tx2开发套件上,设计了基于图像信息的含杂率量化模型,从而实现小麦机械化收获含杂率在线检测。试验结果表明:针对不同模型的训练结果,结合注意力的改进U-Net模型籽粒和杂质分割识别F1值分别为76.64%和85.70%,比标准U-Net高10.33个百分点和2.86个百分点,比DeepLabV3提高10.22个百分点和11.62个百分点,比PSPNet提高18.40个百分点和14.67个百分点,结合注意力的改进U-Net模型对小麦籽粒和杂质的识别效果最好;在台架试验和田间试验中,装置在线检测含杂率均值分别为1...  相似文献   

17.
针对传统苹果叶部病害分类方法精准性差、效率低等问题,提出了一种基于改进ResNet18的苹果叶部病害多分类算法。通过在原始ResNet18网络的基础上增加通道与空间注意力机制分支,强化网络对叶部病害区域的特征提取能力,提高病害的识别精度和实时性。为更好地引导网络学习到零散分布的病害斑点的特征,引入特征图随机裁剪分支,不仅实现有限样本空间的扩充,还进一步优化网络结构,提高训练速度。试验以苹果5类常见的叶部病害(黑星病、黑腐病、雪松锈病、灰斑病、白粉病)为主要研究对象,并与主流分类算法模型进行对比。试验结果表明,所提ResNet18-CBAM-RC1模型病害分类准确率可达98.25%,高于ResNet18(93.19%)和VGG16(96.13%),能够有效提取叶片病害特征,增强对多类病害的识别,提高识别准确率。此外,模型内存占用量仅为37.44 MB,单幅图像推理时间为9.11 ms,可满足嵌入式设备上果园病害识别的实时性要求。  相似文献   

18.
快速准确识别奶牛粪便形态,对于奶牛肠胃健康监测与精细管理具有重要意义。针对目前奶牛粪便识别人工依赖强、识别难度大等问题,提出了一种基于VGG-ST(VGG-Swin Transformer)模型的奶牛稀便、软便、硬便及正常粪便图像识别与分类方法。首先,以泌乳期荷斯坦奶牛粪便为研究对象,采集上述4种不同形态的粪便图像共879幅,利用翻转、旋转等图像增强操作扩充至5580幅作为本研究数据集;然后,分别选取Swin Transformer、AlexNet、ResNet-34、ShuffleNet和MobileNet 5种典型深度学习图像分类模型进行奶牛粪便形态分类研究,通过对比分析,确定Swin Transformer为最优基础分类模型;最后,融合VGG模型与Swin Transformer模型,构建了VGG-ST模型,其中,VGG模型获取奶牛粪便局部特征,同时Swin Transformer模型提取全局自注意力特征,特征融合后实〖JP3〗现奶牛粪便图像分类。实验结果表明,Swin Transformer模型在测试集中分类准确率达859%,与ShuffleNet、ResNet-34、MobileNet、AlexNet模型相比分别提高1.8、4.0、12.8、23.4个百分点;VGG-ST模型分类准确率达89.5%,与原Swin Transformer模型相比提高3.6个百分点。该研究可为奶牛粪便形态自动筛查机器人研发提供方法参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号