首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 156 毫秒
1.
【目的】 在蛋鸡养殖中,如球虫病和传染性法氏囊病等鸡肠道疾病发病率高,严重影响鸡舍饲料的利用率,增加了养殖成本。为在密集的蛋鸡笼养环境中使用肠道疾病智能化诊断方法,实现多种肠道疾病的分类识别,【方法】 文章根据病理粪便的差异,提出了基于多尺度卷积的对鸡肠道疾病进行分类的算法。首先,实验共采集正常粪便、稀便、绿便和血便4类图像共1 834幅,建立蛋鸡粪便数据集。为减少过拟合的出现,对数据集进行了数据增强,扩充数据集至5 128幅。其次,对VGG16模型进行改进,使用全局平均池化代替全连接层,同时引入了3×3和5×5的多尺度卷积和通道注意力机制,将SE模块插入到多尺度卷积的末端,构建了一个基于多尺度卷积的蛋鸡肠道疾病识别网络VGG-MSC。【结果】 VGG-MSC的各项指标较VGG16均得到提高,其中在蛋鸡粪便数据集上的分类准确率达到了98.04%,较VGG16提高了1.75%,可为鸡的肠道疾病诊断提供有效的决策支持。【结论】 以深度学习为基础,该方法能够实现对鸡肠道疾病的智能诊断,有利于及早发现并预防鸡肠道疾病,为畜禽养殖提供信息化服务,推动蛋鸡产业持续高质量发展。  相似文献   

2.
目的 水稻产量关乎全人类的粮食安全,如何有效地预防和高效地检测水稻病虫害是智慧农业领域的重要课题。深度学习由于具备自主学习图像特征等优异性能,成为水稻病虫害识别的首选方法。但在自然环境下,数据集偏小,且容易受到复杂背景的影响,在训练过程中容易产生过拟合,以及细微特征难以提取等问题。本研究致力于解决上述问题。方法 提出一种基于改进ResNet的多尺度双分支结构的水稻病虫害识别模型(MSDB-ResNet)。在ResNet模型的基础上,引入ConvNeXt残差块,以优化残差块的计算比例,构建双分支结构,通过调整每条分支的卷积核大小,提取输入病害图像中大小不同的病害特征。针对现实环境复杂、数据集太小、过拟合等问题,利用从自然环境拍摄到的5932张水稻病虫害图像,使用随机亮度、运动模糊等数据预处理方法,以及镜像、裁剪、缩放等数据增强方法,将数据集扩充到20000张,训练MSDB-ResNet模型识别4种常见的水稻病害。结果 MSDB-ResNet在水稻病虫害数据集上具有良好的识别性能,识别准确率高达99.10%,较原ResNet 模型提高了2.42个百分点,明显优于AlexNet、VGG、DenseNet和ResNet等经典网络。该模型具有良好的泛化能力和极强的鲁棒性。结论 MSDB-ResNet模型在水稻病虫害识别中具有一定的可行性和先进性,可为实现复杂背景下的水稻病虫害识别提供参考。  相似文献   

3.
基于深度卷积神经网络的水稻田杂草识别研究   总被引:2,自引:1,他引:1  
目的 利用深度卷积神经网络对水稻田杂草进行准确、高效、无损识别,得出最优的网络模型,为水稻田种植管理以及无人机变量喷施提供理论依据。方法 以水稻田杂草为主要研究对象,利用CCD感光相机采集杂草图像样本,构建水稻田杂草数据集(PFMW)。利用多种结构的深度卷积神经网络对PFMW数据集进行特征的自动提取,并进行建模与试验。结果 在各深度模型对比试验中,VGG16模型取得了最高精度,其在鬼针草、鹅肠草、莲子草、千金子、鳢肠和澎蜞菊6种杂草中的F值分别为0.957、0.931、0.955、0.955、0.923和0.992,其平均F值为0.954。在所设置的深度模型优化器试验中,VGG16-SGD模型取得了最高精度,其在上述6种杂草中的F值分别为0.987、0.974、0.965、0.967、0.989和0.982,其平均F值为0.977。在PFMW数据集的样本类别数量均衡试验中,无失衡杂草数据集训练出来的VGG16深度模型的准确率为0.900,而16.7%、33.3%和66.6%类别失衡的数据集训练的模型准确率分别为0.888、0.866和0.845。结论 利用机器视觉能够准确识别水稻田杂草,这对于促进水稻田精细化耕作以及无人机变量喷施等方面具有重要意义,可以有效地协助农业种植过程中的杂草防治工作。  相似文献   

4.
基于Mixup算法和卷积神经网络的柑橘黄龙病果实识别研究   总被引:2,自引:1,他引:1  
目的 解决传统柑橘黄龙病果实图像识别方法依赖人工设计特征、费时费力、网络模型参数量大、识别准确率低等问题。方法 首先,采集柑橘黄龙病的果实图像,并对其进行翻转、旋转、仿射、高斯扰动等数据扩增;采用Mixup算法建立样本之间的线性关系,增强模型识别数据样本的鲁棒性;然后,迁移Xception网络在ImageNet数据集上的先验知识,提出一种基于Mixup算法和卷积神经网络的柑橘黄龙病果实识别模型-X-ResNeXt模型;最后,采用动量梯度下降优化方法,有效地减缓震荡影响,并且有效地加速模型向局部最优点收敛。结果 采用数据扩增数据集训练的X-ResNeXt模型准确率可以达到91.38%;在进行迁移学习优化后,训练时间减少了432 s,准确率提升为91.97%;结合Mixup混类数据增强进一步训练,模型准确率提升为93.74%;最后,利用动量梯度下降方法进行模型收敛优化,最终模型的准确率达到94.29%,比Inception-V3和Xception网络分别提高了3.98%和1.51%。结论 在数据量较少情况下,降低模型复杂度并迁移已有先验知识,有助于模型性能提升;Mixup混类数据增强方法有利于提高模型识别柑橘黄龙病果实图像样本的适应性,提升柑橘黄龙病果实识别模型性能;X-ResNeXt模型在准确率与召回率指标上优于经典识别模型,可为柑橘黄龙病的高精度、快速无损识别提供参考。  相似文献   

5.
基于低空遥感的果树冠层信息提取方法研究   总被引:1,自引:1,他引:0       下载免费PDF全文
【目的】 果树冠层信息是反映果树生长状况的重要参数,准确提取果树的冠层信息对于果园的精细管理十分必要。【方法】 文章以苹果树和桃树为研究对象,利用无人机遥感获取果园影像数据,首先通过Mask R-CNN实例分割算法对果园果树冠层进行逐一分割,同时提取果树冠幅和冠层面积信息。然后利用果园正射影像结合QGIS软件,对果树冠层位置信息进行提取和可视化并通过目视解译对果树冠层参数信息提取结果进行评估。【结果】 当交并比为0.5时,模型检测分割结果最优,测试集语义分割精确度为66.3%,目标检测精确度达到63.9%。总体冠层面积实测值与模型预测面积之间的平均相对误差为12.44%,均方根误差为0.5 m2。冠幅实测值与模型预测的面积之间的平均相对误差为16.39%,均方根误差为0.39 m,在一定范围内验证了模型对冠层面积和冠幅信息提取的可靠性。【结论】 结合无人机遥感数据和Mask R-CNN实例分割算法可有效地将果树冠层分割出来,并且能够较为准确地提取果树冠层的相关参数信息,可为果园的精细管理提供一定的技术支撑。  相似文献   

6.
目的 为提高小麦条锈病危害程度分级精度,开展小麦条锈病病害等级自动化、准确、快速识别方法研究。方法 在复杂田间条件下,使用手机拍摄图像,构建含有不同等级条锈病的小麦叶片数据集,利用GrabCut与YOLOv5s相结合的方法进行小麦叶片与复杂背景自动化分割。为了增强ResNet50对表型特征的提取能力,增加Inception模块,依据划分的小麦条锈病病害等级标准,对小麦条锈病病害等级进行识别。采用准确率、查全率、查准率等评价指标分析改进的ResNet50模型(B-ResNet50)在数据集上的表现。结果 GrabCut与YOLOv5s相结合对大田复杂背景下的小麦叶片图像实现了自动、准确、快速地分割。B-ResNet50识别小麦条锈病叶片的平均准确率为97.3%,与InceptionV3(87.8%)、DenseNet121(87.6%)、ResNet50(88.3%)相比,准确率大幅提升,比原始模型(ResNet50)高出9个百分点。结论 利用深度学习对小麦条锈病病害等级进行识别,对防治小麦条锈病的精准施药具有重要意义,可为田间复杂条件下小麦条锈病的防治提供技术支持。  相似文献   

7.
快速高效地识别水稻病害的种类并及时采取有效的防治措施对避免水稻减产具有重要意义,为解决人工识别水稻病害效率低、识别精度不高、深度学习样本不平衡导致识别准确率不高等问题,融合Focal Loss与4种典型卷积神经网络结构对7种水稻病害进行分类识别。利用TensorFlow的Keras深度学习框架搭建卷积神经网络的图像识别分类系统,使用Focal Loss损失函数解决数据集不平衡导致识别准确率低的问题,采用ResNet50、ResNet101、MobileNetV2、VGG16作为特征提取骨干,对7种水稻病害进行识别。通过imgaug库增强数据,将13 543张水稻病害图像按照9∶1的比例划分为训练集和验证集并参与训练模型,将1 404张水稻病害图像作为测试集来验证模型的准确性。结果表明,所搭建的数据集中ResNet50、ResNet101、MobileNetV2、VGG16的识别准确率分别为98.06%、94.26%、92.47%、97.83%。可见,在融合Focal Loss损失函数的情况下,ResNet50作为特征提取骨干训练出的模型在水稻病害图像分类中拥有最高的准确率,该成果可在实...  相似文献   

8.
为快速、高效地利用高光谱成像技术诊断小麦赤霉病病症,分析了卷积层结构与光谱病症特征的关联性,并重点研究了高光谱的像元分类建模方法。首先,基于深度卷积神经网络的2种典型结构,构建了不同深度的卷积神经网络,比较了小麦赤霉病高光谱数据点集的训练和测试结果。结果显示:Visual Geometry Group(VGG)结构随着网络深度的增加,模型损失值不断下降;残差神经网络(ResNet)结构随着深度增加,损失值没有明显降低,说明ResNet网络的深度与模型性能无关。从测试集评测模型泛化性可知,具有4个基础单元模块的22层VGG网络在所有深度卷积模型中最优,其建模和验证准确率远高于传统的支持向量机(SVM),分别为0.846和0.843,测试集准确率为0.742。以VGG为基础单元构建的深度神经网络,能有效提取小麦赤霉病病症的高光谱特征。研究结果可为大尺度小麦赤霉病的智能成像诊断提供理论基础。  相似文献   

9.
番茄叶部病害严重影响了番茄的产量和质量,为实现在移动设备实时对番茄进行病害识别,提高番茄的产量,减少种植者的损失。本研究提出将轻量级网络模型MobileNet V2和迁移学习的方式相结合,对番茄早疫病、番茄细菌性斑疹病、番茄晚疫病、番茄叶霉病、番茄斑枯病、番茄红蜘蛛病、番茄褐斑病、番茄花叶病、番茄黄化曲叶病等9种叶部病害图像以及健康番茄叶片图像进行分类识别,首先将数据集按照9∶1的比例分为训练集和验证集,对于训练模型根据迁移学习的方式分别采用不冻结卷积层、冻结部分卷积层、全部冻结卷积层的方式获得3种模型,然后在模型最后加上2层全连接层并用Dropout层防止过拟合,接着通过Softmax层输出实现对番茄病害图像分类识别,最后利用验证集来统计模型的准确率和损失值。其中,冻结部分卷积层准确率最高,达到93.67%。另外,通过试验对比传统网络VGG16、ResNet50训练集和验证集的准确率、损失值及运行时间,其中迁移学习的MobileNet V2模型的准确率最高,运行时间最短。该研究提出的基于MobileNet V2和迁移学习的番茄病害识别研究方法识别效果较佳,速度较快,为在移动设备实时对...  相似文献   

10.
为采用数码相机拍摄的水稻冠层图像来估测作物的氮素含量。以自然环境下获得的水稻冠层图像为研究对象,提出一种基于图像纹理色彩特征(LBPHSV)和ResNet50网络融合算法的氮素含量预测方法。LBPHSV+ResNet50融合算法是通过运用LBP算子和HSV颜色空间矩阵提取图像特征参数,将提取到的融合特征集作为ResNet50模型输入以加强对作物氮素营养的表征,并将预测结果与常用的多元线性回归、随机森林(RF)、支持向量回归模型、多层感知机、卷积神经网络、长短记忆网络(LSTM)及组合模型预测结果进行对比分析。结果显示:相比于浅层机器学习模型,深度学习算法能显著提高预测模型的准确率;LBPHSV+ResNet50融合模型的预测能力和泛化能力达到最优,R2和 RMSE分别为 0.97、0.02。相比于RF、LBP+LSTM、ResNet50,新模型的R2分别提升了16.36%、9.72%、16.55%和1.13%,RMSE 分别下降了 0.35、0.46、0.05和 0.002。因此,LBPHSV+ResNet50融合模型在预测水稻氮素含量时可提供令人满意的性能,能够满足对水稻氮素营养无损精准监测的农业需求。  相似文献   

11.
姚青  姚波  吕军  唐健  冯晋  朱旭华 《中国农业科学》2021,54(21):4562-4572
【目的】智能虫情测报灯诱捕到的农业害虫因种类繁多、虫体姿态多样、鳞片脱落等原因造成有些害虫图像存在种间相似和种内差异的现象。为了提高农业灯诱害虫识别率,针对YOLOv4检测模型检测到且容易混淆的19种灯诱害虫,本文提出了基于双线性注意力网络的农业灯诱害虫细粒度图像识别模型。【方法】首先,根据灯诱害虫外观图像的相似性和检测误检的情况,将19种害虫分为6类;将所有害虫图像通过补边操作使得长宽相等,并缩放至统一尺寸224×224像素。为了提高模型的鲁棒性和泛化能力,对害虫图像进行镜像翻转、旋转180度、高斯噪声和均值滤波的数据增强,训练集、验证集和测试集样本量按照8:1:1比例划分。然后,针对6类19种农业灯诱害虫细粒度图像,建立了基于双线性注意力网络的农业灯诱害虫识别模型(bilinear-attention pest net,BAPest-net),模型包括双线性特征提取、注意力机制和分类识别3个模块;通过修改特征提取模块的下采样方式提高特征提取能力;添加注意力机制模块让整个模型更关注于局部细节的特征,将双线性结构中的上下两个注意力机制的输出进行外积运算增加细粒度特征的权重,提高识别的准确性和学习效率;模型优化器使用随机梯度下降法SGD,分类模块中使用全局平均池化,旨在对整个网络从结构上做正则化防止过拟合。最后,在同一个训练集训练VGG19、Densenet、ResNet50、BCNN和BAPest-net 5个模型,对6类相似的19种农业灯诱害虫进行识别,以精准率、Precision-Recall(PR)曲线和平均识别率作为模型的评价指标。【结果】BAPest-net对6类相似的19种农业灯诱害虫平均识别率最高,达到94.9%;BCNN次之,为90.2%;VGG19模型最低,为82.1%。BAPest-net识别的6类害虫中4类鳞翅目害虫的平均识别率均大于95%,表明该模型能较好地识别出鳞翅目害虫。测试结果中仍存在少数相似度较高的害虫误判,特别当害虫腹部朝上或侧身,种类特征不够明显的时候容易引起相似害虫的误判。对于区分度较低的相似害虫需要更多的训练样本以获取更多的特征,提高模型的识别率和泛化能力。【结论】基于双线性注意力网络的农业灯诱害虫细粒度图像识别模型可以自动识别6类相似的19种农业灯诱害虫,提高了农业灯诱害虫自动识别的准确率。  相似文献   

12.
Chen  Shumian  Xiong  Juntao  Jiao  Jingmian  Xie  Zhiming  Huo  Zhaowei  Hu  Wenxin 《Precision Agriculture》2022,23(5):1515-1531

Citrus fruits do not ripen at the same time in natural environments and exhibit different maturity stages on trees, hence it is necessary to realize selective harvesting of citrus picking robots. The visual attention mechanism reveals a physiological phenomenon that human eyes usually focus on a region that is salient from its surround. The degree to which a region contrasts with its surround is called visual saliency. This study proposes a novel citrus fruit maturity method combining visual saliency and convolutional neural networks to identify three maturity levels of citrus fruits. The proposed method is divided into two stages: the detection of citrus fruits on trees and the detection of fruit maturity. In stage one, the object detection network YOLOv5 was used to identify the citrus fruits in the image. In stage two, a visual saliency detection algorithm was improved and generated saliency maps of the fruits; The information of RGB images and the saliency maps were combined to determine the fruit maturity class using 4-channel ResNet34 network. The comparison experiments were conducted around the proposed method and the common RGB-based machine learning and deep learning methods. The experimental results show that the proposed method yields an accuracy of 95.07%, which is higher than the best RGB-based CNN model, VGG16, and the best machine learning model, KNN, about 3.14% and 18.24%, respectively. The results prove the validity of the proposed fruit maturity detection method and that this work can provide technical support for intelligent visual detection of selective harvesting robots.

  相似文献   

13.
【目的】在水稻生产过程中,针对不同虫害需要采用不同的防治方案,水稻害虫的准确识别分类是制定针对性防治方案的前提。【方法】采用深度学习结合机器视觉的方法,基于Res2Net结构提出了一种多尺度特征提取的深度残差网络,通过准确地提取害虫特征实现复杂自然背景下的水稻害虫识别;采用改进的残差结构,使用等级制的类残差连接取代了原本的3×3卷积核,增加了每个网络层的感受野,可以更细粒度地提取多尺度特征。【结果】本网络训练的模型能够有效地识别自然背景下的水稻害虫,在自建的包含22类常见水稻害虫的图像数据集上,平均识别准确率达到了92.023%,优于传统的ResNet、VGG等网络。【结论】本文提出的模型可应用于水稻虫情自动监测系统,为实现水稻害虫虫情的机器视觉监测提供参考。  相似文献   

14.
为提高茶园杂草分类深度模型的准确性,减少深度模型的冗余参数问题.以茶园常见的10类杂草图像为数据样本,分别基于深度学习的ResNet50、VGGNet和AlexNet网络结构构建杂草分类模型;在此基础上,进一步利用剪枝算法压缩深度模型ResNet50.通过实验对比3个模型测试集的平均准确率分别为0.86、0.72和0.63;此外,通过对比ResNet50的茶园杂草模型在训练集和测试集上压缩前后效果,显示结果基本一致.研究表明ResNet50在这3个模型中是最优分类模型,且压缩后的深度模型ResNet50提升了模型的性能.因此,该研究也为移动端设备的分类提供了理论基础.  相似文献   

15.
基于图像处理和深度迁移学习的芒果果实病状识别   总被引:1,自引:1,他引:0  
目的 基于计算机层析成像(Computed tomography, CT)设备所得芒果CT序列图像,实现芒果内部品质的无损检测和病状识别分类。方法 利用分段函数法、中值滤波结合双边滤波,实现芒果图像增强;采用局部自适应阈值法,实现二值化处理;采用种子填充法进行区域填充;最后通过差影法准确提取芒果果实内部组织的坏损区域。基于深度迁移学习模型,对未处理和已处理的芒果图像数据开展训练和测试,通过AlexNet和GoogLeNet深度学习网络开展迁移学习,调整超参数完成训练过程的网络微调,在不同模型中对比未处理和已处理的芒果测试集在模型上的分类结果。结果 基于未处理数据集,GoogLeNet模型在学习率为0.0002下训练,Accuracy和Macro-average指标分别为98.79%和98.41%。基于已处理数据集,GoogLeNet模型在学习率为0.0002下训练,Accuracy和Macro-average指标分别为100%和100%。深度迁移学习模型在已处理数据集下的模型分类指标较未处理的数据集下有较大的提升。基于同一数据集且超参数一致时,GoogLeNet网络的分类效果明显优于AlexNet网络。结论 设定学习率为0.0002、迭代轮数为3、最小批值为64,基于GoogLeNet网络开展深度迁移学习训练,将所得模型作为最终的分类模型。  相似文献   

16.
成熟度判别是芒果采收及储藏的重要依据.为了适应移动设备硬件算力的限制,对比了传统机器学习方法和迁移学习方法在芒果成熟度鉴别方面的表现,优选最佳模型并开发了芒果成熟度分类软件.试验采集了不同成熟度的小台农图像100张,进行数据扩充后按照8:2划分为训练集和测试集,以准确率、F1值和预测时间作为模型评价指标,分别采用k近邻(K-NearestNeighbor, KNN)、支持向量机(Support vector machine, SVM)、朴素贝叶斯(Naive bayes, NB)、决策树(Decision tree, DT)机器学习算法模型和AlexNet、ResNet18、VGG16、GoogleNet和SqueezeNet迁移学习算法模型进行训练和测试,并对比分析各模型的表现.结果表明:机器学习虽然运算速度快,但分类的准确率明显低于迁移学习,迁移学习的分类准确率均在90%以上.但综合考虑模型的分类准确率和计算能力认为Resnet18表现最佳,它在迭代20次后准确率达到98.75%,而测试时间仅为74.66 ms,优于其它深度学习模型.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号