首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 234 毫秒
1.
基于高光谱成像的水稻穗瘟病害程度分级方法   总被引:3,自引:3,他引:3  
为了快速、准确地进行水稻穗瘟病害程度分级,以实现水稻品种抗性评价或精准的田间化学防治,该研究提出了一种光谱词袋(bag of spectrum words,Bo SW)模型分析方法,分析稻穗的高光谱图像,自动评判穗瘟病害程度。首先,稠密规整地将高光谱图像分割成小立方格,计算每个立方格像素的平均全波段包络矢量,用K-Means算法聚类形成典型光谱包络词典。词典中光谱包络"词"(word)用作高光谱图像表达的"基",直方图统计各光谱"词"在高光谱图像样本中的出现频度,形成光谱图像的词袋表达。采用Hyper SIS-VNIR-QE光谱成像仪获取田间采集的170株稻穗样本高光谱图像,用Bo SW方法生成其词袋表达;植保专家根据病害程度类别确定光谱图像样本标签。随机选择2/3"词袋表达-病害程度等级标签"数据对构成训练集,采用卡方-支持矢量机(chi-square support vector machine,Chi-SVM)分类算法建立穗瘟病害程度分级模型。余下的1/3样本构成测试集,测试穗瘟病害等级模型的预测性能,分类识别精度为94.72%,高于主成分分析(principle component analysis,PCA)、敏感波段选择等传统光谱分析方法,其识别精度分别为83.83%和79.83%。该研究提高了穗瘟病分级的自动化程度和准确率,也可为其他病害分级检测提供参考。  相似文献   

2.
高寒地区粳稻穗颈瘟的无人机高光谱遥感识别   总被引:3,自引:3,他引:0  
水稻穗颈瘟作为稻瘟病的一种发病形式常以褐色斑点性状出现在水稻穗颈节部位,对稻穗颈瘟病害快速、无损的识别与分级评估一直是备受关注的研究课题。该研究以高寒地区粳稻大田试验为基础,利用无人机高光谱平台获取不同病害等级的水稻穗颈瘟冠层数据;分别以不同处理的光谱数据作为输入量,使用随机森林(Random Forest,RF)的方法进行建模,并结合水稻生理对各输入量的特征关联加以解释。结果表明:随着稻瘟病病害等级的提升,水稻冠层反射率整体呈现下降的趋势;植被指数组合(Combination of Vegetation Indices,CVIs)作为输入量建立起来的预测模型具有最高的精度,预测集精度达到90%,Kappa系数为0.86,能够解释穗颈瘟发生时所引起的植株整体生理参数综合变化的过程。该研究结果可填补无人机高光谱遥感监测大田穗颈瘟病和实验室穗颈瘟病光谱理论研究之间的空缺,为无人机高光谱遥感实现穗颈瘟病定量遥感监测与预警分级提供支持。  相似文献   

3.
基于高光谱成像技术的水稻叶瘟病病害程度分级方法   总被引:9,自引:7,他引:2  
为了快速、准确地对水稻叶瘟病病害程度进行分级评估,结合定性分析与定量估算,提出了一种基于高光谱成像技术的水稻叶瘟病病害程度分级方法。利用HyperSIS高光谱成像系统采集了受稻瘟病侵染后不同病害等级的水稻叶片高光谱图像,通过分析叶瘟病斑区域与正常叶片部位的光谱特征,对差异较大的550和680 nm波段进行二维散点图分析,提取只含病斑的高光谱图像;然后通过主成分分析(principal component analysis,PCA)方法得到利于褐色病斑和灰色病斑分割的第2主成分图像,采用最大类间方差法(Otsu)分割出灰色病斑;最后结合延伸率和受害率2个参数对水稻叶瘟病病害程度进行分级。试验结果表明:测试的166个不同稻叶瘟病害等级的叶片样本中,其中160个样本可被准确分级,分级准确率为96.39%。该研究为稻叶瘟病田间病害程度评估提供了基础,也为稻瘟病抗性鉴定方法提供了新思路。  相似文献   

4.
稻穗表型是表征水稻生长状况和产量品质的关键参数,稻穗表型的准确监测对于大田精准管理和水稻智慧育种具有重要意义。无人机图谱数据已被广泛用于水稻生长监测,然而大部分研究主要集中在水稻的营养生长阶段,针对抽穗期和成熟期稻穗表型监测方面的研究非常有限。因此,该研究利用无人机多源图谱数据进行水稻稻穗表型监测研究,分析了不同氮肥梯度和生长时期对稻穗表型的影响,构建了稻穗覆盖度、生物量以及倒伏等监测模型。结果表明,不同生长时期和氮肥梯度的稻穗表型呈现显著差异,稻穗覆盖度与图像特征高度相关。利用粒子群优化算法(Particle Swarm Optimization,PSO)和支持向量机(Support Vector Machine,SVM)回归模型能够从可见光图像中准确识别稻穗,计算的穗覆盖度与实际标记值高度相关,决定系数(coefficient of determination,R2)为0.87,将此结果与多光谱图像反射率融合,利用随机森林(Random Forest,RF)回归模型可以提高稻穗覆盖度的评估精度,R2为0.93,相对均方根误差(relative Root Mean Square Error,rRMSE)为9.47%。融合可见光图像的颜色和纹理以及多光谱图像的光谱反射率改善了穗生物量的评估精度,R2高达0.84,rRMSE为8.68%,此模型能够在不同种植年间迁移,进一步利用模型更新添加10%新样本能够改善模型迁移能力。基于PSO-SVM分类模型,联合可见光图像的颜色和纹理以及多光谱图像的光谱反射率也准确地识别稻穗倒伏,准确率达99.87%。上述研究结果证明了无人机遥感用于水稻稻穗表型监测的可行性,可为作物精准管理和智慧育种提供决策支持。  相似文献   

5.
基于拉曼光谱分析寒地水稻叶瘟病害植株特征   总被引:1,自引:2,他引:1  
稻叶瘟是影响寒地水稻产量的重要病害之一。为了减少病害受灾程度,增加早期检测的手段,该文利用拉曼光谱仪对正常水稻与感染稻叶瘟的水稻叶片进行拉曼光谱采集,指认出了水稻叶片的特征频率。通过对无病害叶片与病害叶片官能团的拉曼特性谱峰和特征频率偏移的对比分析,指出稻叶瘟水稻叶片的特征谱峰和稻瘟病敏感谱线为1 800~2 600 cm-1的频谱区域,分析得到984和994 cm-1的双峰连线的斜率以及828和851 cm-1的双峰连线的斜率随着病害程度的增加而逐渐增大。通过对随机抽取的50个拉曼光谱样本的分析,得到2 000~2 300 cm-1散射截面随着病害程度的加重而增加,说明散射截面的变化与稻瘟病害存在良好对应关系。研究表明拉曼光谱分析为早期检测水稻稻叶瘟病提供了一种有效的手段。  相似文献   

6.
融合高光谱图像技术与MS-3DCNN的小麦种子品种识别模型   总被引:2,自引:2,他引:0  
小麦品种的纯度和小麦产量密切相关,为了实现小麦种子品种的快速识别,该研究利用高光谱图像技术结合多尺度三维卷积神经网络(Multi-Scale 3D Convolutional Neural Network,MS-3DCNN)提出了一种小麦种子的品种识别模型。首先,利用连续投影算法(Successive Projections Algorithm,SPA)对原始高光谱图像进行波段选择,以减少MS-3DCNN模型的输入图像通道数量,降低网络训练参数规模;其次,利用多尺度三维卷积模块提取特征图的图像特征和不同特征图之间的耦合特征;最后,以6个品种小麦共6 000粒种子的高光谱图像(400~1 000 nm)为研究对象,基于SPA算法选择了22个波段高光谱数据,利用MS-3DCNN、支持向量机(Support Vector Machine,SVM)分别构建了识别模型。试验结果表明,MS-3DCNN模型取得了96.72%的测试集识别准确率,相较于光谱特征SVM识别模型和融合特征SVM识别模型分别提高了15.38%和9.50%。进一步比较了MS-3DCNN与基于二维卷积核、三维卷积核、多尺度二维卷积核构建的多个识别模型性能,结果表明多尺度三维卷积核能提取多种尺度的信息,其识别模型的准确率提高了1.34%~2.70%,可为小麦种子高光谱图像品种识别提供一种可行的技术途径。  相似文献   

7.
基于迁移学习的棉花叶部病虫害图像识别   总被引:15,自引:10,他引:5  
针对传统图像识别方法准确率低、手工提取特征等问题,该研究以棉花叶部病虫害图像为研究对象,利用迁移学习算法并辅以数据增强技术,实现棉花叶部病虫害图像准确分类。首先改进AlexNet模型,利用PlantVillage大数据集训练取得预训练模型,在预训练模型上使用棉花病虫害数据微调参数,得到平均测试准确率为93.50%;然后使用数据增强技术扩充原始数据集,在预训练模型上再训练,得到最终平均测试准确率为97.16%。相同试验条件下,该研究方法较支持向量机(Support Vector Machine,SVM)和BP(Back Propagation,BP)神经网络以及深度卷积模型(VGG-19和GoogLeNet Inception v2)分类效果更好。试验结果表明,通过迁移学习能把从源领域(PlantVillage数据集)学习到的知识迁移到目标领域(棉花病虫害数据集),数据增强技术能有效缓解过拟合。该研究为农作物病虫害识别技术的发展提供了参考。  相似文献   

8.
采用双模态联合表征学习方法识别作物病害   总被引:1,自引:1,他引:0  
基于深度卷积神经网络的视觉识别方法在病害诊断中表现出色,逐渐成为了研究热点。但是,基于深度卷积神经网络建立的视觉识别模型通常只利用了图像模态的数据,导致模型的识别准确率和鲁棒性,都依赖训练数据集的规模和标注的质量。构建开放环境下大规模的病害数据集并完成高质量的标注,通常需要付出巨大的经济和技术代价,限制了基于深度卷积神经网络的视觉识别方法在实际应用中的推广。该研究提出了一种基于图像与文本双模态联合表征学习的开放环境下作物病害识别模型(bimodalNet)。该模型在病害图像模态的基础上,进行了病害文本模态信息的嵌入,利用两种模态病害信息间的相关性和互补性,实现了病害特征的联合表征学习。最终bimodalNet在较小的数据集上取得了优于单纯的图像模态模型和文本模态模型的效果,最优模型组合在测试集的准确率、精确率、灵敏度、特异性和F1值分别为99.47%、98.51%、98.61%、99.68%和98.51%。该研究证明了利用病害图像和病害文本的双模态表征学习是解决开放环境下作物病害识别的有效方法。  相似文献   

9.
基于卷积神经网络与迁移学习的油茶病害图像识别   总被引:21,自引:12,他引:9  
传统的植物病害图像识别准确率严重依赖于耗时费力的人工特征设计。该文利用深度卷积神经网络强大的特征学习和特征表达能力来自动学习油茶病害特征,并借助迁移学习方法将Alex Net模型在Image Net图像数据集上学习得到的知识迁移到油茶病害识别任务。对油茶叶片图像进行阈值分割、旋转对齐、尺度缩放等预处理后,按照病害特征由人工分为藻斑病、软腐病、煤污病、黄化病和健康叶5个类别。每个类别各选取750幅图像组成样本集,从样本集中随机选择80%的样本用作训练集,剩余20%用作测试集。利用随机裁剪、旋转变换和透视变换对训练集进行数据扩充,以模拟图像采集的不同视角和减少网络模型的过拟合。在Tensor Flow深度学习框架下,基于数据扩充前后的样本集,对Alex Net进行全新学习和迁移学习。试验结果表明,迁移学习能够明显提高模型的收敛速度和分类性能;数据扩充有助于增加数据的多样性,避免出现过拟合现象;在迁移学习和数据扩充方式下的分类准确率高达96.53%,对藻斑病、软腐病、煤污病、黄化病、健康叶5类病害的F1得分分别达到94.28%、94.67%、97.31%、98.34%和98.03%。该方法具有较高的识别准确率,对平移、旋转具有较强的鲁棒性,可为植物叶片病害智能诊断提供参考。  相似文献   

10.
基于高光谱图像的稻瘟病抗氧化酶值早期预测   总被引:7,自引:6,他引:1  
杨燕  何勇 《农业工程学报》2013,29(20):135-141
水稻稻瘟病是危害水稻种植的真菌病害,早期预测病害源头是防治稻瘟病的有效手段。在病害症状显证之前实现早期预测,能从源头上更好地遏制病害,阻止分生孢子的大量繁殖,达到稻瘟病早期防治的目的。该文通过连续分时段测定水稻稻瘟病潜育期稻苗的高光谱图像和相对应的稻苗抗氧化物酶SOD(superoxide dismutase, SOD)酶值,利用高光谱图像处理技术结合化学计量学方法,建立稻瘟病潜育期内稻苗冠层高光谱图像与抗氧化酶SOD酶活之间的关联预测模型。结果表明,基于全光谱信息建立的SOD酶值预测模型,模型具有较好的预测效果,校正集相关系数RC=0.9921,校正集均方根误差RMSEC=5.135 U/g;预测集相关系数RP=0.9274,预测集均方根误差RESEP=8.634 U/g。出于建立更为广泛应用的稳定的多光谱成像检测系统的需要,基于选定的6个特征波长526、550、672、697、738和747 nm建立了简化的SOD酶值预测模型,该模型的RC=0.6945,RMSEC=17.92 U/g;RP=0.5488,RESEP=22.0085 U/g。研究表明,在水稻稻瘟病潜育期内,通过高光谱图像反演相应的SOD酶活性信息,推断水稻稻瘟病病害胁迫程度信息是可行的。  相似文献   

11.
基于深度全卷积神经网络的大田稻穗分割   总被引:9,自引:7,他引:2  
稻穗的准确分割是获取水稻穗部性状、实现水稻表型自动化测量的关键。该研究应用水稻图像数据集及数据增广技术,离线训练了用于稻穗分割的3个分别基于Seg Net,Deep LAB和PSPNet的全卷积神经网络。综合考虑分割性能和计算速度,优选了基于Seg Net的网络,称为Panicle Net。在线分割阶段先将原始图像划分为子图,由Panicle Net分割子图,再拼接子图得到分割结果。比较该算法及现有作物果穗分割算法Panicle-SEG、HSeg、i2滞后阈值法及joint Seg,该算法对与训练样本同年度拍摄样本Qseg值0.76、F值0.86,不同年度样本Qseg值0.67、F值0.80,远优于次优的Panicle-SEG算法,且计算速度约为Panicle-SEG算法的35倍。该算法能克服稻穗边缘严重不规则、不同品种及生育期稻穗外观差异大、穂叶颜色混叠和复杂大田环境中光照、遮挡等因素的干扰,提升稻穗分割准确度及效率,进而服务于水稻育种栽培。  相似文献   

12.
基于轻量型残差网络的自然场景水稻害虫识别   总被引:4,自引:3,他引:1  
准确识别水稻害虫对水稻及时采取防护和治理措施具有重要意义,该研究以自然场景中水稻害虫图像为研究对象,针对水稻害虫图像的颜色纹理与背景相近以及同类害虫形态差异较大等特点,设计了一个由特征提取、全局优化以及局部优化模块构成的轻量型残差网络(Light Weight Residual Network,LW-ResNet)用于水稻害虫识别。在特征提取模块通过增加卷积层数以及分支数对残差块进行改进,有效提取自然场景中水稻害虫图像的深层全局特征并使用全局优化模块进行优化;局部优化模块通过设计轻量型注意力子模块关注害虫的局部判别性特征。LW-ResNet网络在特征提取模块减少了残差块的数量,在注意力子模块中采用深度可分离卷积减少了浮点运算量,从而实现了模型的轻量化。试验结果表明,所设计的LW-ResNet网络在13类水稻害虫图像的测试数据集上达到了92.5%的识别准确率,高于VGG16、ResNet、AlexNet等经典卷积神经网络模型,并且LW-ResNet网络的参数量仅为1.62×106个,浮点运算量仅为0.34×109次,低于MobileNetV3轻量级卷积神经网络模型。该研究成果可用于移动端水稻害虫的自动识别。  相似文献   

13.
基于轻量级CNN的植物病害识别方法及移动端应用   总被引:11,自引:8,他引:3  
刘洋  冯全  王书志 《农业工程学报》2019,35(17):194-204
为了实现在手机端植物病害叶片检测,对MobileNet和Inception V3 2种轻量级卷积神经网络进行迁移学习,得到2种作物病害分类模型,将2种分类模型分别移植到Android手机端,在识别精度、运算速度和网络尺寸之间进行平衡,选择最优模型。试验表明,MobileNet和InceptionV3在PlantVillage数据集(共38类26种病害)上平均识别率分别是95.02%和95.62%。在自建图像集葡萄病害叶片的识别中MobileNet和InceptionV3平均识别率分别是87.50%、88.06%,Inception V3的整体识别精度略高,但MobileNet在所有类别的识别上均衡性更好;在模型尺寸方面Inception V3的模型尺寸大小为87.5 MB,MobileNet的模型尺寸为17.1 MB,大约是后者5倍;2种模型移植到手机端时,MobileNet和Inception V3的APP所占内存分别是21.5和125 MB;在手机端单张图片的识别时间方面,Inception V3平均计算时间约是174 ms,MobileNet的平均计算时间约是134 ms,后者的平均计算时间比前者快40 ms;在手机端MobileNet相比于Inception V3占用内存更小,运算时间更快。说明MobileNet更适合在手机端进行植物病害识别应用。  相似文献   

14.
基于高光谱技术的猪肉肌红蛋白含量无损检测   总被引:2,自引:2,他引:0  
为充分利用猪肉光谱与图像信息,实现猪肉肌红蛋白含量的在线检测,该研究提出一种基于深度学习模型的猪肉肌红蛋白含量无损检测方法。采用高光谱设备采集冷藏过程中猪肉高光谱图像,通过ENVI5.3选择图像感兴趣区域(Region Of Interest,ROI),分别提取ROI平均光谱信息与主成分图像信息。利用卷积自动编码器(Convolutional Auto Encoder,CAE)提取光谱与图像信息深度特征,分别建立光谱特征、图像特征及图-谱融合特征与肌红蛋白含量之间关系的卷积神经网络(Convolutional Neural Network,CNN)预测模型。其中基于融合深度特征CNN预测模型准确度较高,该模型对脱氧肌红蛋白(DeoMb)、氧合肌红蛋白(OxyMb)、高铁肌红蛋白(MetMb)含量预测集决定系数分别为:0.964 5、0.973 2、0.958 5,预测集均方根误差 RMSEP分别为:0.015 8、0.226 6、0.381 6。为进一步验证图-谱融合特征与猪肉肌红蛋白存在对应关系,分别建立偏最小二乘回归(Partial Least Squares Regression,PLSR)、支持向量机回归(Support Vector Regression,SVR)预测模型。结果表明:CAE能充分提取图像与光谱特征;基于融合特征建立回归模型能提高肌红蛋白含量预测精度,相比于光谱信息与图像信息,以MetMb为例其分别提高5.42%、16.12%。该检测方法为肉类质量在线检测提供参考,具有好的应用前景。  相似文献   

15.
基于改进全卷积网络的棉田冠层图像分割方法   总被引:6,自引:5,他引:1  
针对传统的全卷积网络分割精度低、效果差等问题,该文提出一种结合条件随机场的改进全卷积网络棉田冠层图像分割方法。首先通过提取和学习图像特征对全卷积网络进行训练以优化其分割性能,得到初步分割结果和训练后的全卷积网络模型;接着将初步分割结果以像素和像素对应的分类向量形式输入到条件随机场中,同时结合像素间相对关系构建能量函数再进行训练,对初步分割结果进行优化得到训练后的条件随机场模型;进而通过验证过程对全卷积网络和条件随机场模型参数进一步调优,得到最优的全卷积网络和条件随机场;最后结合最优的全卷积网络和条件随机场实现棉田冠层图像分割并进行试验。试验结果表明:该方法的平均像素准确率为83.24%,平均交并比为71.02%,平均速度达到0.33 s/幅,与传统的全卷积网络分割性能相比分别提升了16.22和12.1个百分点,改进效果明显;与Zoom-out和CRFas RNN(conditional random fields as recurrent neural networks)分割方法进行对比,平均像素准确率分别提升了4.56和1.69个百分点,平均交并比分别提升了7.23和0.83个百分点;与逻辑回归方法和SVM(support vector machine)方法进行对比,平均像素准确率分别提升了3.29和4.01个百分点,平均交并比分别提升了2.69和3.55个百分点。该文方法在背景复杂、光照条件复杂等环境下可以准确分割出冠层目标区域,鲁棒性较好,可为棉花生长状态自动化监测提供参考。  相似文献   

16.
为解决自然条件下的油橄榄品种识别问题,该研究以油橄榄品种佛奥、莱星、皮削利和鄂植8号为研究对象,融合双线性网络与注意力机制,提出双线性注意力EfficientNet模型。针对不同品种油橄榄表型差异很小的特点,搭建双线性网络以充分提取油橄榄图像中的特征信息。在此基础上,选用兼顾了速度和精度的EfficientNet-B0网络为特征提取网络。针对自然条件下油橄榄品种识别易受复杂背景干扰的问题,将CBAM(convolutional block attention module,CBAM)注意力与双线性网络结合,使模型在提取油橄榄图像特征时,能够聚焦到对油橄榄品种识别起关键作用的特征上。经测试,所提模型对4个油橄榄品种识别的总体准确率达到90.28%,推理时间为9.15 ms。Grad-CAM(gradient-weighted class activation mapping,Grad-CAM)热力图可视化结果也表明,所提模型在识别油橄榄品种时重点关注了果实以及部分叶子区域。消融试验结果表明,在EfficientNet模型中引入CBAM注意力和搭建双线性网络后,总体准确率分别提高了5.00和10.97个百分点。并且,对比试验结果表明,与双线性ResNet34、EfficientNet-SE注意力、双线性ResNet18、双线性VGG16和双线性GoogLeNet等模型相比,所提模型的总体识别准确率分别高12.78、11.53、11.11、10.70和5.00个百分点。该研究为解决自然条件下的油橄榄品种识别提供了依据,同时也可为其他作物的品种识别提供参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号