首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 734 毫秒
1.
基于图像处理技术的小麦叶面积指数的提取   总被引:14,自引:7,他引:7  
为了较好地模拟叶面积指数的变化动态,在大田条件下进行试验,获取5个品种5个密度下不同发育期的小麦群体冠层数字图像,并手工测得实际叶面积。通过研究设计了复杂背景下小麦冠层图像叶面指数的有效提取方法,将图像处理得到的叶面积指数数据与实际测得的数据进行拟合建立模型。结果表明:品种、密度和发育期的差异对拟合模型参数影响显著,对模型经过随机抽取样本图像进行假设检验,均能够通过检验。模型的相关系数平方均达到0.86以上,能够实现高精度的小麦冠层叶面积指数的估测。  相似文献   

2.
利用FL-DGCNN模型估测绿萝叶片外部表型参数   总被引:1,自引:1,他引:0  
为了能够低成本、自动化批量获取植物叶片的外部表型参数,同时解决自然生长条件下的植物叶片存在遮挡而无法获取完整的外部表型数据的问题,该研究以绿萝叶片为研究对象,基于曲面参数方程建立叶片几何模型,提出一种基于特征分层的动态图(Dynamic Graph CNN based on Feature Layering,FL-DGCNN)和堆栈编码器模型的绿萝叶片外部表型参数估测算法。通过多层组合的编码-解码器模型对残缺点云进行形状补全,将不同尺度下的点云通过多层感知机提取分组点不同层的特征向量融合后获取特征信息,以决定系数和均方根误差评价模型结果。结果表明:多层组合的编码模型对残缺点云补全的鲁棒性更高,特征分层的动态图模型估测结果的叶长、叶宽、叶面积的决定系数分别为0.92、0.93和0.94,叶长、叶宽的均方根误差分别为0.37、0.34cm,叶面积的均方根误差为3.01cm~2。该方法对叶类植物叶片的外部表型参数估测效果较好,具有实用性。  相似文献   

3.
基于RGB图像与深度学习的冬小麦田间长势参数估算系统   总被引:4,自引:4,他引:0  
为准确、快速获取冬小麦田间长势信息,该研究设计并实现了一种基于深度学习的冬小麦田间长势参数估算系统。该系统主要包含长势参数估算模块和麦穗计数模块。长势参数估算模块基于残差网络ResNet18构建长势参数估算模型,实现了冬小麦苗期叶面积指数(Leaf Area Index,LAI)和地上生物量(Above Ground Biomass,AGB)的估算,并基于迁移学习进行泛化能力测试;麦穗计数模块基于Faster R-CNN并结合非极大值抑制(Non Maximum Suppression,NMS)构建麦穗计数模型,实现了开花期麦穗准确计数。结果表明,针对2017-2018和2018-2019两个生长季数据,基于ResNet18的长势参数估算模型对LAI估算的决定系数分别为0.83和0.80,对AGB估算的决定系数均为0.84,优于基于传统卷积神经网络(Convolutional Neural Networks,CNN)、VGG16和GoogLeNet构建的估算模型,并且泛化能力测试表明该模型对数据的季节性差异鲁棒。基于Faster R-CNN的麦穗计数模型,在利用NMS优化后决定系数从0.66增至0.83,提升了25.8%,NRMSE从0.19降至0.05,下降了73.7%。相较于基于CNN构建的分类计数模型,基于Faster R-CNN+NMS的麦穗计数模型表现更优,决定系数为0.83,提升了33.87%,单个麦穗识别时间为1.009 s,效率提升了20.55%。综上所述,该系统能够满足冬小麦田间长势参数估算需求,为冬小麦田间精细化管理提供支撑。  相似文献   

4.
大豆籽粒的表型参数获取对大豆育种具有重要的作用。现有的深度学习算法获取的大豆籽粒表型性状较少,且识别表型的神经网络模型训练成本高。本研究基于OpenCV图像处理库,提出了一种提取大豆籽粒多表型参数的算法,从大豆图像中一次性获取籽粒的多种表型性状参数,同时能识别大豆的优劣品质。将每个待测大豆单株的所有籽粒拍成一张图像,首先对大豆籽粒图像进行二值化、去噪等预处理,然后采用分水岭算法和改进的目标分割算法提取图像中的大豆籽粒轮廓。根据大豆籽粒的轮廓信息,调用OpenCV图像处理函数计算大豆籽粒的个数、长轴长度、短轴长度、面积、周长等多个表型性状参数。引入圆形度识别残缺大豆籽粒,使用RGB阈值判断识别病变大豆籽粒。测试结果表明,采用本文算法计算的颗粒总数识别率为98.4%,大豆籽粒正确识别率为95.2%,破损大豆和病变大豆的识别率分别为91.25%和88.94%,籽粒的长轴长度与短轴长度的测量精度分别为96.8%、95.8%;引入多进程并行计算,该算法的 处理215张图片时间为248.9 s,相对于单进程计算缩短了约2/3,实现了低成本高通量的高精度大豆籽粒多表型性状参数的自动获取,为大豆籽粒自动化考种提供有效的处理方法。  相似文献   

5.
多结构参数集成学习的设施黄瓜病害智能诊断   总被引:2,自引:2,他引:0  
单一特征已不能很好的描述作物病害典型特征,而生长环境参数(土壤温湿度、pH值、空气温湿度等)与病害密切相关,多结构数据学习向量化与特征最优组合能够有效提升病害诊断准确性。该研究以黄瓜白粉病、角斑病、炭疽病、菌核病4种病害50个样本为实例,融合结构化作物生长环境参数与非结构化图像特征,通过智能化物联网,对实时采集到的环境参数进行监测、分析,并将其与图像特征融合,构建多结构病害特征最优组合模型。试验结果表明,样本识别率在79.4%~93.6%,对比卷积神经网络图像识别识别率,卷积神经网络由于需要对病害图像数据进行降维,后台识别时间较高;深度迁移学习的图像识别方法,需要大量图像数据输入深度网络学习,而现实中病害图像数量不足以满足深度学习要求,因此识别率会因为样本不充分而降低;该方法借助少量图像数据,同时结合环境与专家知识资源,采用多结构参数集成学习的方法进行病害识别,在较少识别时间的基础上确保识别的准确性。  相似文献   

6.
用K-means图像法和主成分分析法监测生菜生长势   总被引:2,自引:2,他引:0  
温室植物生长状况的实时监测可为生产管理提供科学的决策支持.为开发实时监测中的机器视觉技术,该文选定生菜为研究对象,从单株和群体两个角度构建生菜生长势图像检测法.采集自然光条件下生菜整个生命周期俯视及侧视两类序列图像样本,并同步人工实测生菜生长势的动态数据样本,探讨生长势的图像检测指标与人工实测综合指标之间的相关性.对于单株生菜,通过CCD相机获取其投影图像及水平面两垂直方向侧视图像.就投影图像分割,为提高算法运行效率,将图像由RGB模型转换到HSI模型并提取H分量图像,再运用自动阈值法进行图像二值化处理,可测得单株生菜的投影面积.由于侧视图像背景较复杂,故联合使用K-means彩色图像分割法及伪彩色图像处理方法,获得生菜株高值.同时手工测量表达单株生菜生长势的叶片数、株高、x轴和y轴方向生菜植株的最大宽度、生菜植株某选定叶片的长和宽等6个指标,用主成分分析法从中提取出总生长势信息.将该值作为因变量,图像测得的投影面积和株高值作为自变量并进行回归分析.结果表明,模型的显著性检验概率均小于0.0001,除第4株生菜外,其余模型的决定系数均大于0.80,说明模型极显著且具有较高的拟合精度.对于群体生菜,预试验发现其侧视图像难以准确表达群体生菜生长势信息,故只考虑投影图像,其分割方法与单株生菜侧视图像相同.从中可计算得到群体生菜覆盖指数,再手工测量并算得群体生菜体积指数,以体积指数为因变量,以覆盖指数为自变量建模并进行回归分析.结果表明,模型显著性检验概率均小于0.0001,且决定系数均大于0.89,覆盖指数较好地表达了群体生菜生长势信息.故用图像检测获得的生菜投影面积、株高、群体覆盖指数等三项指标表征生菜生长势一方面具有科学性和可行性,在植物生长状况实时监测领域具有潜在的应用价值,另一方面,其图像分割方法和数据统计方法也可为植物生长状况实时监测等提供一定的借鉴和参考.  相似文献   

7.
稻穗表型是表征水稻生长状况和产量品质的关键参数,稻穗表型的准确监测对于大田精准管理和水稻智慧育种具有重要意义。无人机图谱数据已被广泛用于水稻生长监测,然而大部分研究主要集中在水稻的营养生长阶段,针对抽穗期和成熟期稻穗表型监测方面的研究非常有限。因此,该研究利用无人机多源图谱数据进行水稻稻穗表型监测研究,分析了不同氮肥梯度和生长时期对稻穗表型的影响,构建了稻穗覆盖度、生物量以及倒伏等监测模型。结果表明,不同生长时期和氮肥梯度的稻穗表型呈现显著差异,稻穗覆盖度与图像特征高度相关。利用粒子群优化算法(Particle Swarm Optimization,PSO)和支持向量机(Support Vector Machine,SVM)回归模型能够从可见光图像中准确识别稻穗,计算的穗覆盖度与实际标记值高度相关,决定系数(coefficient of determination,R2)为0.87,将此结果与多光谱图像反射率融合,利用随机森林(Random Forest,RF)回归模型可以提高稻穗覆盖度的评估精度,R2为0.93,相对均方根误差(relative Root Mean Square Error,rRMSE)为9.47%。融合可见光图像的颜色和纹理以及多光谱图像的光谱反射率改善了穗生物量的评估精度,R2高达0.84,rRMSE为8.68%,此模型能够在不同种植年间迁移,进一步利用模型更新添加10%新样本能够改善模型迁移能力。基于PSO-SVM分类模型,联合可见光图像的颜色和纹理以及多光谱图像的光谱反射率也准确地识别稻穗倒伏,准确率达99.87%。上述研究结果证明了无人机遥感用于水稻稻穗表型监测的可行性,可为作物精准管理和智慧育种提供决策支持。  相似文献   

8.
温室植物生长状况的实时监测可为生产管理提供科学的决策支持。为开发实时监测中的机器视觉技术,该文选定生菜为研究对象,从单株和群体两个角度构建生菜生长势图像检测法。采集自然光条件下生菜整个生命周期俯视及侧视两类序列图像样本,并同步人工实测生菜生长势的动态数据样本,探讨生长势的图像检测指标与人工实测综合指标之间的相关性。对于单株生菜,通过CCD相机获取其投影图像及水平面两垂直方向侧视图像。就投影图像分割,为提高算法运行效率,将图像由RGB模型转换到HSI模型并提取H分量图像,再运用自动阈值法进行图像二值化处理,可测得单株生菜的投影面积。由于侧视图像背景较复杂,故联合使用K-means彩色图像分割法及伪彩色图像处理方法,获得生菜株高值。同时手工测量表达单株生菜生长势的叶片数、株高、x轴和y轴方向生菜植株的最大宽度、生菜植株某选定叶片的长和宽等6个指标,用主成分分析法从中提取出总生长势信息。将该值作为因变量,图像测得的投影面积和株高值作为自变量并进行回归分析。结果表明,模型的显著性检验概率均小于0.0001,除第4株生菜外,其余模型的决定系数均大于0.80,说明模型极显著且具有较高的拟合精度。对于群体生菜,预试验发现其侧视图像难以准确表达群体生菜生长势信息,故只考虑投影图像,其分割方法与单株生菜侧视图像相同。从中可计算得到群体生菜覆盖指数,再手工测量并算得群体生菜体积指数,以体积指数为因变量,以覆盖指数为自变量建模并进行回归分析。结果表明,模型显著性检验概率均小于0.0001,且决定系数均大于0.89,覆盖指数较好地表达了群体生菜生长势信息。故用图像检测获得的生菜投影面积、株高、群体覆盖指数等三项指标表征生菜生长势一方面具有科学性和可行性,在植物生长状况实时监测领域具有潜在的应用价值,另一方面,其图像分割方法和数据统计方法也可为植物生长状况实时监测等提供一定的借鉴和参考。  相似文献   

9.
倒伏是造成小麦减产和品质下降的主要原因之一。为快速准确地提取小麦倒伏面积,给农业保险理赔及灾后应急处置提供数据支持,该研究采用无人机遥感平台获取小麦倒伏后的冠层红绿蓝(Red-Green-Blue, RGB)可见光图像,并进行数字表面模型(Digital Surface Model,DSM)图像提取,计算了过绿植被(Excess Green, EXG)指数,利用Arc GIS中的镶嵌工具将不同图像特征进行融合,得到DSM+RGB融合图像和DSM+EXG融合图像,利用最大似然法和随机森林法对2种特征融合图像进行监督分类提取小麦倒伏面积,并与仅基于RGB可见光图像和DSM图像提取倒伏面积结果对比。结果表明,2种方法对4种图像进行小麦倒伏面积提取的整体趋势一致,且最大似然法提取效果整体优于随机森林法,基于最大似然法对RGB图像、DSM图像、DSM+RGB特征融合图像、DSM+EXG特征融合图像提取倒伏小麦面积的整体精度分别为77.21%、93.37%、93.75%和81.78%,Kappa系数分别为0.54、0.86、0.87和0.64,对比分析发现DSM+RGB特征融合图像提取小麦倒伏面积精度最高。该研究表明通过图像特征融合的方法能够有效提取倒伏小麦信息,为快速提取小麦倒伏面积提供参考。  相似文献   

10.
叶面积指数(LAI,leaf area index)和地上部生物量是评价冬小麦长势的重要农学参数,其实时动态监测对冬小麦的长势诊断、产量预测和管理调控等具有重要意义。该研究通过分析叶面积指数、地上部生物量与冬小麦冠层光谱参数的相关性,筛选出冬小麦长势指标敏感波段及最佳带宽范围;基于敏感光谱波段下图像的彩色因子,构建冬小麦叶面积指数和地上部生物量监测模型。结果表明,叶面积指数、地上部生物量长势指标的敏感波段及最佳带宽范围为(560±6)和(810±10)nm。敏感波段560、810 nm波段下获得的图像特征因子中,RGB颜色空间R810、G560、B810对叶面积指数的拟合效果最好,决定系数高达0.989;HSI颜色空间H810、S810、I560对地上部生物量的拟合效果最好,决定系数为0.937。试验数据检验表明,叶面积指数、地上部生物量监测模型的均方根误差RMSE分别为0.4515、3.3556,相对误差分别为15.7%、15.9%,所构建监测模型的精确度较高。因此,基于敏感光谱波段及相应图像特征构建的监测模型可有效对冬小麦叶面积指数、地上部生物量进行实时、快速、准确监测与诊断。  相似文献   

11.
作物蒸散量测量与估算在农业方面有着重要作用,而当前对于作物蒸散量的估算主要以试验的方式进行,有一定局限性,且测量面积小,与实际应用还有一定距离。针对以上问题,该文在已有24座小型称重式蒸渗仪基础上,集成RGB成像传感器、多光谱成像传感器和二维激光扫描仪于一体,配合龙门架进行移动控制,构建称重式蒸渗仪植物表型监测系统,实现18 m~2植物生长过程中的RGB、红(668 nm)、绿(560 nm)、蓝(475 nm)、红边(717 nm)、近红外(840 nm)图像信息和植株高度信息的自动监测。最后通过试验,在已设定好的常用速度下,系统单趟运行用时142 s,可采集28组RGB、多光谱图像及所有植株高度信息,速度相对误差在1.8%~6.0%之间。通过对获取的夏玉米多光谱图像和激光扫描仪数据信息分析,系统能够可靠获取归一化差异植被指数等作物指数及植株高度信息。并结合气象站数据,对冬小麦主要耗水期的RGB图像进行分析,对其蒸散量进行了估计,与蒸渗仪获取的实际蒸散量对比,其平均相对误差为16.62%。该系统为大面积作物蒸散量的实时监测和精确诊断以及作物生长状况研究提供有效技术与装备支撑。  相似文献   

12.
基于改进HRNet的单幅图像苹果果树深度估计方法   总被引:1,自引:1,他引:0  
龙燕  高研  张广犇 《农业工程学报》2022,38(23):122-129
针对苹果自动采收获取果树深度信息的实际需求,以及目前单幅图像深度估计算法存在的空间分辨率低和边缘模糊问题,提出一种基于改进高分辨率网络(High-Resoultion Net, HRNet)的单幅图像苹果果树深度估计模型。首先基于HRNet构建多分支并行的编码器网络,提取多尺度特征,并通过引入密集连接机制强化特征传递过程中的连续性;为了减少冗余特征造成的噪声干扰,使用卷积注意力模块在通道及像素层级对融合特征进行重标定,强化特征图结构信息。在解码器网络中,使用条纹细化模块自适应地优化特征图的边界细节信息,突出边缘特征,改善边缘模糊问题,最后经上采样生成深度图。在NYU Depth V2公共数据集和果园深度数据集上进行试验。试验结果表明,引入密集连接机制,添加卷积注意力模块、条纹细化模块均能提升模型性能。提出的改进HRNet网络在果园深度数据集上的平均相对误差、均方根误差、对数平均误差、深度边缘准确误差和边缘完整性误差分别为0.123、0.547、0.051、3.90和10.76,在不同阈值下的准确率达到了0.850、0.975、0.993;在主观视觉上,改进HRNet网络生成的深度图有清晰的边缘以及较多的纹理细节。本文方法在客观指标和主观效果上均有良好的表现。  相似文献   

13.
在蝴蝶兰(Phalaenopsis aphrodite)产业中,种苗在达到最短营养栽培时长时的生长势在其后续的栽培链和最终的经济利润中起着重要的作用。当前在商业大型温室中主要采取人工方式对每株种苗进行评估,既费时又费力。基于RGB图像进行植物生长评估的相关研究依赖于从图像中手动提取人工定义的特征,从而影响了机器学习模型的有效性和泛化能力。本研究使用卷积神经网络(Convolutional Neural Network,CNN)来探讨其以端对端方式评估温室中蝴蝶兰种苗生长势的可行性。对在温室中采集的图像数据集,采用不同的CNN架构(VGG、ResNet和Inception-v3)结合不同的训练机制(从头训练、微调、特征提取)建立基准模型,其中微调取得了最佳的分类结果。考虑到本研究的目标任务是对具有复杂图像背景的单个温室种苗的形态分类,为进一步提高模型性能,在可控的实验室条件下采集了更多的种苗图像。实验室图像进行背景分割后,用于协助模型更好地学习植株的形态,即建立增强模型。与基准模型相比,2种增强方式总体上在温室测试集的F1-score取得了0.03~0.05的提升。采用增强方式II的VGG模型取得了最高的性能(温室测试集上的F1-score为0.997),并对该模型的特征图进行可视化。在高层特征图中,目标种苗区域被激活,同时滤除了大部分背景(包括相邻种苗的叶片),进一步证明了能够采用CNN对温室种苗进行有效的形态学习和刻画。总体结果表明,深度学习模型可用于基于图像的蝴蝶兰种苗生长势评估,并且可扩展用于温室下其他植物类型的生长评估。  相似文献   

14.
基于无人机图像分割的冬小麦叶绿素与叶面积指数反演   总被引:2,自引:1,他引:1  
叶绿素含量与叶面积指数是反映作物长势的重要理化参数,准确、高效定量估计小麦叶绿素含量与叶面积指数对于产量预测和田间管理决策具有重要意义,无人机(Unmanned Aerial Vehicle,UAV)遥感影像具有高空间分辨率的优势,被广泛应用于作物理化参数反演,但现有叶绿素含量与叶面积指数反演模型受土壤、阴影等背景噪声...  相似文献   

15.
图像语义分割作为计算机视觉领域的重要技术,已经被广泛用于设施环境下的植物表型检测、机器人采摘、设施场景解析等领域。由于温室环境下未成熟番茄果实与其茎叶之间具有相似颜色,会导致图像分割精度不高等问题。本研究提出一种基于混合Transformer编码器的“RGB+深度”(RGBD)双模态语义分割模型DFST(depth-fusion semantic transformer),试验在真实温室光照情况下获得深度图像,对深度图像做HHA编码并结合彩色图像输入模型进行训练,经过HHA编码的深度图像可以作为一种辅助模态与RGB图像进行融合并进行特征提取,利用轻量化的多层感知机解码器对特征图进行解码,最终实现图像分割。试验结果表明,DFST模型在测试集的平均交并比可达96.99%,对比不引入深度图像的模型,其平均交并比提高了1.37个百分点;对比使用卷积神经网络作为特征提取主干网络的RGBD语义分割模型,其平均交并比提高了2.43个百分点。结果证明,深度信息有助于提高彩色图像的语义分割精度,可以明显提高复杂场景语义分割的准确性和鲁棒性,同时也证明了Transformer结构作为特征提取网络在图像语义分割中也表现出了良好的性能,可为温室环境下的番茄图像语义分割任务提供解决方案和技术支持。  相似文献   

16.
基于深度掩码的玉米植株图像分割模型   总被引:4,自引:4,他引:0  
随着深度学习技术在植物表型检测领域的应用,有监督深度学习逐渐成为植物表型信息的提取与分析的主要方法。但由于植物结构复杂、细节特征多,人工标注的成本和质量问题已成为制约技术发展的瓶颈。该研究针对玉米苗期植株图像分割问题提出一种基于深度掩码的卷积神经网络(Depth Mask Convolutional Neural Network,DM-CNN),将深度图像自动转换深度掩码图像,并替代人工标注样本完成图像分割网络训练。试验结果表明,在相同的网络训练参数下,通过测试DM-CNN得到的平均交并比为59.13%,平均召回率为65.78%,均优于人工标注样本对应的分割结果(平均交并比为58.49%,平均召回率为64.85%);此外,在训练样本中加入10%室外玉米苗期图像后,DM-CNN对室外测试集的平均像素精度可以达到84.54%,证明DM-CNN具有良好的泛化能力。该研究可为高通量、高精度的玉米苗期表型信息获取提供低成本解决方案及技术支持。  相似文献   

17.
玉米果穗的表型参数是玉米生长状态的重要表征,生长状况的好坏直接影响玉米产量和质量。为方便无人巡检机器人视觉系统高通量、自动化获取玉米表型参数,该研究基于YOLACT(you only look at coefficients)提出一种高精度-速度平衡的玉米果穗分割模型SwinT-YOLACT。首先使用Swin-Transformer作为模型主干特征提取网络,以提高模型的特征提取能力;然后在特征金字塔网络之前引入有效通道注意力机制,剔除冗余特征信息,以加强对关键特征的融合;最后使用平滑性更好的Mish激活函数替换模型原始激活函数Relu,使模型在保持原有速度的同时进一步提升精度。基于自建玉米果穗数据集训练和测试该模型,试验结果表明,SwinT-YOLACT的掩膜均值平均精度为79.43%,推理速度为35.44帧/s,相较于原始YOLACT和其改进算法YOLACT++,掩膜均值平均精度分别提升了3.51和3.38个百分点;相较于YOLACT、YOLACT++和Mask R-CNN模型,推理速度分别提升了3.39、2.58和28.64帧/s。该模型对玉米果穗有较为优秀的分割效果,适于部署在无人巡检机器人视觉系统上,为玉米生长状态监测提供技术支撑。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号