排序方式: 共有18条查询结果,搜索用时 187 毫秒
11.
12.
基于深度语义分割的无人机多光谱遥感作物分类方法 总被引:5,自引:0,他引:5
为精准获取农田作物种植分布信息以满足农业精细化管理需求,基于Deep Lab V3+深度语义分割网络提出了一种面向无人机多光谱遥感影像的农田作物分类方法。通过修改输入层结构、融合多光谱信息和植被指数先验信息、并采用Swish激活函数优化模型,使网络在响应值为负时仍能反向传播。基于2018—2019年连续2年内蒙古自治区河套灌区沙壕渠灌域的无人机多光谱遥感影像,在2018年数据集上构建并训练模型,在2019年数据集上测试模型的泛化性能。结果表明,改进的Deep Lab V3+模型平均像素精度和平均交并比分别为93.06%和87.12%,比基于人工特征的支持向量机(Support vector machine,SVM)方法分别提高了17.75、20.8个百分点,比Deep Lab V3+模型分别提高了2.56、2.85个百分点,获得了最佳的分类性能,且具有较快的预测速度。采用本文方法能够从农田作物遥感影像中学习到表达力更强的语义特征,从而获得准确的作物分类结果,为利用无人机遥感影像解译农田类型提供了一种新的方法。 相似文献
13.
基于改进CenterNet的玉米雄蕊无人机遥感图像识别 总被引:2,自引:0,他引:2
为准确识别抽雄期玉米雄蕊实现监测玉米长势、植株计数和估产,基于无锚框的CenterNet目标检测模型,通过分析玉米雄蕊的尺寸分布,并在特征提取网络中添加位置坐标,从而提出一种改进的玉米雄蕊识别模型。针对雄蕊尺寸较小的特点,去除CenterNet网络中对图像尺度缩小的特征提取模块,在降低模型参数的同时,提高检测速度。在CenterNet特征提取模型中添加位置信息,提高定位精度,降低雄蕊漏检率。试验结果表明,与有锚框的YOLO v4、Faster R-CNN模型相比,改进的CenterNet雄蕊检测模型对无人机遥感影像的玉米雄蕊识别精度达到92.4%,分别高于Faster R-CNN和YOLO v4模型26.22、3.42个百分点;检测速度为36f/s,分别比Faster R-CNN和YOLO v4模型高32、23f/s。本文方法能够准确地检测无人机遥感图像中尺寸较小的玉米雄蕊,为玉米抽雄期的农情监测提供参考。 相似文献
14.
以xhg,xn 12,wn 14等3种黄玉米和white corn白玉米品种为研究对象,分析了玉米籽粒的形态特征,提取与玉米籽粒的颜色、形状、尺寸等有关的6个形态结构参数,用BP人工神经网络方法进行了训练识别,结果表明,其对4个玉米品种的综合识别率为93%。 相似文献
15.
基于稀疏表示的大米品种识别 总被引:4,自引:3,他引:1
为了实现机器视觉准确判别大米品种,提出了一种基于稀疏表示的大米品种识别方法。以长江米、圆江米、粳米、泰国香米、红香米和黑米等6种大米籽粒图像作为研究对象,采用颜色和形态结构参数表示单个籽粒。每种大米随机选取50粒作为训练样本,200粒作为测试样本。所有训练样本组成稀疏表示方法的数据词典,对每一个测试样本,计算其在数据词典上的投影,将具有最小投影误差的类作为测试样本所属的品种。最后将提出的方法与BP网络和SVM的识别结果做了对比和分析。试验结果表明,提出的方法对于6个大米品种的综合识别准确率为99.6%,获得了最好的分类效果。为大米品种的识别提供了一种新的有效方案。 相似文献
16.
【目的】运用高光谱成像技术检测成熟期酿酒葡萄果皮的花色苷含量。【方法】利用900~1 700 nm近红外高光谱成像和多元回归模型对多品种酿酒葡萄成熟期不同阶段果皮花色苷含量进行预测建模。采集成熟期4~5个阶段的6个品种共75组酿酒葡萄样本的高光谱图像,运用不同预处理方法对光谱数据进行处理。基于主成分分析(PCA)和连续投影法(SPA)降维,将化学方法测量结果作为花色苷含量的参考值,采用支持向量回归(SVR)建立花色苷含量预测模型。【结果】SPA-SVR模型性能优于其他模型,其预测决定系数(R_p~2)为0.869 1,均方根误差(RMSEp)为0.135 9。【结论】将近红外高光谱成像技术应用于多品种成熟期酿酒葡萄果皮的花色苷含量的快速无损检测具有良好的可行性。 相似文献
17.
遥感技术能够获取大区域下冬小麦的空间分布,为冬小麦估产提供良好基础。基于2020年5月4日的高分2号多光谱卫星影像,构建包含光谱特征和植被指数的数据集,并通过改进UPerNet模型的上采样结构、激活函数以及增加注意力模块来优化模型提取冬小麦效果。选取杨凌示范区2块地物类型丰富地区作为研究区域,以此探究方法的可行性;然后基于最优方法,提取杨凌区冬小麦种植区域。研究区域结果表明,与仅使用光谱信息作为模型输入特征相比,基于多光谱和植被指数的分类效果更好。在融合光谱特征和植被指数的数据集上,改进的UPerNet模型分类精度最高,冬小麦提取精度为97.78%,总体分类精度相比于改进前的UPerNet提升了2.49%,对比DeepLab V3+提升了3.48%。基于改进方法,实现了杨凌示范区的冬小麦种植区提取;通过实地调查以及对比统计年鉴数据的方式,验证了杨凌示范区冬小麦空间分布与实际情况基本一致。改进后的UPerNet模型能够有效区分遥感数据中的地物类别,提升冬小麦种植区域提取精度,也为基于卫星影像获取冬小麦空间分布提供了技术支持。 相似文献
18.
大田环境下小麦种植行的识别与定位对农机田间喷药和除草等任务的导航作业具有重要意义。以分蘖期和拔节期的冬小麦无人机可见光遥感影像为研究数据,结合深度语义分割和霍夫变换直线检测,提出了一种多生育期小麦种植行检测方法。采用SegNet深度语义分割提取小麦种植区域,克服传统检测方法对光照敏感的同时提高检测精度。基于霍夫变换的小麦种植行预检测结果,提出采用二分k均值聚类进一步提炼检测结果,以识别出小麦种植行区域的中心线。实验结果表明,对于分蘖期和拔节期的冬小麦图像,种植行直线平均位置偏差的绝对值分别为0.55、0.11 cm;平均角度偏差的绝对值分别为0.001 1、0.000 37 rad,检测精度与直线漏检率等指标都显著优于传统方法。研究结果为智能农机导航作业中的作物种植行检测提供了方法支持。 相似文献