首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 125 毫秒
1.
为应用高分辨率遥感影像和卷积神经网络模型快速提取柑橘园空间信息,选择四川省柑橘重点产区蒲江县为研究区,以高分辨率Google earth图像为数据源,构建3类不同树龄的柑橘园样本数据集,训练U-net和DeepLabv3+语义分割模型,提取柑橘园空间信息。通过验证,具有不同神经网络结构的U-net和DeepLabv3+模型提取柑橘园信息总体精度分别为88.30%和86.79%,Kappa系数为0.75和0.72,二者精度相当;通过分析小地块的果园遥感识别精度,测试区最小识别图斑面积约为120 m2,大于该面积的果园遥感面积平均精度在85%以上。该研究可为经营者、农业部门使用高分辨率遥感影像和开源的深度学习分类工具快速获取果园空间信息提供参考。  相似文献   

2.
基于卷积神经网络的无人机遥感农作物分类   总被引:3,自引:0,他引:3  
针对采用长时间序列卫星影像、结合物候特征进行农作物精细分类识别精度较低的问题,将深度学习用于无人机遥感农作物识别,提出一种基于卷积神经网络的农作物精细分类方法,利用卷积神经网络提取高分辨率遥感影像中的农作物特征,通过调整网络参数及样本光谱组合,进一步优化网络结构,得到农作物识别模型。研究结果表明:卷积神经网络能够有效地提取影像中的农作物信息,实现农作物精细分类。除地块边缘因农作物种植稀疏、混杂而产生少许错分现象外,其他区域均得到较好的分类效果。经训练优化后的模型对3种农作物总体分类精度可达97.75%,优于SVM、BP神经网络等分类算法。  相似文献   

3.
基于卷积注意力的无人机多光谱遥感影像地膜农田识别   总被引:1,自引:0,他引:1  
监测地膜覆盖农田的分布对准确评估由其导致的区域气候和生态环境变化有着重要作用,基于DeepLabv3+网络,通过学习面向地膜语义分割的通道注意力和空间注意力特征,提出一种适用于判断农田是否覆膜的改进深度语义分割模型,实现对无人机多光谱遥感影像中地膜农田的有效分割。以内蒙古自治区河套灌区西部解放闸灌区中沙壕渠灌域2018—2019年4块实验田的无人机多光谱遥感影像为研究数据,与可见光遥感影像的识别结果进行对比,同时考虑不同年份地膜农田表观的变化,设计了2组实验方案,分别用于验证模型的泛化性能和增强模型的分类精度。结果表明,改进的DeepLabv3+语义分割模型对多光谱遥感影像的识别效果比可见光高7.1个百分点。同时考虑地膜农田表观变化的深度语义分割模型具有更高的分类精度,其平均像素精度超出未考虑地膜农田表观变化时7.7个百分点,表明训练数据的多样性有助于提高地膜农田的识别精度。其次,改进的DeepLabv3+语义分割模型能够自适应学习地膜注意力,在2组实验中,分类精度均优于原始的DeepLabv3+模型,表明注意力机制能够增加深度语义分割模型的自适应性,从而提升分类精度。本文提出的方法能够从复杂的场景中精准识别地膜农田。  相似文献   

4.
基于改进CenterNet的玉米雄蕊无人机遥感图像识别   总被引:2,自引:0,他引:2  
为准确识别抽雄期玉米雄蕊实现监测玉米长势、植株计数和估产,基于无锚框的CenterNet目标检测模型,通过分析玉米雄蕊的尺寸分布,并在特征提取网络中添加位置坐标,从而提出一种改进的玉米雄蕊识别模型。针对雄蕊尺寸较小的特点,去除CenterNet网络中对图像尺度缩小的特征提取模块,在降低模型参数的同时,提高检测速度。在CenterNet特征提取模型中添加位置信息,提高定位精度,降低雄蕊漏检率。试验结果表明,与有锚框的YOLO v4、Faster R-CNN模型相比,改进的CenterNet雄蕊检测模型对无人机遥感影像的玉米雄蕊识别精度达到92.4%,分别高于Faster R-CNN和YOLO v4模型26.22、3.42个百分点;检测速度为36f/s,分别比Faster R-CNN和YOLO v4模型高32、23f/s。本文方法能够准确地检测无人机遥感图像中尺寸较小的玉米雄蕊,为玉米抽雄期的农情监测提供参考。  相似文献   

5.
基于深度语义分割的无人机多光谱遥感作物分类方法   总被引:5,自引:0,他引:5  
为精准获取农田作物种植分布信息以满足农业精细化管理需求,基于Deep Lab V3+深度语义分割网络提出了一种面向无人机多光谱遥感影像的农田作物分类方法。通过修改输入层结构、融合多光谱信息和植被指数先验信息、并采用Swish激活函数优化模型,使网络在响应值为负时仍能反向传播。基于2018—2019年连续2年内蒙古自治区河套灌区沙壕渠灌域的无人机多光谱遥感影像,在2018年数据集上构建并训练模型,在2019年数据集上测试模型的泛化性能。结果表明,改进的Deep Lab V3+模型平均像素精度和平均交并比分别为93.06%和87.12%,比基于人工特征的支持向量机(Support vector machine,SVM)方法分别提高了17.75、20.8个百分点,比Deep Lab V3+模型分别提高了2.56、2.85个百分点,获得了最佳的分类性能,且具有较快的预测速度。采用本文方法能够从农田作物遥感影像中学习到表达力更强的语义特征,从而获得准确的作物分类结果,为利用无人机遥感影像解译农田类型提供了一种新的方法。  相似文献   

6.
基于无人机多光谱影像特征的最佳波段组合研究   总被引:4,自引:0,他引:4  
针对卫星遥感影像分辨率低、时间周期长、波段冗余信息多等问题,利用无人机多光谱数据获取便捷、成本低、周期短的优势,以玛纳斯河畔为研究区,使用固定翼无人机搭载Micro MCA12 Snap多光谱传感器获取高分辨率多光谱影像。通过对多光谱影像数据标准差及相关性进行分析排序,结合OIF方法得到原始波段最佳组合,使用多种植被及水体指数、主成分分析、灰度共生矩阵确定信息量最大的光谱特征与纹理特征波段,提出将光谱特征、纹理特征信息与最佳波段指数结合的方法来确定地物分类最佳波段组合。实验结果表明,针对Micro MCA12 Snap多光谱传感器,可选择波段1、6、11、NDVI、NDWI以及灰度共生矩阵中的Mean参量作为其地物分类的最佳波段组合。感兴趣区域内非监督IsoData分类精度从83.57%提升到89.80%,监督的SVM分类精度从95.58%提升到99.76%。研究结果可为无人机多光谱遥感最佳波段组合选择提供借鉴和参考。  相似文献   

7.
为研究激光雷达单木分割辅助条件下无人机可见光图像树种识别应用潜力,提出联合卷积神经网络(CNN)和集成学习(EL)的树种识别方法。首先利用同期无人机激光雷达数据和可见光影像数据进行单木树冠探测并制作单木树冠影像数据集;其次引入ResNet50网络并结合引入有效通道注意力机制、替换膨胀卷积、调整卷积模块层数搭建出4个卷积神经网络,使用ImageNet大型数据集进行模型预训练,加载预训练参数进行模型初始化并利用制作的单木树冠影像数据集训练出5个不同的分类模型;最后通过相对多数投票法建立集成模型。实验结果表明,单木探测总体精度达到83.80%,集成学习的训练精度、验证精度、独立测试精度分别达到了99.15%、98.34%和90.15%,较ResNet50网络提高了4.23、3.04、9.09个百分点,独立测试精度较随机森林分类最优结果高32.31个百分点。激光雷达单木分割辅助条件下利用卷积神经网络和集成学习策略能够充分提取无人机图像特征用于树种识别。  相似文献   

8.
赤霉病是影响小麦产量和品质的主要病害之一。为快速、有效地监测小麦赤霉病的发生情况,利用数码相机对人工接种赤霉病菌的小麦田进行RGB图像获取,在图像预处理基础上,对Deeplabv3+网络模型进行调参和训练。以轻量化网络MobileNet V2为网络编码模块,利用空洞卷积技术建立基于深度学习网络的小麦赤霉病发病麦穗的识别与检测模型,并用实测数据对模型进行验证和评价。结果表明,该模型的平均精度为0.969 2,损失函数Loss为0.103 0,平均交并比MIoU为0.793,模型识别与检测效果较好。上述结果为小麦赤霉病的检测与识别提供新的手段。  相似文献   

9.
基于深度学习的大棚及地膜农田无人机航拍监测方法   总被引:5,自引:0,他引:5  
随着精准农业技术的发展,快速获取大棚和地膜农田面积及地理分布的需求越来越大,但沿用面向卫星遥感影像的解译方法处理无人机航拍影像,存在特征选择复杂、识别精度较低、处理时间长等问题。基于此,本文提出一种基于深度学习的大棚及地膜农田无人机航拍监测方法,即采用六旋翼无人机搭载索尼NEX-5k相机进行航拍作业,对采集到的558幅赤峰市王爷府镇地区的无人机航片进行正射校正与拼接,构建全卷积神经网络(Fully convolutional network,FCN),通过多尺度融合的方法实现了FCN的5个变种模型:FCN-32s、FCN-16s、FCN-8s、FCN-4s、FCN-2s,使用带动量的随机梯度下降算法端到端训练模型,自动提取并分类影像特征。FCN模型与ENVI商用遥感软件的基于像素的分类方法、e Cognition软件的面向对象的分类方法对比后表明:FCN-4s模型为识别大棚和地膜农田的最佳模型,对于测试区域的平均整体正确率为97%,而基于像素的分类方法平均整体正确率为74.1%,面向对象的分类方法平均整体正确率为81.78%。FCN-4s模型平均运行时间为16.85 s,是基于像素的分类方法运行时间的0.06%,是面向对象的分类方法运行时间的5.62%。本方法可快速准确获取大棚和地膜农田的地理分布及面积,满足设施农业对无人机航拍监测的需求。  相似文献   

10.
为了探索运用无人机多光谱遥感技术监测高潜水位矿区采煤扰动下原有生态系统破坏及地表耕地损毁程度的方法。以高潜水位矿区开采沉陷导致地面积水所引起的农作物渍害影响为例,基于无人机多光谱影像,在传统植被指数的基础上引入红边波段进行扩展,优选了22种植被指数,结合田间同步实测生物量数据,采用经验模型法分别构建了一元回归、基于最小二乘法的多元逐步回归(Multivariable linear regression,MLR)、反向传播神经网络(Back propagation neural networks,BPNN)的生物量反演模型,通过决定系数(R2)、均方根误差(RMSE)和估测精度(EA)3个指标筛选出最佳模型。最后基于最佳模型进行研究区玉米生物量的空间分布反演和分析,结果显示:所选的植被指数均与生物量显著相关,其中,最终采用的BP模型的估算精度最高,该模型决定系数R2为0.83,增加了0.10~0.17,预测均方根误差RMSE为178.72 g/m2,减少了29.65~60.23g/m~2,估测精度EA最终可达到79.4%,提高了3.3%~7.1%。说明红边波段更适于采煤沉陷区作物的生物量的估算,引入红边波段构建生物量反演模型,可以显著提高采煤沉陷影响下玉米生物量无人机遥感反演模型的精度。结果表明:研究区内采煤沉陷盆地内玉米生物量主要集中于592~1050g/m~2,面积占研究区的74.4%,地表生物量低于352 g/m~2的作物面积达到14.1%,玉米整体长势受采煤扰动影响较严重,玉米生物量呈现从沉陷盆地边缘往中心逐渐降低的趋势。该研究同类型其他高潜水位矿区土地损毁监测与评价、土地复垦与生态修复等提供基础数据与理论支撑。  相似文献   

11.
为了实现复杂环境下农业机器人对番茄果实的快速准确识别,提出了一种基于注意力机制与改进YOLO v5s的温室番茄目标快速检测方法。根据YOLO v5s模型小、速度快等特点,在骨干网络中加入卷积注意力模块(CBAM),通过串联空间注意力模块和通道注意力模块,对绿色番茄目标特征给予更多的关注,提高识别精度,解决绿色番茄在相似颜色背景中难识别问题;通过将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高果实目标定位精度。试验结果表明,CB-YOLO网络模型对温室环境下红色番茄检测精度、绿色番茄检测精度、平均精度均值分别为99.88%、99.18%和99.53%,果实检测精度和平均精度均值高于Faster R-CNN模型、YOLO v4-tiny模型和YOLO v5模型。将CB-YOLO模型部署到安卓手机端,通过不同型号手机测试,验证了模型在移动终端设备上运行的稳定性,可为设施环境下基于移动边缘计算的机器人目标识别及采收作业提供技术支持。  相似文献   

12.
苹果和番茄是日常生活非常常见的果蔬,准确地识别病害能够提升作物产量,减少经济损失。针对现有的植物病害检测方法不能准确且快速地检测植物叶片中病害区域的问题,设计一种基于改进Yolov5的深度学习方法,用于检测苹果、番茄叶片常见病害。通过数据增强和图像标注技术构建苹果、番茄叶片病害数据集,利用K means算法对初始锚框进行调整,在此基础上使用复合主干网增强Yolov5主干网对病害特征的提取能力,使用Varifocal Loss函数提高对密集感染区域的识别精度。试验结果表明:改进后的Yolov5病害检测算法mAP达到95.7%,在原来Yolov5模型基础上mAP提升1.7%,平均检测一张图像耗时0.033 s,为苹果、番茄叶片病害检测提供一种高性能的解决方案,能够以较高的准确率对植物叶片病害进行分类与定位。  相似文献   

13.
基于改进YOLOv3网络模型的茶草位置检测算法   总被引:1,自引:0,他引:1  
精准高效的茶草识别是智能茶园植保机械进行除草工作的关键。针对目前茶园除草智能化程度较低等问题,提出改进YOLOv3网络模型的茶草检测算法。首先,分季节和时间段,在多个茶叶品种的种植园中以自适应的距离和角度采集茶草混合图像并建立试验数据集。接着,使用K均值聚类算法重新设计先验锚框尺度。然后,以YOLOv3网络模型为基础,选取17×17的网格划分图像区域;采用残差网络(ResNet)作为主干网;加入过程提取层,增强草株检测性能。最后在原损失函数中引入广义交并比损失。通过消融试验和不同目标检测算法对比试验验证此改进算法对茶树与杂草的检测效果。试验结果表明,改进 YOLOv3网络模型对杂草的检测精确率和召回率分别为85.34%和91.38%,对茶树的检测精确率和召回率最高达到82.56%和90.12%;与原YOLOv3网络模型相比,检测精确率提高8.05%,并且每秒传输帧数达到52.83 Hz,是Faster R-CNN网络模型的16倍。这些数据说明所提算法在茶园复杂环境下,不仅对于茶树和杂草具有更好的识别效果,而且满足实时检测的要求,可以为智能茶园植保机械提供技术支持。  相似文献   

14.
单株玉米的株心识别是完成按株作业的关键,可用于对单株玉米进行变量施肥,提高施肥利用率。本文首先采用超绿因子增强苗期玉米植株,使玉米植株与土壤、阴影分离,将增强后的图像用Ostu法自动确定图像的最佳阈值,以便于在分割苗期玉米图像时不受阴影的影响,并能分割出苗期玉米植株。然后把分割的苗期玉米植株图像的亮度看作是一维坐标,绘制玉米植株的高程图,玉米植株的中心区域在高程图呈现为集水盆形状。采用水平集确定玉米植株的中心区域并对玉米植株中心进行定位,并结合分治法搜索玉米植株的极小值区域,降低了数据结构的规模。数据验证结果表明,算法识别率可达96%,保证了算法的实时性与可行性。另外,采用分治法与水平集法相结合确定玉米植株的中心区域,使该算法不受天气因素的影响,提高了该算法在田间作业时的鲁棒性。算法时间复杂度计算结果为O(lgn),能够满足田间作业的实时性。  相似文献   

15.
基于改进ResNet的植物叶片病虫害识别   总被引:1,自引:0,他引:1  
轻量化植物叶片病虫害识别算法设计是实现移动端植物叶片病虫害识别的关键。研究提出一种基于改进ResNet模型的轻量化植物叶片病虫害识别算法Simplify ResNet。以人工采集图像和PlantVillage数据集图像为实验数据,根据移动端植物病虫害识别对准确率、速度和模型大小的实际需求,改进ResNet模型。使用5×5卷积替代7×7卷积,采用残差块的瓶颈结构代替捷径结构,采用模型剪枝处理训练后的模型。通过测试集5 786幅图像测试Simplify ResNet模型,证明5×5卷积和残差块的瓶颈结构可有效降低模型参数量,模型剪枝可有效降低训练后的模型大小。Simplify ResNet模型对测试集图像的识别准确率为92.45%,识别时间为48 ms,内存大小为36.14 Mb。与LeNet、AlexNet和MobileNet等模型相比,其准确率分别高18.3%,7.45%和1.2%。为移动端植物病虫害识别解决最重要的算法设计问题,为移动端植物病虫害识别做出有益探索。  相似文献   

16.
针对目前植物解剖表型的测量与分析过程自动化低,难以应对复杂解剖表型的提取和识别的问题,以柑橘主叶脉为研究对象,提出了一种基于掩膜区域卷积神经网络(Mask region convolutional neural network, Mask R-CNN)的主叶脉显微图像实例分割模型,以残差网络ResNet50和特征金字塔(Feature pyramid network, FPN)为主干特征提取网络,在掩膜(Mask)分支上添加一个新的感兴趣区域对齐层(Region of interest Align, RoI-Align),提升Mask分支的分割精度。结果表明,该网络架构能够精准地对柑橘主叶脉横切面中的髓部、木质部、韧皮部和皮层细胞进行识别分割。Mask R-CNN模型对髓部、木质部、韧皮部和皮层细胞的分割平均精确率(交并比(IoU)为0.50)分别为98.9%、89.8%、95.7%和97.2%,对4个组织区域的分割平均精确率均值(IoU为0.50)为95.4%。与未在Mask分支添加RoI-Align的Mask R-CNN相比,精度提升1.6个百分点。研究结果表明,Mask R-CN...  相似文献   

17.
基于多特征的杂草逆向定位方法与试验   总被引:1,自引:0,他引:1  
提出了一种基于多特征的杂草逆向定位方法。以田间作物作为研究对象,将多目标杂草定位问题转换为单目标的作物定位问题。采用作物叶片HU不变矩与形状特征的识别准确定位出每一株作物,然后基于颜色特征将作物区域以外的绿色植物均认定为杂草。设计了一款小型杂草定位装置,并应用在宽幅喷药机上。田间试验结果表明,在喷药机工作速度为5 km/h时,该系统对于大豆田间杂草识别的准确率为90%以上,较好地解决了杂草定位与精细喷洒农药问题。  相似文献   

18.
发芽与表面损伤检测是鲜食马铃薯商品化的重要环节。针对鲜食马铃薯高通量分级分选过程中,高像素图像目标识别准确率低的问题,提出一种基于改进Faster R-CNN的商品马铃薯发芽与表面损伤检测方法。以Faster R-CNN为基础网络,将Faster R-CNN中的特征提取网络替换为残差网络ResNet50,设计了一种融合ResNet50的特征图金字塔网络(FPN),增加神经网络深度。采用模型对比试验、消融试验对本文模型与改进策略的有效性进行了试验验证分析,结果表明:改进模型的马铃薯检测平均精确率为98.89%,马铃薯发芽检测平均精确率为97.52%,马铃薯表面损伤检测平均精确率为92.94%,与Faster R-CNN模型相比,改进模型在检测识别时间和内存占用量不增加的前提下,马铃薯检测精确率下降0.04个百分点,马铃薯发芽检测平均精确率提升7.79个百分点,马铃薯表面损伤检测平均精确率提升34.54个百分点。改进后的模型可以实现对在高分辨率工业相机采集高像素图像条件下,商品马铃薯发芽与表面损伤的准确识别,为商品马铃薯快速分级分等工业化生产提供了方法支撑。  相似文献   

19.
为解决自然光照环境下复杂背景葡萄叶片图像的自动分割问题,使用一种DeepLab v3+语义分割算法,完成对葡萄叶片分割。该算法采用ResNet 101作为主干网络进行特征抽取;采用空洞卷积和编码模块进行多尺度特征融合,将ResNet的中间信息和编码模块的特征组合作为解码输入;采用上采样的方式进行尺度还原,得到语义分割结果。采用Cityscapes的预训练模型,将300张不同环境下、不同类型的葡萄叶片照片作为训练集,以数据增强的方式进行数据扩容,提高模型的鲁棒性和泛化能力。试验结果证明:本方法有较好的分割效果,在数据增强的方式下精确度(ACC)平均值为98.6%,较全卷积神经网络提高7.3%。对不同类型葡萄叶片分割精确度(ACC)值均高于97%,最高可达98.8%,平均交并比(mIOU)值均高于94%,最高可达97.1%。本算法能够较精准地分割自然光照条件下的葡萄叶片图像,可为后续的病害检测和病斑提取提供参考。  相似文献   

20.
准确获取西兰花花球面积和新鲜度是确定其长势的关键步骤,本研究通过对深度残差网络ResNet进行改进得到一种新型的西兰花花球分割模型,并通过花球部位黄绿颜色占比判断其新鲜度,实现低成本高效准确地西兰花表型信息提取。主要技术流程包括:(1)基于地面自动影像获取平台拍摄西兰花花球正射影像并建立原始数据集;(2)对训练图像进行预处理并输入模型进行分割;(3)基于颜色信息用粒子群结构PSO和大津法Otsu对分割结果进一步进行阈值分割,获取其新鲜度指标。试验结果表明:本研究建立的分割模型精度优于传统深度学习模型和基于颜色空间变换和阈值分割模型,4个评价指标结构相似性指数(SSIM)、平均精度(Precision)、平均召回率(Recall)、F-度量(F-measure)结果分别为0.911、0.897、0.908和0.907,相比于传统方法提升了10%-15%,且对土壤反射率波动、冠层阴影、辐射强度变化等干扰具有一定的鲁棒性。同时,在分割结果的基础上采用PSO-Otsu法可以实现花球新鲜度快速分析,其精度超过了0.8。本研究结果实现了西兰花田间多表型参数的高通量获取,可以为作物田间长势监测研究提供重要参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号