首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 125 毫秒
1.
为实现对林区松材线虫病害病情的有效监控,提出基于超绿特征因子与最大类间方差法(ExG+Otsu)相结合的图像分割算法以及遥感全景图的病害程度分析方法。以小型无人机为飞行平台完成林区遥感影像采集,通过对林区图像中松材线虫病害松木地理信息的有效提取,在无人机遥感影像图中对病害松木的病害程度做出具体分析。经过对比,该方法识别精度达到90.4%,为林区开展松材线虫病防治工作提供了可靠的判别依据。  相似文献   

2.
为了提高奶牛乳房炎的检测精度,利用热红外图像测量奶牛关键部位温度,提出了一种奶牛眼睛和乳房自动定位算法。首先对奶牛热红外图像的灰度直方图进行分析,然后提取阈值分割后图像中的HSV(Hue,Saturation,Value)颜色特征和骨架特征,并基于HSV自动检测奶牛眼睛位置,计算骨架特征向量,用支持向量机(Support vector machine,SVM)分类技术自动检测奶牛乳房位置。为了验证定位算法的有效性,对随机选取的40头自然行走的奶牛进行试验验证,结果表明,本文提出的定位算法可以有效定位奶牛眼睛、乳房位置,其定位误差在20像素以内的视频帧识别精度为68. 67%。根据定位算法所获取的奶牛眼睛和乳房的温度差值进行奶牛乳房炎检测试验,通过温度阈值对奶牛乳房炎发病程度进行评级,并与体细胞计数法(Somatic cell count,SCC)检测结果进行对比,结果表明,等级1检测准确率为33. 3%,等级2检测准确率为87. 5%。本文研究结果能较准确获取奶牛自然行走状况下眼睛和乳房的位置和温度。  相似文献   

3.
利用无人机影像进行森林资源调查具有作业快速便捷、数据分辨率较高、影像细节丰富的特点,可较好地识别单木,获取树木位置、冠幅等信息。但是,厘米级的影像分辨率使基于光谱信息的传统分割算法在提取树冠时出现破碎化现象,产生过分割结果。同时,在非落叶季由于无人机影像难以观测到茂密林冠下层地形,故在地形起伏较大的林区难以实现基于树木冠层高度模型(CHM)的单木分割方法。针对上述问题,结合传统二维图像处理和Sf M三维建模,提出了一种无需高度归一化的无人机影像树冠三维分割提取算法,首先利用Sf M技术从高重叠航片建立三维表面模型,利用高程和图像信息检测初始树木位置,再采取k NN自适应邻域分水岭分割的方式对中心单木进行精确的树冠参数提取。在北京市百花山国家级自然保护区的落叶松林地进行了高分辨率无人机影像实验,采用正射影像目视解译结果和多种基于图像、点云的自动分割算法结果进行验证和评价。结果表明,本文方法对树木总体检出率在91%以上,冠幅提取精度在81%以上,优于传统的全局分水岭方法和其他树冠分割算法。  相似文献   

4.
基于加权支持向量数据描述的遥感图像病害松树识别   总被引:1,自引:0,他引:1  
利用安装在无人机平台上的双光谱相机所获取的可见光和近红外遥感图像,采用改进的加权支持向量数据描述多分类算法,实现病害松树识别.首先根据不同内容信息图像的特点,提取双光谱相机所获取的可见光图像和近红外图像各颜色分量作为相应像素点的颜色特征,再通过提取加窗图像块的灰度共生矩阵得到中心像素点的纹理特征,然后利用权重系数为每类样本分别作加权支持向量数据描述,实现松树状态的多输出分类识别,其中权重系数是通过建立关于训练样本中心距离的权重函数所确定.与传统的人工、航空和卫星遥感识别方法不同,利用无人机平台和双光谱相机获取遥感图像,具有可操作性强、费用低廉等优势.试验结果表明,相比传统的支持向量机和支持向量数据描述算法,改进的加权支持向量数据描述多分类算法更能准确地进行病害松树识别.  相似文献   

5.
针对无人机采集影像时不同地物最佳分辨率难以确定的问题,运用大疆M600Pro型无人机获取棉花蕾期可见光影像,结合地面调查采样数据,利用神经网络(Artificial neural networks,ANN)、支持向量机(Support vector machines,SVM)和随机森林(Random forest,RF)3种监督分类算法进行田间地物识别。分析不同分辨率(1.00、2.50、5.00、7.50、10.00cm)下对地物的识别精度,并结合算法运行时间,从分辨率、算法精度和运行时间上找到适合南疆田间尺度棉花田块地物识别的最佳分辨率和最优算法。试验结果表明:当空间分辨率为1.00cm时,SVM对地物的识别精度最高,总体精度与Kappa系数分别为99.857%和0.997。随着空间分辨率的降低,总体精度和Kappa系数呈下降趋势。当分辨率为2.50cm和5.00cm时,采用RF算法,运行时间最短,土地、棉花和滴灌带可获得较好的识别精度,总体精度与Kappa系数分别可达99.252%和0.986以上。当空间分辨率大于5.00cm时,总体精度和Kappa系数下降,滴灌带制图精度(Producer''s accuracy,PA)和用户精度(User''s accuracy,UA)下降最大。空间分辨率小于5.00cm的图像能够很好地识别蕾期棉花地的典型地物,可为进行田间地物类型及其分布状况的识别提供指导。  相似文献   

6.
双目视觉定位系统广泛应用于无人机视觉定位领域中,但鉴于普遍使用普通单双目相机,其视场角较小,可调焦距小,不能满足无人机对复杂飞行环境中目标的大视野定位的需求。为此,设计了一种面向无人机的阵列相机包含对应定位算法,无人机搭载其可获得更大视角,降低视觉盲区的影响。同时,为了提供更高的无人机视觉定位系统对空中小目标检测的精度,采用阵列相机技术以及对应定位算法,当僚机搜索待检测目标时,通过阵列相机技术先切换到合适的相机组,然后自动调节相机焦距,识别定位目标。实验表明,该设计可以让无人机更快地追踪到目标,并且目标在画面中成像更清晰,定位更精准。  相似文献   

7.
为了解植物受病害胁迫时产生声发射信号的分布规律,探寻植物病害程度与声发射位置的关系,利用近场声全息技术,建立了基于空间声场变换的重建模型,给出了重建算法,并利用Matlab软件进行模拟仿真.通过不断调整全息柱面尺寸、测量点间距、重建半径等参数,获取最佳参数配置,并利用窗函数去除混入的高斯噪声.仿真结果显示,可用于指导实际全息检测和定位,实现对植物病害的声发射信号的准确识别与定位.  相似文献   

8.
三角网格细分曲面数控加工刀轨快速生成算   总被引:2,自引:1,他引:1  
提出了一种基于三角网格细分曲面模型的刀轨生成算法,建立三角网格细分曲面模型的空间聚类索引结构,基于该结构实现网格模型与刀轨截面快速、精确求交获取刀触点集,并根据刀触点对应曲面位置处的微分几何性质确定刀位点,采用最小生成树算法对刀位点集排序生成刀轨.实例证明,该算法可有效提高复杂曲面模型的刀轨生成效率及精度.  相似文献   

9.
基于改进CenterNet的玉米雄蕊无人机遥感图像识别   总被引:2,自引:0,他引:2  
为准确识别抽雄期玉米雄蕊实现监测玉米长势、植株计数和估产,基于无锚框的CenterNet目标检测模型,通过分析玉米雄蕊的尺寸分布,并在特征提取网络中添加位置坐标,从而提出一种改进的玉米雄蕊识别模型。针对雄蕊尺寸较小的特点,去除CenterNet网络中对图像尺度缩小的特征提取模块,在降低模型参数的同时,提高检测速度。在CenterNet特征提取模型中添加位置信息,提高定位精度,降低雄蕊漏检率。试验结果表明,与有锚框的YOLO v4、Faster R-CNN模型相比,改进的CenterNet雄蕊检测模型对无人机遥感影像的玉米雄蕊识别精度达到92.4%,分别高于Faster R-CNN和YOLO v4模型26.22、3.42个百分点;检测速度为36f/s,分别比Faster R-CNN和YOLO v4模型高32、23f/s。本文方法能够准确地检测无人机遥感图像中尺寸较小的玉米雄蕊,为玉米抽雄期的农情监测提供参考。  相似文献   

10.
为从无人机遥感影像中准确识别烟草,实现植株定位与计数,以雪茄烟草植株为研究对象,提出一种新的深度学习模型。区别于传统的利用检测框识别目标,本文模型利用少量的关键点学习烟草中心形态学特征,并采用轻量级的编、解码器从无人机遥感影像快速识别烟草并定位计数。首先,提出的模型针对烟草植物形态学特点,通过中心关键点标注的方法,使用高斯函数生成概率密度图,引入更多监督信息。其次,对比不同主干网络在模型中的效果,ResNet18作为主干网络时平均精度大于99.5%,精度和置信度都高于测试的其他主干网络。而MobileNetV2在CPU环境下达到运行效率最优,但平均置信度相对较低。使用损失函数Focal Loss与MSE Loss结合的Union Loss时,平均精度大于99.5%。最后,利用不同波段组合作为训练数据,对比结果发现使用红边波段更有助于模型快速收敛且能够很好地区分烟草和杂草。由于红边波段与植株冠层结构相关,使用红边、红、绿波段时平均精度达到99.6%。本文提出的深度学习模型能够准确地检测无人机遥感影像中的烟草,可为烟草的农情监测提供数据支持。  相似文献   

11.
基于深度学习的诱捕器内红脂大小蠹检测模型   总被引:2,自引:0,他引:2  
红脂大小蠹是危害我国北方地区松杉类针叶树种的重大林业入侵害虫,其虫情监测是森林虫害防治的重要环节。传统的人工计数方法已经无法满足现代化红脂大小蠹监测的需求。为自动化识别并统计信息素诱捕器捕获的红脂大小蠹,在传统信息素诱捕器中集成摄像头,自动采集收集杯内图像,建立蠹虫数据集。使用K-means聚类算法优化Faster R-CNN深度学习目标检测模型的默认框,并使用GPU服务器端到端地训练该模型,实现了诱捕器内任意姿态红脂大小蠹的目标检测。采用面向个体的定量评价和面向诱捕器的定性评价两种评价方式。实验结果表明:较原始Faster R-CNN模型,该模型在困难测试集上面向个体和诱捕器的精确率-召回率曲线下面积(Area under the curve,AUC)提升了4.33%和3.28%。在整体测试集上个体和诱捕器AUC分别达0.9350、0.9722。该模型的检测速率为1.6s/幅,准确度优于SSD、Faster R-CNN等目标检测模型,对姿态变化、杂物干扰、酒精蒸发等有较好的鲁棒性。改进后的模型可从被诱芯吸引的6种小蠹科昆虫中区分出危害最大的红脂大小蠹,自动化地统计诱捕器内红脂大小蠹数量。  相似文献   

12.
无人机避障不及时造成的人员伤亡及财产损失是阻碍无人机发展应用的重要原因之一,实时性好、准确率高的避障系统可降低无人机的运行风险。提出基于目标检测的智能避障系统,以one stage与two stage目标检测方法相结合的方式改进目标检测模型YOLOv3。其中,障碍物检测分三部分完成:基于darknet-53进行三个不同尺度的特征提取、RPN根据ground truth筛选感兴趣区域和yolo层多尺度特征融合预测障碍物的位置和分类。然后,在该文数据集的基础上将训练好的障碍物检测模型进行测试,测试结果表明:改进模型的障碍物检测速率为25帧/s,mAP为95.52%,与现有的目标检测模对比结果表明:本研究改进的目标检测智能避障算法,比Faster R-CNN的mAP提高17.2%,检测速率加快14个FPS;并在保证实时性的同时,mAP比YOLO2提高23.3%,比YOLOv3提高6.25%。最后,将目标检测模型应用于无人机避障系统中提出实现方案,进一步为无人机安全运行提供新的方法。  相似文献   

13.
发芽与表面损伤检测是鲜食马铃薯商品化的重要环节。针对鲜食马铃薯高通量分级分选过程中,高像素图像目标识别准确率低的问题,提出一种基于改进Faster R-CNN的商品马铃薯发芽与表面损伤检测方法。以Faster R-CNN为基础网络,将Faster R-CNN中的特征提取网络替换为残差网络ResNet50,设计了一种融合ResNet50的特征图金字塔网络(FPN),增加神经网络深度。采用模型对比试验、消融试验对本文模型与改进策略的有效性进行了试验验证分析,结果表明:改进模型的马铃薯检测平均精确率为98.89%,马铃薯发芽检测平均精确率为97.52%,马铃薯表面损伤检测平均精确率为92.94%,与Faster R-CNN模型相比,改进模型在检测识别时间和内存占用量不增加的前提下,马铃薯检测精确率下降0.04个百分点,马铃薯发芽检测平均精确率提升7.79个百分点,马铃薯表面损伤检测平均精确率提升34.54个百分点。改进后的模型可以实现对在高分辨率工业相机采集高像素图像条件下,商品马铃薯发芽与表面损伤的准确识别,为商品马铃薯快速分级分等工业化生产提供了方法支撑。  相似文献   

14.
海参目标检测是实现海参自动化捕捞的前提。为了解决复杂海底环境下背景和目标颜色相近以及遮挡导致的目标漏检问题,本文在Faster R-CNN框架下,提出了Swin-RCNN目标检测算法。该算法的骨干网络采用Swin Transformer,同时在结构上融入了多尺度特征提取层和实例分割功能,提高了算法的自适应特征融合能力,从而提高了模型在复杂环境下对不同尺寸海参的识别能力。实验结果表明:本文方法对海参检测的平均精度均值(mAP)达到94.47%,与Faster R-CNN、SSD、YOLO v5、YOLO v4、YOLO v3相比分别提高4.49、4.56、4.46、11.78、22.07个百分点。  相似文献   

15.
植物病害对食品安全具有灾难性的影响,它可以直接导致农作物的质量和产量显著下降,因此对植物病害的早期鉴定非常重要。传统的农作物病害诊断需要非常高的专业知识,不仅费时费力,还效率低下。针对这些问题,利用深度学习的方法,以马铃薯叶片为研究样本,基于TensorFlow开发Faster R-CNN网络模型。采用本地增强的方式对带有早疫病、晚疫病和健康的马铃薯叶片进行图像扩充,应用COCO初始权重进行迁移学习,探究了数据类别对模型检测结果的影响。结果表明,随着训练数据类别的增多模型性能会有略微的降低。同时还训练YOLOv3,YOLOv4网络与该模型进行对比,测试结果表明,所提出的Fater R-CNN模型优于其他网络模型。经检测该模型最佳精度达到99.5%,该研究为马铃薯病害检测提供了技术支持。  相似文献   

16.
基于优化Faster R-CNN的棉花苗期杂草识别与定位   总被引:2,自引:0,他引:2  
为解决棉花苗期杂草种类多、分布状态复杂,且与棉花幼苗伴生的杂草识别率低、鲁棒性差等问题,以自然条件下新疆棉田棉花幼苗期的7种常见杂草为研究对象,提出了一种基于优化Faster R-CNN和数据增强的杂草识别与定位方法。采集不同生长背景和天气条件下的杂草图像4694幅,对目标进行标注后,再对其进行数据增强;针对Faster R-CNN模型设计合适的锚尺度,对比VGG16、VGG19、ResNet50和ResNet101这4种特征提取网络的分类效果,选定VGG16作为最优特征提取网络,训练后得到可识别不同天气条件下的棉花幼苗与多种杂草的Faster R-CNN网络模型。试验表明,该模型可对杂草与棉花幼苗伴生、杂草分布稀疏或分布紧密且目标多等情况下的杂草进行有效识别与定位,优化后的模型对单幅图像平均识别时间为0.261s,平均识别精确率为94.21%。在相同训练样本、特征提取网络以及环境设置条件下,将本文方法与主流目标检测算法——YOLO算法和SSD算法进行对比,优化后的Faster R-CNN模型具有明显优势。将训练好的模型置于田间实际环境进行验证试验,识别过程对采集到的150幅有效图像进行了验证,平均识别精确率为88.67%,平均每幅图像耗时0.385s,说明本文方法具有一定的适用性和可推广性。  相似文献   

17.
目前对玉米出苗动态检测监测主要是依靠人工观测,耗时耗力且只能选择小的样方估算整体出苗情况。为解决人工出苗动态管理不精准的问题,实现田间精细化管理,本研究以田间作物表型高通量采集平台获取的高时序可见光图像和无人机平台获取的可见光图像两种数据源构建了不同光照条件下的玉米出苗过程图像数据集。考虑到田间存在环境背景复杂、光照不均等因素,在传统Faster R-CNN的基础上构建残差单元,使用ResNet50作为新的特征提取网络来对Faster R-CNN进行优化,首先实现对复杂田间环境下玉米出苗识别和计数;进而基于表型平台所获取的高时序图像数据,对不同品种、不同密度的玉米植株进行出苗动态连续监测,对各玉米品种的出苗持续时间和出苗整齐度进行评价分析。试验结果表明,本研究提出的方法应用于田间作物高通量表型平台出苗检测时,晴天和阴天的识别精度分别为95.67%和91.36%;应用于无人机平台出苗检测时晴天和阴天的识别精度分别91.43%和89.77%,可以满足实际应用场景下玉米出苗自动检测的需求。利用表型平台可获取时序数据的优势,进一步进行了玉米动态出苗检测分析,结果表明利用本模型得到的动态出苗结果与人工实际观测具有一致性,说明本研究提出的模型的具有鲁棒性和泛化性。  相似文献   

18.
基于改进卷积神经网络的在体青皮核桃检测方法   总被引:1,自引:0,他引:1  
采摘机器人对核桃采摘时,需准确检测到在体核桃目标。为实现自然环境下青皮核桃的精准识别,研究了基于改进卷积神经网络的青皮核桃检测方法。以预训练的VGG16网络结构作为模型的特征提取器,在Faster R-CNN的卷积层加入批归一化处理、利用双线性插值法改进RPN结构和构建混合损失函数等方式改进模型的适应性,分别采用SGD和Adam优化算法训练模型,并与未改进的Faster R-CNN对比。以精度、召回率和F1值作为模型的准确性指标,单幅图像平均检测时间作为速度性能评价指标。结果表明,利用Adam优化器训练得到的模型更稳定,精度高达97.71%,召回率为94.58%,F1值为96.12%,单幅图像检测耗时为0.227s。与未改进的Faster R-CNN模型相比,精度提高了5.04个百分点,召回率提高了4.65个百分点,F1值提升了4.84个百分点,单幅图像检测耗时降低了0.148s。在园林环境下,所提方法的成功率可达91.25%,并且能保持一定的实时性。该方法在核桃识别检测中能够保持较高的精度、较快的速度和较强的鲁棒性,能够为机器人快速长时间在复杂环境下识别并采摘核桃提供技术支撑。  相似文献   

19.
针对密集分布的荔枝花遮挡严重导致检测困难,现有研究方法忽略了非极大抑制过程中密集建议框之间的相互作用的问题,为提升检测精度、降低漏检率,提出了一种基于polyphyletic损失函数的检测方法。该方法在损失函数中包含一个聚合损失项,以迫使建议框接近并紧凑定位相应目标,同时增加专门为密集作物场景设计的边界框排斥损失,使预测框远离周围对象,提高密集荔枝花检测鲁棒性。与Faster R-CNN、Focus Loss、AdaptiveNMS和Mask R-CNN进行对比,实验表明,该方法在标准苹果花数据集上识别精度比其他方法高2个百分点,验证了该方法检测的通用性,同时,该方法在自建荔枝花数据集的平均精度均值达到87.94%,F1值为87.07%,缺失率为13.29%,相比Faster R-CNN、Focus Loss、AdaptiveNMS和Mask R-CNN分别提高20.09、14.10、8.35、4.86个百分点,具有较高检测性能。因此,本文提出的方法能够高效地对密集荔枝花进行检测,为复杂场景下的密集作物检测提供参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号