首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 203 毫秒
1.
基于改进CenterNet的玉米雄蕊无人机遥感图像识别   总被引:2,自引:0,他引:2  
为准确识别抽雄期玉米雄蕊实现监测玉米长势、植株计数和估产,基于无锚框的CenterNet目标检测模型,通过分析玉米雄蕊的尺寸分布,并在特征提取网络中添加位置坐标,从而提出一种改进的玉米雄蕊识别模型。针对雄蕊尺寸较小的特点,去除CenterNet网络中对图像尺度缩小的特征提取模块,在降低模型参数的同时,提高检测速度。在CenterNet特征提取模型中添加位置信息,提高定位精度,降低雄蕊漏检率。试验结果表明,与有锚框的YOLO v4、Faster R-CNN模型相比,改进的CenterNet雄蕊检测模型对无人机遥感影像的玉米雄蕊识别精度达到92.4%,分别高于Faster R-CNN和YOLO v4模型26.22、3.42个百分点;检测速度为36f/s,分别比Faster R-CNN和YOLO v4模型高32、23f/s。本文方法能够准确地检测无人机遥感图像中尺寸较小的玉米雄蕊,为玉米抽雄期的农情监测提供参考。  相似文献   

2.
基于改进Faster R-CNN的田间黄板害虫检测算法   总被引:2,自引:0,他引:2  
针对黄板诱捕的害虫体积小、数量多和分布不均匀,难以进行害虫识别的问题,引入当前主流目标检测模型Faster R-CNN对黄板上的小菜蛾、黄曲条跳甲和烟粉虱等主要害虫进行识别与计数,提出一种基于改进Faster R-CNN的田间黄板害虫检测算法(Mobile terminal pest Faster R-CNN,MPF R-CNN)。该算法将ResNet101网络与FPN网络相结合作为特征提取网络,并在RPN网络设计多种不同尺寸锚点对特征图像进行前景和背景判断,使用ROIAlign替代ROIPooling进行特征映射,以及使用双损失函数进行算法参数控制。对2440幅样本图像的实验分析表明,在真实复杂的自然环境下,MPF R-CNN对烟粉虱、黄曲条跳甲、小菜蛾和其他大型害虫(体长大于5mm)检测的平均精度分别为87.84%、86.94%、87.42%和86.38%;在35cm×25cm黄板上不超过480只的低密度下平均精度均值为93.41%,在480~960只害虫的中等密度下平均精度均值为89.76%。同时实验显示,在中低等密度下晴天和雨天的检测精度无明显差异,本算法计数结果与害虫计数决定系数为0.9255。将该算法置入以“微信小程序+云存储服务器+算法服务器”为架构的小米7手机终端系统中进行应用测试,平均识别时间为1.7s。研究表明,该算法在精度和速度上均可支持当前便携式应用,为利用手机对蔬菜害虫进行快速监测与识别提供了技术支撑。  相似文献   

3.
针对采摘机器人对场景中目标分布密集、果实相互遮挡的检测及定位能力不理想问题,提出一种引入高效通道注意力机制(ECA)和多尺度融合特征金字塔(FPN)改进Faster R-CNN果实检测及定位方法。首先,利用表达能力较强的融合FPN的残差网络ResNet50替换原VGG16网络,消除了网络退化问题,进而提取更加抽象和丰富的语义信息,提升模型对多尺度和小目标的检测能力;其次,引入注意力机制ECA模块,使特征提取网络聚焦特征图像的局部高效信息,减少无效目标的干扰,提升模型检测精度;最后,采用一种枝叶插图数据增强方法改进苹果数据集,解决图像数据不足问题。基于构建的数据集,使用遗传算法优化K-means++聚类生成自适应锚框,提高模型定位准确性。试验结果表明,改进模型对可抓取和不可直接抓取苹果的精度均值分别为96.16%和86.95%,平均精度均值为92.79%,较传统Faster R-CNN提升15.68个百分点;对可抓取和不可直接抓取的苹果定位精度分别为97.14%和88.93%,较传统Faster R-CNN分别提高12.53个百分点和40.49个百分点;内存占用量减少38.20%,每帧平均计算时间缩短40.7%,改进后的模型参数量小且实时性好,能够更好地应用于果实采摘机器人视觉系统。  相似文献   

4.
基于改进DeepSORT的群养生猪行为识别与跟踪方法   总被引:1,自引:0,他引:1  
为改善猪只重叠与遮挡造成的猪只身份编号(Identity,ID)频繁跳变,在YOLO v5s检测算法基础上,提出了改进DeepSORT行为跟踪算法。该算法改进包括两方面:一针对特定场景下猪只数量稳定的特点,改进跟踪算法的轨迹生成与匹配过程,降低ID切换次数,提升跟踪稳定性;二将YOLO v5s检测算法中的行为类别信息引入跟踪算法中,在跟踪中实现准确的猪只行为识别。实验结果表明,在目标检测方面,YOLO v5s的mAP为99.3%,F1值为98.7%。在重识别方面,实验的Top-1准确率达到99.88%。在跟踪方面,改进DeepSORT算法的MOTA为91.9%,IDF1为89.2%,IDS为33;与DeepSORT算法对比,MOTA和IDF1分别提升了1.0、16.9个百分点,IDS下降了83.8%。改进DeepSORT算法在群养环境下能够实现稳定ID的猪只行为跟踪,能够为无接触式的生猪自动监测提供技术支持。  相似文献   

5.
基于改进卷积神经网络的在体青皮核桃检测方法   总被引:1,自引:0,他引:1  
采摘机器人对核桃采摘时,需准确检测到在体核桃目标。为实现自然环境下青皮核桃的精准识别,研究了基于改进卷积神经网络的青皮核桃检测方法。以预训练的VGG16网络结构作为模型的特征提取器,在Faster R-CNN的卷积层加入批归一化处理、利用双线性插值法改进RPN结构和构建混合损失函数等方式改进模型的适应性,分别采用SGD和Adam优化算法训练模型,并与未改进的Faster R-CNN对比。以精度、召回率和F1值作为模型的准确性指标,单幅图像平均检测时间作为速度性能评价指标。结果表明,利用Adam优化器训练得到的模型更稳定,精度高达97.71%,召回率为94.58%,F1值为96.12%,单幅图像检测耗时为0.227s。与未改进的Faster R-CNN模型相比,精度提高了5.04个百分点,召回率提高了4.65个百分点,F1值提升了4.84个百分点,单幅图像检测耗时降低了0.148s。在园林环境下,所提方法的成功率可达91.25%,并且能保持一定的实时性。该方法在核桃识别检测中能够保持较高的精度、较快的速度和较强的鲁棒性,能够为机器人快速长时间在复杂环境下识别并采摘核桃提供技术支撑。  相似文献   

6.
海参目标检测是实现海参自动化捕捞的前提。为了解决复杂海底环境下背景和目标颜色相近以及遮挡导致的目标漏检问题,本文在Faster R-CNN框架下,提出了Swin-RCNN目标检测算法。该算法的骨干网络采用Swin Transformer,同时在结构上融入了多尺度特征提取层和实例分割功能,提高了算法的自适应特征融合能力,从而提高了模型在复杂环境下对不同尺寸海参的识别能力。实验结果表明:本文方法对海参检测的平均精度均值(mAP)达到94.47%,与Faster R-CNN、SSD、YOLO v5、YOLO v4、YOLO v3相比分别提高4.49、4.56、4.46、11.78、22.07个百分点。  相似文献   

7.
为了快速而准确地统计视频监测区域内的水稻穗数,提出了一种基于改进Faster R-CNN的稻穗检测方法。针对稻穗目标较小的问题,在Inception_ResNet-v2的基础上引入空洞卷积进行优化;对于不同生长期稻穗差别大的问题,设计了针对标注框尺度的K-means聚类,为候选区域生成网络提供先验知识,从而提高了检测精度。鉴于小尺寸稻穗目标的特殊性,用ROIAlign替代ROIPooling,提高了感兴趣区域的提取精度。试验测试时,根据水稻不同发育期稻穗的表型特征差异自制了3类数据集,并选取最佳聚类数为10。模型对比试验表明,本文方法的稻穗检测平均精度均值达到80.3%,较Faster R-CNN模型提升了2.4个百分点,且比SSD和YOLO系列模型有较大幅度的提升。  相似文献   

8.
基于深度学习的诱捕器内红脂大小蠹检测模型   总被引:2,自引:0,他引:2  
红脂大小蠹是危害我国北方地区松杉类针叶树种的重大林业入侵害虫,其虫情监测是森林虫害防治的重要环节。传统的人工计数方法已经无法满足现代化红脂大小蠹监测的需求。为自动化识别并统计信息素诱捕器捕获的红脂大小蠹,在传统信息素诱捕器中集成摄像头,自动采集收集杯内图像,建立蠹虫数据集。使用K-means聚类算法优化Faster R-CNN深度学习目标检测模型的默认框,并使用GPU服务器端到端地训练该模型,实现了诱捕器内任意姿态红脂大小蠹的目标检测。采用面向个体的定量评价和面向诱捕器的定性评价两种评价方式。实验结果表明:较原始Faster R-CNN模型,该模型在困难测试集上面向个体和诱捕器的精确率-召回率曲线下面积(Area under the curve,AUC)提升了4.33%和3.28%。在整体测试集上个体和诱捕器AUC分别达0.9350、0.9722。该模型的检测速率为1.6s/幅,准确度优于SSD、Faster R-CNN等目标检测模型,对姿态变化、杂物干扰、酒精蒸发等有较好的鲁棒性。改进后的模型可从被诱芯吸引的6种小蠹科昆虫中区分出危害最大的红脂大小蠹,自动化地统计诱捕器内红脂大小蠹数量。  相似文献   

9.
基于优化Faster R-CNN的棉花苗期杂草识别与定位   总被引:2,自引:0,他引:2  
为解决棉花苗期杂草种类多、分布状态复杂,且与棉花幼苗伴生的杂草识别率低、鲁棒性差等问题,以自然条件下新疆棉田棉花幼苗期的7种常见杂草为研究对象,提出了一种基于优化Faster R-CNN和数据增强的杂草识别与定位方法。采集不同生长背景和天气条件下的杂草图像4694幅,对目标进行标注后,再对其进行数据增强;针对Faster R-CNN模型设计合适的锚尺度,对比VGG16、VGG19、ResNet50和ResNet101这4种特征提取网络的分类效果,选定VGG16作为最优特征提取网络,训练后得到可识别不同天气条件下的棉花幼苗与多种杂草的Faster R-CNN网络模型。试验表明,该模型可对杂草与棉花幼苗伴生、杂草分布稀疏或分布紧密且目标多等情况下的杂草进行有效识别与定位,优化后的模型对单幅图像平均识别时间为0.261s,平均识别精确率为94.21%。在相同训练样本、特征提取网络以及环境设置条件下,将本文方法与主流目标检测算法——YOLO算法和SSD算法进行对比,优化后的Faster R-CNN模型具有明显优势。将训练好的模型置于田间实际环境进行验证试验,识别过程对采集到的150幅有效图像进行了验证,平均识别精确率为88.67%,平均每幅图像耗时0.385s,说明本文方法具有一定的适用性和可推广性。  相似文献   

10.
基于改进Faster R-CNN的马铃薯芽眼识别方法   总被引:3,自引:0,他引:3  
为提高对马铃薯芽眼的识别效果,提出一种基于改进Faster R-CNN的马铃薯芽眼识别方法。对Faster R-CNN中的非极大值抑制(Non maximum suppression, NMS)算法进行优化,对与M交并比(Intersection over union, IOU) 大于等于Nt的相邻检测框,利用高斯降权函数对其置信度进行衰减,通过判别参数对衰减后的置信度作进一步判断;在训练过程中加入采用优化NMS算法的在线难例挖掘 (Online hard example mining, OHEM) 技术,对马铃薯芽眼进行识别试验。试验结果表明:改进的模型识别精度为96.32%,召回率为90.85%,F1为93.51%,平均单幅图像的识别时间为0.183s。与原始的Faster R-CNN模型相比,改进的模型在不增加运行时间的前提下,精度、召回率、F1分别提升了4.65、6.76、5.79个百分点。改进Faster R-CNN模型能够实现马铃薯芽眼的有效识别,满足实时处理的要求,可为种薯自动切块中的芽眼识别提供参考。  相似文献   

11.
发芽与表面损伤检测是鲜食马铃薯商品化的重要环节。针对鲜食马铃薯高通量分级分选过程中,高像素图像目标识别准确率低的问题,提出一种基于改进Faster R-CNN的商品马铃薯发芽与表面损伤检测方法。以Faster R-CNN为基础网络,将Faster R-CNN中的特征提取网络替换为残差网络ResNet50,设计了一种融合ResNet50的特征图金字塔网络(FPN),增加神经网络深度。采用模型对比试验、消融试验对本文模型与改进策略的有效性进行了试验验证分析,结果表明:改进模型的马铃薯检测平均精确率为98.89%,马铃薯发芽检测平均精确率为97.52%,马铃薯表面损伤检测平均精确率为92.94%,与Faster R-CNN模型相比,改进模型在检测识别时间和内存占用量不增加的前提下,马铃薯检测精确率下降0.04个百分点,马铃薯发芽检测平均精确率提升7.79个百分点,马铃薯表面损伤检测平均精确率提升34.54个百分点。改进后的模型可以实现对在高分辨率工业相机采集高像素图像条件下,商品马铃薯发芽与表面损伤的准确识别,为商品马铃薯快速分级分等工业化生产提供了方法支撑。  相似文献   

12.
王玲  张旗  冯天赐  王一博  李雨桐  陈度 《农业机械学报》2023,54(10):188-197,204
针对小麦考种过程中籽粒堆积、粘连和遮挡现象导致计数准确率低等问题,本文基于电磁振动原理设计了高通量小麦籽粒振动分离装置,通过分析受力探讨了籽粒离散分离程度的主要影响因素,并引入二阶离散系数建立了籽粒离散度等级评价方法。在此基础上,引入Swin Transformer模块构建YOLO v7-ST模型,对不同离散度等级下小麦籽粒进行计数性能测试。试验结果表明,YOLO v7-ST模型在3种离散度等级下平均计数准确率、F1值和平均计数时间的总平均值分别为99.16%、93%和1.19 s,相较于YOLO v7、YOLO v5和Faster R-CNN模型,平均计数准确率分别提高1.03、2.34、15.44个百分点,模型综合评价指标F1值分别提高2、3、16个百分点,平均计数时间较YOLO v5和Faster R-CNN分别减少0.41 s和0.36 s,仅比YOLO v7模型增大0.09 s。因此,YOLO v7-ST模型可实现多种离散度等级下不同程度籽粒遮挡和粘连问题的准确快速检测,大幅提高小麦考种效率。  相似文献   

13.
针对高通量自动化获取的植物表型性状图像的智能检测问题,采用迁移学习和改进掩膜区域卷积神经网络(Mask R-CNN)设计植物表型智能检测分割算法。首先对残差网络进行优化,并利用特征金字塔网络(FPN)对输入图像进行特征提取;然后调整候选区域提取网络(RPN)中锚框的长宽比例和阈值,并在RoIAlign中通过双线性插值法保留了特征图的空间信息;最后改进Mask检测头,并增加特征融合机制以获得高质量的掩膜。在西瓜突变体生长情况的性状表型数据集上进行训练和检测,得到结果表明:改进后的Mask R-CNN表现出更优的检测性能,与传统Mask R-CNN相比,检测精度提高22%,掩膜准确率提高2.7%,检测时间减少42 ms,为提升农业精准化水平和推动智慧农业发展提供了技术支撑。  相似文献   

14.
基于Faster R-CNN的松材线虫病受害木识别与定位   总被引:2,自引:0,他引:2  
松材线虫病是一种毁灭性松树传染病,其传播速度快、发病时间短、致病力强,及时发现、确定受害木的位置,并采取安全处理措施是目前控制松材线虫病蔓延的有效手段。本文通过小型无人机搭载可见光RGB数码相机获取超高空间分辨率影像,采用Faster R-CNN目标检测算法实现对染病变色松树的自动识别,与传统受害木识别方法不同,本文考虑了其他枯死树和红色阔叶树对受害木识别的影响。实验结果表明,根据受害木的冠幅大小修改区域生成网络中的锚框(anchor)尺寸,并考虑其他枯死树和红色阔叶树的影响,有利于提高受害木识别效果和检测精度。改进后受害木识别总体精度从75.64%提高到82.42%,提高了6.78个百分点,能够满足森林防护人员对受害木定位处理的需求。通过坐标转换的方式得到受害木的精确位置信息与空间分布情况,结合点位合并过程,最终正确定位出494棵受害木。本文通过无人机遥感结合目标检测算法能监测松材线虫病的发生和获取受害木的分布情况,可为松材线虫病的防控提供技术支持。  相似文献   

15.
在大田2.4万株/hm^2的稀植栽培条件下,对采用相同的氮磷钾配比、4个不同水平氮磷钾施用量组合处理的冀棉25,应用多因素模糊综合评价方法,从铃数、棉铃质量、衣分、子指、衣指及子棉经济系数等6个产量性状分析了不同施肥处理对棉花成铃时空分布(时间上分为:伏前桃、伏桃、早秋桃、秋桃;空间上分为:下内、下外、中内、中外、上内、上外)的影响,明确了一组最优的施肥措施。结果表明:模糊综合评价方法评价施肥措施,能全面地反映出各种方式的优劣,将其用于评价棉花农艺措施优劣上是切实可行的。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号