首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 343 毫秒
1.
针对采摘机器人对场景中目标分布密集、果实相互遮挡的检测及定位能力不理想问题,提出一种引入高效通道注意力机制(ECA)和多尺度融合特征金字塔(FPN)改进Faster R-CNN果实检测及定位方法。首先,利用表达能力较强的融合FPN的残差网络ResNet50替换原VGG16网络,消除了网络退化问题,进而提取更加抽象和丰富的语义信息,提升模型对多尺度和小目标的检测能力;其次,引入注意力机制ECA模块,使特征提取网络聚焦特征图像的局部高效信息,减少无效目标的干扰,提升模型检测精度;最后,采用一种枝叶插图数据增强方法改进苹果数据集,解决图像数据不足问题。基于构建的数据集,使用遗传算法优化K-means++聚类生成自适应锚框,提高模型定位准确性。试验结果表明,改进模型对可抓取和不可直接抓取苹果的精度均值分别为96.16%和86.95%,平均精度均值为92.79%,较传统Faster R-CNN提升15.68个百分点;对可抓取和不可直接抓取的苹果定位精度分别为97.14%和88.93%,较传统Faster R-CNN分别提高12.53个百分点和40.49个百分点;内存占用量减少38.20%,每帧平均计算时间缩短40.7%,改进后的模型参数量小且实时性好,能够更好地应用于果实采摘机器人视觉系统。  相似文献   

2.
针对基础卷积神经网络识别苹果园害虫易受背景干扰及重要特征表达能力不强问题,提出一种基于改进Mask R-CNN的苹果园害虫识别方法。首先,基于Haar特征方法对多点采集得到的苹果园害虫图像进行迭代初分割,提取害虫单体图像样本,并对该样本进行多途径扩增,得到用于深度学习的扩增样本数据集。其次,对Mask R-CNN中的特征提取网络进行优化,采用嵌入注意力机制模块CBAM的ResNeXt网络作为改进模型的Backbone,增加模型对害虫空间及语义信息的提取,有效避免背景对模型性能的影响;同时引入Boundary损失函数,避免害虫掩膜边缘缺失及定位不准确问题。最后,以原始Mask R-CNN模型作为对照模型,平均精度均值作为评价指标进行试验。结果表明,改进Mask R-CNN模型平均精度均值达到96.52%,相比于原始Mask R-CNN模型,提高4.21个百分点,改进Mask R-CNN可精准有效识别苹果园害虫,为苹果园病虫害绿色防控提供技术支持。  相似文献   

3.
基于改进卷积神经网络的在体青皮核桃检测方法   总被引:1,自引:0,他引:1  
采摘机器人对核桃采摘时,需准确检测到在体核桃目标。为实现自然环境下青皮核桃的精准识别,研究了基于改进卷积神经网络的青皮核桃检测方法。以预训练的VGG16网络结构作为模型的特征提取器,在Faster R-CNN的卷积层加入批归一化处理、利用双线性插值法改进RPN结构和构建混合损失函数等方式改进模型的适应性,分别采用SGD和Adam优化算法训练模型,并与未改进的Faster R-CNN对比。以精度、召回率和F1值作为模型的准确性指标,单幅图像平均检测时间作为速度性能评价指标。结果表明,利用Adam优化器训练得到的模型更稳定,精度高达97.71%,召回率为94.58%,F1值为96.12%,单幅图像检测耗时为0.227s。与未改进的Faster R-CNN模型相比,精度提高了5.04个百分点,召回率提高了4.65个百分点,F1值提升了4.84个百分点,单幅图像检测耗时降低了0.148s。在园林环境下,所提方法的成功率可达91.25%,并且能保持一定的实时性。该方法在核桃识别检测中能够保持较高的精度、较快的速度和较强的鲁棒性,能够为机器人快速长时间在复杂环境下识别并采摘核桃提供技术支撑。  相似文献   

4.
为了快速而准确地统计视频监测区域内的水稻穗数,提出了一种基于改进Faster R-CNN的稻穗检测方法。针对稻穗目标较小的问题,在Inception_ResNet-v2的基础上引入空洞卷积进行优化;对于不同生长期稻穗差别大的问题,设计了针对标注框尺度的K-means聚类,为候选区域生成网络提供先验知识,从而提高了检测精度。鉴于小尺寸稻穗目标的特殊性,用ROIAlign替代ROIPooling,提高了感兴趣区域的提取精度。试验测试时,根据水稻不同发育期稻穗的表型特征差异自制了3类数据集,并选取最佳聚类数为10。模型对比试验表明,本文方法的稻穗检测平均精度均值达到80.3%,较Faster R-CNN模型提升了2.4个百分点,且比SSD和YOLO系列模型有较大幅度的提升。  相似文献   

5.
为实时准确地检测到自然环境下背景复杂的荔枝病虫害,本研究构建荔枝病虫害图像数据集并提出荔枝病虫害检测模型以提供诊断防治。以YOLO v4为基础,使用更轻、更快的轻量化网络GhostNet作为主干网络提取特征,并结合GhostNet中的核心设计引入更低成本的卷积Ghost Module代替颈部结构中的传统卷积,得到轻量化后的YOLO v4-G模型。在此基础上使用新特征融合方法和注意力机制CBAM对YOLO v4-G进行改进,在不失检测速度和模型轻量化程度的情况下提高检测精度,提出YOLO v4-GCF荔枝病虫害检测模型。构建的数据集包含荔枝病虫害图像3725幅,其中病害种类包括煤烟病、炭疽病和藻斑病3种,虫害种类包括毛毡病和叶瘿蚊2种。试验结果表明,基于YOLO v4-GCF的荔枝病虫害检测模型,对于5种病虫害目标在训练集、验证集和测试集上的平均精度分别为95.31%、90.42%和89.76%,单幅图像检测用时0.1671s,模型内存占用量为39.574MB,相比改进前的YOLO v4模型缩小84%,检测速度提升38%,在测试集中检测平均精度提升4.13个百分点,同时平均精度比常用模型YOLO v4-tiny、EfficientDet-d2和Faster R-CNN分别高17.67、12.78、25.94个百分点。所提出的YOLO v4-GCF荔枝病虫害检测模型能够有效抑制复杂背景的干扰,准确且快速检测图像中荔枝病虫害目标,可为自然环境下复杂、非结构背景的农作物病虫害实时检测研究提供参考。  相似文献   

6.
苹果树疏花是果园生产管理中的重要环节。准确高效地识别苹果中心花和边花,是研发智能疏花机器人的前提。针对苹果疏花作业中的实际需求,提出了一种基于CRV-YOLO的苹果中心花和边花识别方法。本文基于YOLO v5s模型进行了如下改进:将C-CoTCSP结构融入Backbone,更好地学习上下文信息并提高了模型特征提取能力,提高了模型对外形相似和位置关系不明显的中心花和边花的检测性能。在Backbone中添加改进RFB结构,扩大特征提取感受野并对分支贡献度进行加权,更好地利用了不同尺度特征。采用VariFocal Loss损失函数,提高了模型对遮挡等场景下难识别样本检测能力。在3个品种1 837幅图像数据集上进行了实验,结果表明,CRV-YOLO的精确率、召回率和平均精度均值分别为95.6%、92.9%和96.9%,与原模型相比,分别提高3.7、4.3、3.9个百分点,模型受光照变化和苹果品种影响较小。与Faster R-CNN、SSD、YOLOX、YOLO v7模型相比,CRV-YOLO的精确率、平均精度均值、模型内存占用量和复杂度性能最优,召回率接近最优。研究成果可为苹果智能疏花提供技术...  相似文献   

7.
为了实现复杂环境下农业机器人对番茄果实的快速准确识别,提出了一种基于注意力机制与改进YOLO v5s的温室番茄目标快速检测方法。根据YOLO v5s模型小、速度快等特点,在骨干网络中加入卷积注意力模块(CBAM),通过串联空间注意力模块和通道注意力模块,对绿色番茄目标特征给予更多的关注,提高识别精度,解决绿色番茄在相似颜色背景中难识别问题;通过将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高果实目标定位精度。试验结果表明,CB-YOLO网络模型对温室环境下红色番茄检测精度、绿色番茄检测精度、平均精度均值分别为99.88%、99.18%和99.53%,果实检测精度和平均精度均值高于Faster R-CNN模型、YOLO v4-tiny模型和YOLO v5模型。将CB-YOLO模型部署到安卓手机端,通过不同型号手机测试,验证了模型在移动终端设备上运行的稳定性,可为设施环境下基于移动边缘计算的机器人目标识别及采收作业提供技术支持。  相似文献   

8.
基于Faster R-CNN的田间西兰花幼苗图像检测方法   总被引:4,自引:0,他引:4  
为解决自然环境下作物识别率不高、鲁棒性不强等问题,以西兰花幼苗为研究对象,提出了一种基于Faster R-CNN模型的作物检测方法。根据田间环境特点,采集不同光照强度、不同地面含水率和不同杂草密度下的西兰花幼苗图像,以确保样本多样性,并通过数据增强手段扩大样本量,制作PASCAL VOC格式数据集。针对此数据集训练Faster R-CNN模型,通过设计ResNet101、ResNet50与VGG16网络的对比试验,确定ResNet101网络为最优特征提取网络,其平均精度为90. 89%,平均检测时间249 ms。在此基础上优化网络超参数,确定Dropout值为0. 6时,模型识别效果最佳,其平均精度达到91. 73%。结果表明,本文方法能够对自然环境下的西兰花幼苗进行有效检测,可为农业智能除草作业中的作物识别提供借鉴。  相似文献   

9.
针对高通量自动化获取的植物表型性状图像的智能检测问题,采用迁移学习和改进掩膜区域卷积神经网络(Mask R-CNN)设计植物表型智能检测分割算法。首先对残差网络进行优化,并利用特征金字塔网络(FPN)对输入图像进行特征提取;然后调整候选区域提取网络(RPN)中锚框的长宽比例和阈值,并在RoIAlign中通过双线性插值法保留了特征图的空间信息;最后改进Mask检测头,并增加特征融合机制以获得高质量的掩膜。在西瓜突变体生长情况的性状表型数据集上进行训练和检测,得到结果表明:改进后的Mask R-CNN表现出更优的检测性能,与传统Mask R-CNN相比,检测精度提高22%,掩膜准确率提高2.7%,检测时间减少42 ms,为提升农业精准化水平和推动智慧农业发展提供了技术支撑。  相似文献   

10.
针对苹果采摘机器人识别算法包含复杂的网络结构和庞大的参数体量,严重限制检测模型的响应速度问题,本文基于嵌入式平台,以YOLO v4作为基础框架提出一种轻量化苹果实时检测方法(YOLO v4-CA)。该方法使用MobileNet v3作为特征提取网络,并在特征融合网络中引入深度可分离卷积,降低网络计算复杂度;同时,为弥补模型简化带来的精度损失,在网络关键位置引入坐标注意力机制,强化目标关注以提高密集目标检测以及抗背景干扰能力。在此基础上,针对苹果数据集样本量小的问题,提出一种跨域迁移与域内迁移相结合的学习策略,提高模型泛化能力。试验结果表明,改进后模型的平均检测精度为92.23%,在嵌入式平台上的检测速度为15.11f/s,约为改进前模型的3倍。相较于SSD300与Faster R-CNN,平均检测精度分别提高0.91、2.02个百分点,在嵌入式平台上的检测速度分别约为SSD300和Faster R-CNN的1.75倍和12倍;相较于两种轻量级目标检测算法DY3TNet与YOLO v5s,平均检测精度分别提高7.33、7.73个百分点。因此,改进后的模型能够高效实时地对复杂果园环境中的苹果进行检测,适宜在嵌入式系统上部署,可以为苹果采摘机器人的识别系统提供解决思路。  相似文献   

11.
发芽与表面损伤检测是鲜食马铃薯商品化的重要环节。针对鲜食马铃薯高通量分级分选过程中,高像素图像目标识别准确率低的问题,提出一种基于改进Faster R-CNN的商品马铃薯发芽与表面损伤检测方法。以Faster R-CNN为基础网络,将Faster R-CNN中的特征提取网络替换为残差网络ResNet50,设计了一种融合ResNet50的特征图金字塔网络(FPN),增加神经网络深度。采用模型对比试验、消融试验对本文模型与改进策略的有效性进行了试验验证分析,结果表明:改进模型的马铃薯检测平均精确率为98.89%,马铃薯发芽检测平均精确率为97.52%,马铃薯表面损伤检测平均精确率为92.94%,与Faster R-CNN模型相比,改进模型在检测识别时间和内存占用量不增加的前提下,马铃薯检测精确率下降0.04个百分点,马铃薯发芽检测平均精确率提升7.79个百分点,马铃薯表面损伤检测平均精确率提升34.54个百分点。改进后的模型可以实现对在高分辨率工业相机采集高像素图像条件下,商品马铃薯发芽与表面损伤的准确识别,为商品马铃薯快速分级分等工业化生产提供了方法支撑。  相似文献   

12.
海参目标检测是实现海参自动化捕捞的前提。为了解决复杂海底环境下背景和目标颜色相近以及遮挡导致的目标漏检问题,本文在Faster R-CNN框架下,提出了Swin-RCNN目标检测算法。该算法的骨干网络采用Swin Transformer,同时在结构上融入了多尺度特征提取层和实例分割功能,提高了算法的自适应特征融合能力,从而提高了模型在复杂环境下对不同尺寸海参的识别能力。实验结果表明:本文方法对海参检测的平均精度均值(mAP)达到94.47%,与Faster R-CNN、SSD、YOLO v5、YOLO v4、YOLO v3相比分别提高4.49、4.56、4.46、11.78、22.07个百分点。  相似文献   

13.
基于YOLO v7-ECA模型的苹果幼果检测   总被引:1,自引:0,他引:1  
为实现自然环境下苹果幼果的快速准确检测,针对幼果期苹果果色与叶片颜色高度相似、体积微小、分布密集,识别难度大的问题,提出了一种融合高效通道注意力(Efficient channel attention, ECA)机制的改进YOLO v7模型(YOLO v7-ECA)。在模型的3条重参数化路径中插入ECA机制,可在不降低通道维数的前提下实现相邻通道局部跨通道交互,有效强调苹果幼果重要信息、抑制冗余无用特征,提高模型效率。采集自然环境下苹果幼果图像2 557幅作为训练样本、547幅作为验证样本、550幅作为测试样本,输入模型进行训练测试。结果表明,YOLO v7-ECA网络模型准确率为97.2%、召回率为93.6%、平均精度均值(Mean average precision, mAP)为98.2%、F1值为95.37%。与Faster R-CNN、SSD、Scaled-YOLO v4、YOLO v5、YOLO v6、YOLO v7网络模型相比,其mAP分别提高15.5、4.6、1.6、1.8、3.0、1.8个百分点,准确率分别提高49.7、0.9、18.5、1.2、0.9、1.0个百分点,...  相似文献   

14.
基于迁移学习和Mask R-CNN的稻飞虱图像分类方法   总被引:4,自引:0,他引:4  
针对当前稻飞虱图像识别研究中自动化程度较低、识别精度不高的问题,提出了一种基于迁移学习和Mask R-CNN的稻飞虱图像分类方法。首先,根据稻飞虱的生物特性,采用本团队自主研发的野外昆虫图像采集装置,自动获取稻田稻飞虱及其他昆虫图像;采用VIA为数据集制作标签,将数据集分为稻飞虱和非稻飞虱两类,并通过迁移学习在Res Net50框架上训练数据;最后,基于Mask R-CNN分别对稻飞虱、非稻飞虱、存在干扰以及存在黏连和重合的昆虫图像进行分类实验,并与传统图像分类算法(SVM、BP神经网络)和Faster R-CNN算法进行对比。实验结果表明,在相同样本条件下,基于迁移学习和Mask R-CNN的稻飞虱图像分类算法能够快速、有效识别稻飞虱与非稻飞虱,平均识别精度达到0. 923,本研究可为稻飞虱的防治预警提供信息支持。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号