首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 171 毫秒
1.
准确识别玉米幼苗是实现自动化精准除草、间苗、补种等苗期作业的重要前提。为此,针对自然环境下农业机器人对玉米幼苗的检测问题,结合深度残差网络强大的特征提取能力和级联网络连接多个检测器不断优化预测结果的特点,对Cascade R-CNN模型进行改进,使之适用于自然环境下玉米幼苗的检测。模型使用残差网络ResNet-50与特征金字塔网络FPN作为特征提取器提取玉米幼苗图像的特征图,利用区域建议网络生成目标候选框,通过感兴趣区域池化将不同大小的特征图转换为统一尺寸的输出;最后,分类回归模块根据特征图对目标进行分类,并使用边框回归修正候选框的位置和大小,从而完成玉米幼苗目标检测。同时,以3~5叶期玉米幼苗为研究对象,采集其田间图像并制作数据集,用所制作的数据集对Cascade R-CNN模型进行训练,选取AlexNet、VGG16、ResNet18、ResNet50与ResNet50+FPN分别作为特征提取网络进行对比试验,确定所提出的ResNet50+FPN为最优特征提取网络,平均精度均值(mAP)为91.76%,平均检测时间为6.5ms。选取双阶段目标检测模型Faster R-CNN、R-F...  相似文献   

2.
为实现葡萄早期病害的快速准确识别,针对葡萄病害的相似表型症状识别率低及小病斑检测困难的问题,以葡萄黑腐病和黑麻疹病为研究对象,提出了一种基于自适应鉴别器增强的样式生成对抗网络与改进的YOLO v7相结合的葡萄黑腐病和黑麻疹病的病斑检测方法。通过自适应鉴别器增强的样式生成对抗网络和拉普拉斯滤波器的方差扩充葡萄病害数据。采用MSRCP算法进行图像增强,改善光照环境凸显病斑特征。以YOLO v7网络框架为基础,将BiFormer注意力机制嵌入特征提取网络,强化目标区域的关键特征;采用BiFPN代替PA-FPN,更好地实现低层细节特征与高层语义信息融合,以同时降低计算复杂度;在YOLO v7的检测头部分嵌入SPD模块,以提高模型对低分辨率图像的检测性能;并采用CIoU与NWD损失函数组合对损失函数重新定义,实现对小目标快速、准确识别。实验结果表明,该方法病斑检测精确率达到94.1%,相比原始算法提升5.7个百分点,与Faster R-CNN、YOLO v3-SPP和YOLO v5x等模型相比分别提高3.3、3.8、4.4个百分点,能够实现葡萄早期病害快速准确识别,对于保障葡萄产业发展具有重要意义。  相似文献   

3.
针对模糊水下图像增强后输入鱼类检测模型精度降低的问题,提出了模糊水下图像多增强与输出混合的鱼类检测方法。利用多种图像增强方法对模糊的水下图像进行增强,将增强后的图像分别输入鱼类检测模型得到多个输出,对多个输出进行混合,然后利用非极大抑制方法对混合结果进行后处理,获得最终检测结果。YOLO v3、YOLO v4 tiny和YOLO v4模型的试验结果表明,对比原始图像的检测结果,本文方法的检测精度分别提高了2.15、8.35、1.37个百分点;鱼类检测数量分别提高了15.5%、49.8%、12.7%,避免了模糊水下图像增强后输入鱼类检测模型出现精度降低的问题,提高了模型检测能力。  相似文献   

4.
对图像中的鱼类目标进行分割是提取鱼类生物学信息的关键步骤。针对现有方法对养殖条件下的鱼类图像分割精度较低的问题,提出了基于目标检测及边缘支持的鱼类图像分割方法。首先,设计了基于目标检测的完整轮廓提取方法,将具有完整轮廓的鱼类目标从图像中提取出来作为分割阶段的输入,使得整幅图像的分割问题转化为局部区域内的分割问题;然后,搭建Canny边缘支持的深度学习分割网络,对区域内的鱼类实现较高精度图像分割。实验结果表明,本文方法在以VGG-16、ResNet-50和ResNet-101作为主干网络的模型上的分割精度为81.75%、83.73%和85.66%。其中,以ResNet-101作为主干网络的模型与Mask R-CNN、U-Net、DeepLabv3相比,分割精度分别高14.24、11.36、9.45个百分点。本文方法可以为鱼类生物学信息的自动提取提供技术参考。  相似文献   

5.
复杂大田场景中麦穗检测级联网络优化方法   总被引:2,自引:0,他引:2  
单位种植面积的麦穗数量是评估小麦产量的关键农艺指标之一。针对农田复杂场景中存在的大量麦芒、卷曲麦叶、杂草等环境噪声、小尺寸目标和光照不均等导致的麦穗检测准确度下降的问题,提出了一种基于深度学习的麦穗检测方法(FCS R-CNN)。以Cascade R-CNN为基本网络模型,通过引入特征金字塔网络(Feature pyramid network,FPN)融合浅层细节特征和高层丰富语义特征,通过采用在线难例挖掘(Online hard example mining, OHEM)技术增加对高损失样本的训练频次,通过IOU(Intersection over union)阈值对网络模型进行阶段性融合,最后基于圆形LBP纹理特征训练一个SVM分类器,对麦穗检出结果进行复验。大田图像测试表明,FCS R-CNN模型的检测精度达92.9%,识别单幅图像平均耗时为0.357s,平均精度为81.22%,比Cascade R-CNN提高了21.76个百分点。  相似文献   

6.
提出了一种适用于夜晚环境下多个车牌的定位算法。该算法首先利用Retinex图像增强算法,突出在夜晚环境下获取的车辆彩色图像中的车牌目标,然后用提出的图像背景消除算法粗略地提取目标车牌,进而利用K-means聚类算法精确地提取目标车牌区域,并用数学形态学算法消除目标车牌二值图像中的噪声,最后利用Canny算法检测车牌边缘,检测结果叠加在原始车辆彩色图像上完成车牌的定位。实验结果表明,该算法对夜晚环境下的多个车牌定位准确度可达86.5%,证明该算法在此环境下可行、有效。  相似文献   

7.
为提高梨叶片病害发生程度诊断的效率和准确性,本文提出基于全局上下文级联R-CNN网络(Global context Cascade R-CNN,GC-Cascade R-CNN)的梨叶病斑计数方法。模型的主干特征提取网络嵌入全局上下文模块(Global context feature model, GC-Model),建立有效的长距离和通道依赖,增强目标特征信息。引入特征金字塔网络(Feature pyramid network, FPN)融合浅层细节特征和深层丰富语义特征。使用ROI Align替换ROI Pooling进行区域特征聚集,增强目标特征表达。最后利用多层级联网络对目标区域进行边框回归和分类,完成病斑计数任务。在梨叶病斑图像测试中,模型的各类病斑平均精确率均值(Mean average precision, mAP)达89.4%,检测单幅图像平均耗时为0.347 s。结果表明,模型能够有效地从梨叶片病害图像中检测出多类病斑目标,尤其对叶片炭疽病斑检测效果提升显著;不同种类梨叶片病害病斑计数值与真实值回归实验决定系数R2均大于0.92,表明模型病斑计数...  相似文献   

8.
针对高通量自动化获取的植物表型性状图像的智能检测问题,采用迁移学习和改进掩膜区域卷积神经网络(Mask R-CNN)设计植物表型智能检测分割算法。首先对残差网络进行优化,并利用特征金字塔网络(FPN)对输入图像进行特征提取;然后调整候选区域提取网络(RPN)中锚框的长宽比例和阈值,并在RoIAlign中通过双线性插值法保留了特征图的空间信息;最后改进Mask检测头,并增加特征融合机制以获得高质量的掩膜。在西瓜突变体生长情况的性状表型数据集上进行训练和检测,得到结果表明:改进后的Mask R-CNN表现出更优的检测性能,与传统Mask R-CNN相比,检测精度提高22%,掩膜准确率提高2.7%,检测时间减少42 ms,为提升农业精准化水平和推动智慧农业发展提供了技术支撑。  相似文献   

9.
基于优化Faster R-CNN的棉花苗期杂草识别与定位   总被引:2,自引:0,他引:2  
为解决棉花苗期杂草种类多、分布状态复杂,且与棉花幼苗伴生的杂草识别率低、鲁棒性差等问题,以自然条件下新疆棉田棉花幼苗期的7种常见杂草为研究对象,提出了一种基于优化Faster R-CNN和数据增强的杂草识别与定位方法。采集不同生长背景和天气条件下的杂草图像4694幅,对目标进行标注后,再对其进行数据增强;针对Faster R-CNN模型设计合适的锚尺度,对比VGG16、VGG19、ResNet50和ResNet101这4种特征提取网络的分类效果,选定VGG16作为最优特征提取网络,训练后得到可识别不同天气条件下的棉花幼苗与多种杂草的Faster R-CNN网络模型。试验表明,该模型可对杂草与棉花幼苗伴生、杂草分布稀疏或分布紧密且目标多等情况下的杂草进行有效识别与定位,优化后的模型对单幅图像平均识别时间为0.261s,平均识别精确率为94.21%。在相同训练样本、特征提取网络以及环境设置条件下,将本文方法与主流目标检测算法——YOLO算法和SSD算法进行对比,优化后的Faster R-CNN模型具有明显优势。将训练好的模型置于田间实际环境进行验证试验,识别过程对采集到的150幅有效图像进行了验证,平均识别精确率为88.67%,平均每幅图像耗时0.385s,说明本文方法具有一定的适用性和可推广性。  相似文献   

10.
针对水下图像对比度差、模糊,致使检测出的边缘存在不连续和伪边缘的问题,提出一种基于改进的Canny和亚像素的水下图像边缘检测方法。采用改进的Canny算法检测水下图像的像素级边缘,在此基础上采用灰度矩提取图像的亚像素边缘特征,提高边缘的定位精度和检测率。实验结果表明,提出的算法相较于传统的像素级边缘检测算法在边缘轮廓的提取、减少伪边缘、提升边缘精度方面有较大优势,尤其是对深海环境中光源单一以及图像对比度差的物体边缘的检测具有更显著的效果和定位精度。  相似文献   

11.
基于改进卷积神经网络的在体青皮核桃检测方法   总被引:1,自引:0,他引:1  
采摘机器人对核桃采摘时,需准确检测到在体核桃目标。为实现自然环境下青皮核桃的精准识别,研究了基于改进卷积神经网络的青皮核桃检测方法。以预训练的VGG16网络结构作为模型的特征提取器,在Faster R-CNN的卷积层加入批归一化处理、利用双线性插值法改进RPN结构和构建混合损失函数等方式改进模型的适应性,分别采用SGD和Adam优化算法训练模型,并与未改进的Faster R-CNN对比。以精度、召回率和F1值作为模型的准确性指标,单幅图像平均检测时间作为速度性能评价指标。结果表明,利用Adam优化器训练得到的模型更稳定,精度高达97.71%,召回率为94.58%,F1值为96.12%,单幅图像检测耗时为0.227s。与未改进的Faster R-CNN模型相比,精度提高了5.04个百分点,召回率提高了4.65个百分点,F1值提升了4.84个百分点,单幅图像检测耗时降低了0.148s。在园林环境下,所提方法的成功率可达91.25%,并且能保持一定的实时性。该方法在核桃识别检测中能够保持较高的精度、较快的速度和较强的鲁棒性,能够为机器人快速长时间在复杂环境下识别并采摘核桃提供技术支撑。  相似文献   

12.
基于改进CenterNet的玉米雄蕊无人机遥感图像识别   总被引:2,自引:0,他引:2  
为准确识别抽雄期玉米雄蕊实现监测玉米长势、植株计数和估产,基于无锚框的CenterNet目标检测模型,通过分析玉米雄蕊的尺寸分布,并在特征提取网络中添加位置坐标,从而提出一种改进的玉米雄蕊识别模型。针对雄蕊尺寸较小的特点,去除CenterNet网络中对图像尺度缩小的特征提取模块,在降低模型参数的同时,提高检测速度。在CenterNet特征提取模型中添加位置信息,提高定位精度,降低雄蕊漏检率。试验结果表明,与有锚框的YOLO v4、Faster R-CNN模型相比,改进的CenterNet雄蕊检测模型对无人机遥感影像的玉米雄蕊识别精度达到92.4%,分别高于Faster R-CNN和YOLO v4模型26.22、3.42个百分点;检测速度为36f/s,分别比Faster R-CNN和YOLO v4模型高32、23f/s。本文方法能够准确地检测无人机遥感图像中尺寸较小的玉米雄蕊,为玉米抽雄期的农情监测提供参考。  相似文献   

13.
海参目标检测是实现海参自动化捕捞的前提。为了解决复杂海底环境下背景和目标颜色相近以及遮挡导致的目标漏检问题,本文在Faster R-CNN框架下,提出了Swin-RCNN目标检测算法。该算法的骨干网络采用Swin Transformer,同时在结构上融入了多尺度特征提取层和实例分割功能,提高了算法的自适应特征融合能力,从而提高了模型在复杂环境下对不同尺寸海参的识别能力。实验结果表明:本文方法对海参检测的平均精度均值(mAP)达到94.47%,与Faster R-CNN、SSD、YOLO v5、YOLO v4、YOLO v3相比分别提高4.49、4.56、4.46、11.78、22.07个百分点。  相似文献   

14.
针对人工测量、统计作物茎秆显微切片图像中维管束数目、面积等关键参数主观性强、费时费力、效率低的问题,提出一种基于图像处理的水稻茎秆截面参数自动检测方法。首先构建了一个基于改进Mask R-CNN网络的水稻茎秆切片图像分割模型。网络以MobilenetV2和残差特征增强及自适应空间融合的特征金字塔网络为特征提取网络,同时引入PointRend增强模块,并将网络回归损失函数优化为IoU函数,最优模型的F1值为91.21%,平均精确率为94.37%,召回率为88.25%,平均交并比为90.80%,单幅图像平均检测耗时0.50 s,实现了水稻茎秆切片图像中大、小维管束区域的定位、检测和分割;通过边缘检测、形态学处理及轮廓提取,实现茎秆截面轮廓的分割提取。本文方法可实现对水稻茎秆截面面积、截面直径,大、小维管束面积,大、小维管束数量等6个参数的自动检测,检测平均相对误差不超过4.6%,可用于水稻茎秆微观结构的高通量观测。  相似文献   

15.
基于注意力机制和可变形卷积的鸡只图像实例分割提取   总被引:2,自引:0,他引:2  
为提高鸡只个体轮廓分割提取的精度和准确度,实现基于机器视觉技术的鸡只行为、健康、福利状态监测等精准畜牧业管理,保证相关监测技术及决策的可靠性,针对叠层笼养环境下肉鸡图像的实例分割和轮廓提取问题,提出一种优化的基于Mask R-CNN框架的实例分割方法,构建了一种鸡只图像分割和轮廓提取网络,对鸡群图像进行分割,从而实现鸡只个体轮廓的提取。该网络以注意力机制、可变形卷积的41层深度残差网络(ResNet)和特征金字塔网络(Feature pyramid networks, FPN)相融合为主干网络,提取图像特征,并经区域生成网络(Region proposal networks, RPN)提取感兴趣区域(ROI),最后通过头部网络完成鸡只目标的分类、分割和边框回归。鸡只图像分割试验表明,与Mask R-CNN网络相比,优化后网络模型精确率和精度均值分别从78.23%、84.48%提高到88.60%、90.37%,模型召回率为77.48%,可以实现鸡只轮廓的像素级分割。本研究可为鸡只福利状态和鸡只健康状况的实时监测提供技术支撑。  相似文献   

16.
基于Faster R-CNN的田间西兰花幼苗图像检测方法   总被引:4,自引:0,他引:4  
为解决自然环境下作物识别率不高、鲁棒性不强等问题,以西兰花幼苗为研究对象,提出了一种基于Faster R-CNN模型的作物检测方法。根据田间环境特点,采集不同光照强度、不同地面含水率和不同杂草密度下的西兰花幼苗图像,以确保样本多样性,并通过数据增强手段扩大样本量,制作PASCAL VOC格式数据集。针对此数据集训练Faster R-CNN模型,通过设计ResNet101、ResNet50与VGG16网络的对比试验,确定ResNet101网络为最优特征提取网络,其平均精度为90. 89%,平均检测时间249 ms。在此基础上优化网络超参数,确定Dropout值为0. 6时,模型识别效果最佳,其平均精度达到91. 73%。结果表明,本文方法能够对自然环境下的西兰花幼苗进行有效检测,可为农业智能除草作业中的作物识别提供借鉴。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号