首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 156 毫秒
1.
海参目标检测是实现海参自动化捕捞的前提。为了解决复杂海底环境下背景和目标颜色相近以及遮挡导致的目标漏检问题,本文在Faster R-CNN框架下,提出了Swin-RCNN目标检测算法。该算法的骨干网络采用Swin Transformer,同时在结构上融入了多尺度特征提取层和实例分割功能,提高了算法的自适应特征融合能力,从而提高了模型在复杂环境下对不同尺寸海参的识别能力。实验结果表明:本文方法对海参检测的平均精度均值(mAP)达到94.47%,与Faster R-CNN、SSD、YOLO v5、YOLO v4、YOLO v3相比分别提高4.49、4.56、4.46、11.78、22.07个百分点。  相似文献   

2.
为实现复杂自然环境下对桑树嫩叶处枝干的识别检测,改变当前桑叶采摘设备作业过程中依赖人工辅助定位的现状,解决识别目标姿态多样和环境复杂导致的低识别率问题,提出一种基于改进YOLO v5模型的桑树枝干识别模型(YOLO v5-mulberry),并结合深度相机构建定位系统。首先,在YOLO v5的骨干网络中加入CBAM(Convolutional block attention module)注意力机制,提高神经网络对桑树枝干的关注度;并增加小目标层使模型可检测4像素×4像素的目标,提高了模型检测小目标的性能;同时使用GIoU损失函数替换原始网络中的IoU损失函数,有效防止了预测框和真实框尺寸较小时无法正确反映预测框及真实框之间位置关系的情况;随后,完成深度图和彩色图的像素对齐,通过坐标系转换获取桑树枝干三维坐标。试验结果表明:YOLO v5-mulberry检测模型的平均精度均值为94.2%,较原模型提高16.9个百分点,置信度也提高12.1%;模型室外检测时应检测目标数53,实际检测目标数为48,检测率为90.57%;桑树嫩叶处枝干三维坐标识别定位系统的定位误差为(9.498 5 mm...  相似文献   

3.
基于多尺度融合模块和特征增强的杂草检测方法   总被引:1,自引:0,他引:1  
针对单步多框检测器(Single shot multibox detector, SSD)网络模型参数多、小目标检测效果差、作物与杂草检测精度低等问题,提出一种基于多尺度融合模块和特征增强的杂草检测方法。首先将轻量网络MobileNet作为SSD模型的特征提取网络,并设计了一种多尺度融合模块,将浅层特征图先通过通道注意力机制增强图像中的关键信息,再将特征图经过不同膨胀系数的扩张卷积扩大感受野,最后将两条分支进行特征融合,对于检测小目标的浅层特征图,在包含较多小目标细节信息的同时,还包含丰富的语义信息。在此基础上对输出的6个特征图经过通道注意力机制进行特征增强。实验结果表明,本文提出的基于多尺度融合模块和特征增强的杂草检测模型,在自然环境下甜菜与杂草图像数据集中,平均检测精度可达88.84%,较标准SSD模型提高了3.23个百分点,参数量减少57.09%,检测速度提高88.44%,同时模型对小目标作物与杂草以及叶片交叠情况的检测能力均有提高。  相似文献   

4.
猪只盘点是规模化养殖中的重要环节,为生猪精准饲喂和资产管理提供了依据。人工盘点不仅耗时低效,而且容易出错。当前已有基于深度学习的生猪智能盘点算法,但在遮挡重叠、光照等复杂场景下盘点精度较低。为提高复杂场景下生猪盘点的精度,提出了一种基于改进YOLO v5n的猪只盘点算法。该算法从提升猪只目标检测性能出发,构建了一个多场景的生猪数据集;其次,在主干网络中引入SE-Net通道注意力模块,引导模型更加关注遮挡条件下猪只目标信息的通道特征。同时,增加了检测层进行多尺度特征融合处理,使模型更容易学习收敛并预测不同尺度的猪只对象,提升模型遮挡场景的检测性能;最后,对边界框损失函数以及非极大值抑制处理进行了改进,使模型对遮挡的目标有更好的识别效果。实验结果表明,与原YOLO v5n算法相比,改进算法的平均绝对误差(MAE)、均方根误差(RMSE)以及漏检率分别降低0.509、0.708以及3.02个百分点,平均精度(AP)提高1.62个百分点,达到99.39%,在复杂遮挡重叠场景下具有较优的精确度和鲁棒性。算法的MAE为0.173,与猪只盘点算法CClusnet、CCNN和PCN相比,分别降低0.2...  相似文献   

5.
杆塔是输电线路中的重要组成设施,其安全直接影响电网电力输送的安全稳定。根据遥感影像中杆塔小目标识别精度低等问题,研究基于YOLOv5s和YOLOv5x算法进行集成建模,并加入加权框融合(weighted boxes fusion,WBF)推理机制,借助高分辨率遥感杆塔影像数据集进行模型训练测试,并对数据集做测试时增强(test-time augmentation,TTA)。实验结果显示:与单模型识别结果相比较,集成YOLOv5模型识别精确度、召回率、mAP@.5显著提升,分别达到0.952、0.944、0.929;并且在一些复杂背景、不同光照环境和不同天气条件下模型都具有良好的识别效果,具有较强的鲁棒性。  相似文献   

6.
为了实现复杂环境下农业机器人对番茄果实的快速准确识别,提出了一种基于注意力机制与改进YOLO v5s的温室番茄目标快速检测方法。根据YOLO v5s模型小、速度快等特点,在骨干网络中加入卷积注意力模块(CBAM),通过串联空间注意力模块和通道注意力模块,对绿色番茄目标特征给予更多的关注,提高识别精度,解决绿色番茄在相似颜色背景中难识别问题;通过将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高果实目标定位精度。试验结果表明,CB-YOLO网络模型对温室环境下红色番茄检测精度、绿色番茄检测精度、平均精度均值分别为99.88%、99.18%和99.53%,果实检测精度和平均精度均值高于Faster R-CNN模型、YOLO v4-tiny模型和YOLO v5模型。将CB-YOLO模型部署到安卓手机端,通过不同型号手机测试,验证了模型在移动终端设备上运行的稳定性,可为设施环境下基于移动边缘计算的机器人目标识别及采收作业提供技术支持。  相似文献   

7.
针对我国油茶果采摘过程中存在的自动化水平落后、采摘效率低、适采周期短的现状,应用于机器人收获技术的机器视觉技术受限于真实场景中复杂背景干扰从而导致识别精度较低的问题。以自然场景下的油茶果为研究对象,提出一种基于Mask-RCNN的自然场景下油茶果目标识别与检测算法,首先获取油茶果图像并建立数据集,利用ResNet卷积神经网络提取油茶果果实图片的特征,获得果实目标分割结果,再采用RPN对所得到的特征图进行操作,并增加全连接层,提取每个样本mask像素面积,并对目标类别进行预测。利用测试集分别测试油茶果的分割网络模型及目标识别算法,结果表明,网络模型的分割准确率为89.85%,油茶果目标识别的平均检测精度为89.42%,召回率为92.86%。本算法能够自动检测油茶果目标,并有效降低不同光照情况下叶片与花苞遮挡、果实重叠、果实色泽等因素干扰,为自然场景中果实自动化采摘提供可靠的视觉支持。  相似文献   

8.
为使巡检机器人能够对体积小且密集、形态多变、数量多且分布不均的害虫进行高效精准识别,提出了一种基于改进YOLO v7的害虫识别方法。该方法将CSP Bottleneck与基于移位窗口Transformer(Swin Transformer)自注意力机制相结合,提高了模型获取密集害虫目标位置信息的能力;在路径聚合部分增加第4检测支路,提高模型对小目标的检测性能;将卷积注意力模块(CBAM)集成到YOLO v7模型中,使模型更加关注害虫区域,抑制背景等一般特征信息,提高被遮挡害虫的识别精确率;使用Focal EIoU Loss损失函数减少正负样本不平衡对检测结果的影响,提高识别精度。采用基于实际农田环境建立的数据集的实验结果表明,改进后算法的精确率、召回率及平均精度均值分别为91.6%、82.9%和88.2%,较原模型提升2.5、1.2、3个百分点。与其它主流模型的对比实验结果表明,本文方法对害虫的实际检测效果更优,对解决农田复杂环境下害虫的精准识别问题具有参考价值。  相似文献   

9.
刘慧  张礼帅  沈跃  张健  吴边 《农业机械学报》2019,50(4):29-35,101
农田障碍物的精确识别是无人农业车辆必不可少的关键技术之一。针对果园环境复杂难以准确检测出障碍物信息的问题,提出了一种改进单次多重检测器(Single shot multibox detector,SSD)深度学习目标检测方法,对田间障碍物中的行人进行识别。使用轻量化网络MobileNetV2作为SSD模型中的基础网络,以减少提取图像特征过程中所花费的时间及运算量,辅助网络层以反向残差结构结合空洞卷积作为基础结构进行位置预测,在综合多尺度特征的同时避免下采样操作带来的信息损失,基于Tensorflow深度学习框架,在卡耐基梅隆大学国家机器人工程中心的果园行人检测开放数据集上进行不同运动状态(运动、静止)、不同姿态(正常、非正常)和不同目标面积(大、中、小)的田间行人识别精度和识别速度的对比试验。试验表明,当IOU阀值为0. 4时,改进的SSD模型田间行人检测模型的平均准确率和召回率分别达到了97. 46%和91. 65%,高于改进前SSD模型的96. 87%和88. 51%,并且参数量减少至原来的1/7,检测速度提高了187. 5%,检测速度为62. 50帧/s,模型具有较好的鲁棒性,可以较好地实现田间环境下行人的检测,为无人农机的避障决策提供依据。  相似文献   

10.
针对火焰目标尺寸变化大、YOLOv3算法对小尺寸目标的检测性能有所欠缺、对火焰目标的检测效果不好的问题,提出对YOLOv3的改进策略。充分发挥空洞卷积在不提升训练参数的同时扩大卷积核感受野的优点,构建2层空洞卷积层,对特征金字塔的融合特征进一步提取多尺度特征;在空洞卷积模块后添加通道注意力机制模块,抑制冗余的特征;使用DIOU损失函数降低对目标的漏检率。通过在火焰目标数据集上的对比实验表明,改进后的YOLOv3训练模型在精度上达到了81.2%,相比原YOLOv3模型提升2.9%。与SSD模型相比在精度上有所提高,相比Faster R-CNN模型在检测速度上更具有优势;对小尺寸目标的检测效果相比原YOLOv3模型有所提升。  相似文献   

11.
基于字典学习与SSD的不完整昆虫图像稻飞虱识别分类   总被引:1,自引:0,他引:1  
为了解决图像采集过程中由于昆虫图像获取不完整而导致整体稻飞虱识别精度低、速度慢的问题,提出了一种基于字典学习和SSD的不完整稻飞虱图像分类方法。首先,使用自主研发的野外昆虫图像采集装置采集稻飞虱图像,构建小型图像集。然后,将采集的稻田昆虫图像进行阈值分割,得到单一稻田昆虫图像;对单一昆虫图像进行分块处理,得到带有背景信息和特征信息的混合子图像块集;使用子图像块作为字典原子来构建过完备字典,并对其进行初始化和优化更新;将更新后的过完备字典作为训练集输入SSD算法中进行训练,得到训练模型。最后,将采集的包含不完整稻田昆虫的图像在训练集模型上进行测试,并将测试结果与BPNN(Back propagation neural network)、SVM (Support vector machines)、稀疏表示等方法进行对比。试验结果表明,所提出的基于字典学习和SSD的稻飞虱识别与分类方法可以对不完整的昆虫图像进行准确快速的识别分类,其中,分类速度可达22f/s,识别精度可达89.3%,对稻飞虱的监督、预警和防治提供了有效的信息与技术支持。  相似文献   

12.
基于深度学习的诱捕器内红脂大小蠹检测模型   总被引:2,自引:0,他引:2  
红脂大小蠹是危害我国北方地区松杉类针叶树种的重大林业入侵害虫,其虫情监测是森林虫害防治的重要环节。传统的人工计数方法已经无法满足现代化红脂大小蠹监测的需求。为自动化识别并统计信息素诱捕器捕获的红脂大小蠹,在传统信息素诱捕器中集成摄像头,自动采集收集杯内图像,建立蠹虫数据集。使用K-means聚类算法优化Faster R-CNN深度学习目标检测模型的默认框,并使用GPU服务器端到端地训练该模型,实现了诱捕器内任意姿态红脂大小蠹的目标检测。采用面向个体的定量评价和面向诱捕器的定性评价两种评价方式。实验结果表明:较原始Faster R-CNN模型,该模型在困难测试集上面向个体和诱捕器的精确率-召回率曲线下面积(Area under the curve,AUC)提升了4.33%和3.28%。在整体测试集上个体和诱捕器AUC分别达0.9350、0.9722。该模型的检测速率为1.6s/幅,准确度优于SSD、Faster R-CNN等目标检测模型,对姿态变化、杂物干扰、酒精蒸发等有较好的鲁棒性。改进后的模型可从被诱芯吸引的6种小蠹科昆虫中区分出危害最大的红脂大小蠹,自动化地统计诱捕器内红脂大小蠹数量。  相似文献   

13.
鱼的行为变化除了可以反映其自身健康状况外,还对分析水质变化具有重要意义,而精确、快速的鱼体目标检测是行为变化分析的基础。针对现有多目标鱼体检测算法存在检测定位精确度低的问题,提出了一种简单、有效的多目标鱼体对象提议检测算法。提取鱼体图像的骨架和边缘信息,制定新的窗口打分策略生成候选窗口,训练PCA卷积核提取鱼体图像前景和背景特征,利用支持向量机(Support vector machine,SVM)识别得到鱼体目标所在的候选窗口,运用非极大值抑制算法剔除冗余窗口完成目标检测。实验表明,基于新的窗口打分策略生成的候选窗口比Edge Boxes算法得到的候选窗口具有更高的召回率,召回率最高可达96.9%,对候选窗口的最高识别准确率可达95.71%。通过本文算法和Edge Boxes-PCANet算法得到的漏检率、误检率和平均检测时间表明,本文算法的综合表现更优,说明本文算法可以高效精确地实现多目标鱼体检测。  相似文献   

14.
为实现田间环境下对玉米苗和杂草的高精度实时检测,本文提出一种融合带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration, MSRCR)增强算法的改进YOLOv4-tiny模型。首先,针对田间环境的图像特点采用MSRCR算法进行图像特征增强预处理,提高图像的对比度和细节质量;然后使用Mosaic在线数据增强方式,丰富目标检测背景,提高训练效率和小目标的检测精度;最后对YOLOv4-tiny模型使用K-means++聚类算法进行先验框聚类分析和通道剪枝处理。改进和简化后的模型总参数量降低了45.3%,模型占用内存减少了45.8%,平均精度均值(Mean average precision, mAP)提高了2.5个百分点,在Jetson Nano嵌入式平台上平均检测帧耗时减少了22.4%。本文提出的Prune-YOLOv4-tiny模型与Faster RCNN、YOLOv3-tiny、YOLOv4 3种常用的目标检测模型进行比较,结果表明:Prune-YOLOv4-tiny的mAP为96.6%,分别比Faster RCNN和YOLOv3...  相似文献   

15.
针对我国禽蛋孵化行业以人工方式剔除无精蛋自动化程度低的问题,以孵化5 d的群体种鸭蛋为研究对象,利用图像采集装置采集群体种鸭蛋图像,在常用单步多框检测器(Single shot multibox detector,SSD)网络的基础上提出一种改进SSD目标检测算法,并采用该方法对孵化早期整盘群体种鸭蛋中的受精蛋与无精蛋进行识别。利用MobileNetV3轻量化网络作为模型的特征提取网络,可快速高效提取图像特征。结果表明:本文建立的模型对孵化早期群体种鸭蛋中受精蛋与无精蛋的平均识别精度为98.09%、召回率为97.32%、漏检率为0,优于改进前网络模型的96.88%、96.17%、1.04%。本文方法可为种鸭蛋孵化产业相关智能机器人或机械手的研发提供技术支撑。  相似文献   

16.
对图像中的鱼类目标进行分割是提取鱼类生物学信息的关键步骤。针对现有方法对养殖条件下的鱼类图像分割精度较低的问题,提出了基于目标检测及边缘支持的鱼类图像分割方法。首先,设计了基于目标检测的完整轮廓提取方法,将具有完整轮廓的鱼类目标从图像中提取出来作为分割阶段的输入,使得整幅图像的分割问题转化为局部区域内的分割问题;然后,搭建Canny边缘支持的深度学习分割网络,对区域内的鱼类实现较高精度图像分割。实验结果表明,本文方法在以VGG-16、ResNet-50和ResNet-101作为主干网络的模型上的分割精度为81.75%、83.73%和85.66%。其中,以ResNet-101作为主干网络的模型与Mask R-CNN、U-Net、DeepLabv3相比,分割精度分别高14.24、11.36、9.45个百分点。本文方法可以为鱼类生物学信息的自动提取提供技术参考。  相似文献   

17.
为提高现有苹果目标检测模型在硬件资源受限制条件下的性能和适应性,实现在保持较高检测精度的同时,减轻模型计算量,降低检测耗时,减少模型计算和存储资源占用的目的,本研究通过改进轻量级的MobileNetV3网络,结合关键点预测的目标检测网络(CenterNet),构建了用于苹果检测的轻量级无锚点深度学习网络模型(M-CenterNet),并通过与CenterNet和单次多重检测器(Single Shot Multibox Detector,SSD)网络比较了模型的检测精度、模型容量和运行速度等方面的综合性能。对模型的测试结果表明,本研究模型的平均精度、误检率和漏检率分别为88.9%、10.9%和5.8%;模型体积和帧率分别为14.2MB和8.1fps;在不同光照方向、不同远近距离、不同受遮挡程度和不同果实数量等条件下有较好的果实检测效果和适应能力。在检测精度相当的情况下,所提网络模型体积仅为CenterNet网络的1/4;相比于SSD网络,所提网络模型的AP提升了3.9%,模型体积降低了84.3%;本网络模型在CPU环境中的运行速度比CenterNet和SSD网络提高了近1倍。研究结果可为非结构环境下果园作业平台的轻量化果实目标检测模型研究提供新的思路。  相似文献   

18.
针对光照不均、噪声大、拍摄质量不高的夜晚水下环境,为实现夜晚水下图像中鱼类目标的快速检测,利用计算机视觉技术,提出了一种基于改进Cascade R-CNN算法和具有色彩保护的MSRCP(Multi-scale Retinex with color restoration)图像增强算法的夜晚水下鱼类目标检测方法。首先针对夜晚水下环境的视频数据,根据时间间隔,截取出相应的夜晚水下鱼类图像,对截取的原始图像进行MSRCP图像增强。然后采用DetNASNet主干网络进行网络训练和水下鱼类特征信息的提取,将提取出的特征信息输入到Cascade R-CNN模型中,并使用Soft-NMS候选框优化算法对其中的RPN网络进行优化,最后对夜晚水下鱼类目标进行检测。实验结果表明,该方法解决了夜晚水下环境中的图像降质、鱼类目标重叠检测问题,实现了对夜晚水下鱼类目标的快速检测,对夜晚水下鱼类图像目标检测的查准率达到95.81%,比Cascade R-CNN方法提高了11.57个百分点。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号