首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 46 毫秒
1.
为使采摘机器人快速准确检测出复杂环境中的苹果,提出一种Des-YOLO v4算法与苹果检测方法。由于YOLO v4的网络结构复杂,提出一种Des-YOLO结构,可减少网络参数并提高算法的检测速度;在训练阶段,正负样本的不平衡会导致苹果误检,提出一种基于AP-Loss的类别损失函数,以提高苹果识别的准确性。通过自制的苹果数据集测试了Des-YOLO v4算法,并在苹果采摘机器人样机上完成了采摘实验。实验结果表明:Des-YOLO v4算法对苹果图像的平均精度值为93.1%,检测速度为53f/s;机器人单次采摘时间为8.7s,采摘成功率达92.9%,具有检测精度高、速度快等优点。  相似文献   

2.
基于YOLO v3的生猪个体识别方法   总被引:1,自引:0,他引:1  
为实现高效的猪只个体识别,提出一种基于机器视觉的生猪个体识别方法.通过采集母猪和仔猪个体图像,对图像进行扩充和筛选,制作训练集和测试集.试验采用基于YOLO v3的识别模型,并与Faster RCNN和SSD模型识别结果进行比较,结果表明:对仔猪的识别平均精度均值达89.65%,准确率达95.99%,召回率达84.09...  相似文献   

3.
基于改进YOLO v5的夜间温室番茄果实快速识别   总被引:2,自引:0,他引:2  
为实现日光温室夜间环境下采摘机器人正常工作以及番茄快速识别,提出一种基于改进YOLO v5的夜间番茄果实的识别方法。采集夜间环境下番茄图像2 000幅作为训练样本,通过建立一种基于交并比的CIOU目标位置损失函数,对原损失函数进行改进,根据计算函数anchor生成自适应锚定框,确定最佳锚定框尺寸,构建改进型YOLO v5网络模型。试验结果表明,改进YOLO v5网络模型对夜间环境下番茄绿色果实识别精度、红色果实识别精度、综合平均识别精度分别为96.2%、97.6%和96.8%,对比CNN卷积网络模型及YOLO v5模型,提高了被遮挡特征物与暗光下特征物的识别精度,改善了模型鲁棒性。将改进YOLO v5网络模型通过编译将训练结果写入安卓系统制作快速检测应用软件,验证了模型对夜间环境下番茄果实识别的可靠性与准确性,可为番茄实时检测系统的相关研究提供参考。  相似文献   

4.
基于改进YOLO v3模型的挤奶奶牛个体识别方法   总被引:3,自引:0,他引:3  
为实现无接触、高精度养殖场环境下奶牛个体的有效识别,提出了基于改进YOLO v3深度卷积神经网络的挤奶奶牛个体识别方法。首先,在奶牛进、出挤奶间的通道上方安装摄像机,定时、自动获取奶牛背部视频,并用视频帧分解技术得到牛背部图像;用双边滤波法去除图像噪声,并用像素线性变换法增强图像亮度和对比度,通过人工标注标记奶牛个体编号;为适应复杂环境下的奶牛识别,借鉴Gaussian YOLO v3算法构建了优化锚点框和改进网络结构的YOLO v3识别模型。从89头奶牛的36790幅背部图像中,随机选取22074幅为训练集,其余图像为验证集和测试集。识别结果表明,改进YOLO v3模型的识别准确率为95.91%,召回率为95.32%,mAP为95.16%, IoU为85.28%,平均帧率为32f/s,识别准确率比YOLO v3高0.94个百分点,比Faster R-CNN高1.90个百分点,检测速度是Faster R-CNN的8倍,背部为纯黑色奶牛的F1值比YOLO v3提高了2.75个百分点。本文方法具有成本低、性能优良的特点,可用于养殖场复杂环境下挤奶奶牛个体的实时识别。  相似文献   

5.
针对深层神经网络模型部署到番茄串采摘机器人,存在运行速度慢,对目标识别率低,定位不准确等问题,本文提出并验证了一种高效的番茄串检测模型。模型由目标检测与语义分割两部分组成。目标检测负责提取番茄串所在的矩形区域,利用语义分割算法在感兴趣区域内获取番茄茎位置。在番茄检测模块,设计了一种基于深度卷积结构的主干网络,在实现模型参数稀疏性的同时提高目标的识别精度,采用K-means++聚类算法获得先验框,并改进了DIoU距离计算公式,进而获得更为紧凑的轻量级检测模型(DC-YOLO v4)。在番茄茎语义分割模块(ICNet)中以MobileNetv2为主干网络,减少参数计算量,提高模型运算速度。将采摘模型部署在番茄串采摘机器人上进行验证。采用自制番茄数据集进行测试,结果表明,DC-YOLO v4对番茄及番茄串的平均检测精度为99.31%,比YOLO v4提高2.04个百分点。语义分割模块的mIoU为81.63%,mPA为91.87%,比传统ICNet的mIoU提高2.19个百分点,mPA提高1.47个百分点。对番茄串的准确采摘率为84.8%,完成一次采摘作业耗时约6s。  相似文献   

6.
基于热红外视频的生猪体温检测过程中,视频中保育期生猪头部姿态变化大,且耳根区域小,导致头部和耳根区域定位精度低,影响生猪耳根温度的精准检测。针对以上问题,本文提出了一种基于改进YOLO v4(Mish Dense YOLO v4,MD-YOLO v4)的生猪耳根温度检测方法,构建了生猪关键部位检测模型。首先,在CSPDarknet-53主干网络中,添加密集连接块,以优化特征转移和重用,并将空间金字塔池化(Spatial pyramid pooling, SPP)模块集成到主干网络,进一步增加主干网络感受野;其次,在颈部引入改进的路径聚合网络(Path aggregation network, PANet),缩短多尺度特征金字塔图的高、低融合路径;最后,网络的主干和颈部使用Mish激活函数,进一步提升该方法的检测精度。试验结果表明,该模型对生猪关键部位检测的mAP为95.71%,分别比YOLO v5和YOLO v4高5.39个百分点和6.43个百分点,检测速度为60.21 f/s,可满足实时检测的需求;本文方法对热红外视频中生猪左、右耳根温度提取的平均绝对误差分别为0.26℃和0.21℃...  相似文献   

7.
基于改进YOLO v3的自然场景下冬枣果实识别方法   总被引:4,自引:0,他引:4  
为实现自然场景下冬枣果实的快速、精准识别,考虑到光线变化、枝叶遮挡、果实密集重叠等复杂因素,基于YOLO v3深度卷积神经网络提出了一种基于改进YOLO v3(YOLO v3-SE)的冬枣果实识别方法.YOLO v3-SE模型利用SE Net的SE Block结构将特征层的特征权重校准为特征权值,强化了有效特征,弱化了...  相似文献   

8.
针对苹果采摘机器人识别算法包含复杂的网络结构和庞大的参数体量,严重限制检测模型的响应速度问题,本文基于嵌入式平台,以YOLO v4作为基础框架提出一种轻量化苹果实时检测方法(YOLO v4-CA)。该方法使用MobileNet v3作为特征提取网络,并在特征融合网络中引入深度可分离卷积,降低网络计算复杂度;同时,为弥补模型简化带来的精度损失,在网络关键位置引入坐标注意力机制,强化目标关注以提高密集目标检测以及抗背景干扰能力。在此基础上,针对苹果数据集样本量小的问题,提出一种跨域迁移与域内迁移相结合的学习策略,提高模型泛化能力。试验结果表明,改进后模型的平均检测精度为92.23%,在嵌入式平台上的检测速度为15.11f/s,约为改进前模型的3倍。相较于SSD300与Faster R-CNN,平均检测精度分别提高0.91、2.02个百分点,在嵌入式平台上的检测速度分别约为SSD300和Faster R-CNN的1.75倍和12倍;相较于两种轻量级目标检测算法DY3TNet与YOLO v5s,平均检测精度分别提高7.33、7.73个百分点。因此,改进后的模型能够高效实时地对复杂果园环境中的苹果进行检测,适宜在嵌入式系统上部署,可以为苹果采摘机器人的识别系统提供解决思路。  相似文献   

9.
羊只站立、行走、采食等日常行为与其健康状况密切相关,高效、准确的羊只行为识别有助于疾病检测,对实现羊只健康预警具有重要意义。针对目前羊只多行为识别检测大多基于传感器等接触式设备,羊只活动受限,行为具有局限性,且群体养殖环境下,羊只行为多样、场景复杂、存在遮挡等造成的行为识别精度低等问题,提出了一种基于改进YOLO v8s的羊只行为识别方法。首先,引入SPPCSPC空间金字塔结构增强了模型的特征提取能力,提升了模型的检测精度。其次,新增P2小目标检测层,增强了模型对小目标的识别和定位能力。最后,引入多尺度轻量化模块PConv和EMSConv,在保证模型识别效果的同时,降低了模型参数量和计算量,实现了模型轻量化。实验结果表明,改进YOLO v8s模型对羊只站立、行走、采食、饮水、趴卧行为平均识别精度分别为84.62%、92.58%、87.54%、98.13%和87.18%,整体平均识别精度为90.01%。与Faster R-CNN、YOLO v5s、YOLO v7、YOLO v8s模型相比,平均识别精度分别提高12.03、3.95、1.46、2.19个百分点。研究成果可为羊只健康管理和疾病预警提供技术支撑。  相似文献   

10.
为了有效地解决传统车辆检测算法中存在的泛化能力差、识别率不高的问题,提出了一种基于改进YOLO v3的车辆检测算法.改进的车辆算法对原YOLO v3中的模型进行剪枝处理,采用Darknet-53网络结构提取特征,同时结合回归损失函数GIOU算法对检测精度进行提高.在运用K-means++聚类分析算法处理数据基础上,运用...  相似文献   

11.
为提高马铃薯幼苗叶芽检测识别的准确率,提高自动育苗生产系统的工作效率,提出了基于YOLO v4网络的改进识别网络。将YOLO v4特征提取部分CSPDarknet53中的残差块(Residual Block)替换为Res2Net,并采用深度可分离卷积操作减小计算量。由此,在增大卷积神经网络感受野的同时,能够获得叶芽更加细小的特征信息,减少马铃薯叶芽的漏检率。设计了基于扩张卷积的空间特征金字塔(D-SPP模块),并嵌入和替换到特征提取部分的3个特征层输出中,用于提高马铃薯叶芽目标识别定位的准确性。采用消融实验对改进策略的有效性进行了验证分析。实验结果表明,改进的识别网络对马铃薯叶芽检测的精确率为95.72%,召回率为94.91%,综合评价指标F1值为95%,平均精确率为96.03%。与Faster R-CNN、YOLO v3、YOLO v4网络相比,改进的识别网络具有更好的识别性能,从而可有效提高马铃薯自动育苗生产系统的工作效率。  相似文献   

12.
基于改进YOLO v4网络的马铃薯自动育苗叶芽检测方法   总被引:1,自引:0,他引:1  
为提高马铃薯幼苗叶芽检测识别的准确率,提高自动育苗生产系统的工作效率,提出了基于YOLO v4网络的改进识别网络。将YOLO v4特征提取部分CSPDarknet53中的残差块(Residual Block)替换为Res2Net,并采用深度可分离卷积操作减小计算量。由此,在增大卷积神经网络感受野的同时,能够获得叶芽更加细小的特征信息,减少马铃薯叶芽的漏检率。设计了基于扩张卷积的空间特征金字塔(D-SPP模块),并嵌入和替换到特征提取部分的3个特征层输出中,用于提高马铃薯叶芽目标识别定位的准确性。采用消融实验对改进策略的有效性进行了验证分析。实验结果表明,改进的识别网络对马铃薯叶芽检测的精确率为95.72%,召回率为94.91%,综合评价指标F1值为95%,平均精确率为96.03%。与Faster R-CNN、YOLO v3、YOLO v4网络相比,改进的识别网络具有更好的识别性能,从而可有效提高马铃薯自动育苗生产系统的工作效率。  相似文献   

13.
为实现复杂自然环境下对桑树嫩叶处枝干的识别检测,改变当前桑叶采摘设备作业过程中依赖人工辅助定位的现状,解决识别目标姿态多样和环境复杂导致的低识别率问题,提出一种基于改进YOLO v5模型的桑树枝干识别模型(YOLO v5-mulberry),并结合深度相机构建定位系统。首先,在YOLO v5的骨干网络中加入CBAM(Convolutional block attention module)注意力机制,提高神经网络对桑树枝干的关注度;并增加小目标层使模型可检测4像素×4像素的目标,提高了模型检测小目标的性能;同时使用GIoU损失函数替换原始网络中的IoU损失函数,有效防止了预测框和真实框尺寸较小时无法正确反映预测框及真实框之间位置关系的情况;随后,完成深度图和彩色图的像素对齐,通过坐标系转换获取桑树枝干三维坐标。试验结果表明:YOLO v5-mulberry检测模型的平均精度均值为94.2%,较原模型提高16.9个百分点,置信度也提高12.1%;模型室外检测时应检测目标数53,实际检测目标数为48,检测率为90.57%;桑树嫩叶处枝干三维坐标识别定位系统的定位误差为(9.498 5 mm...  相似文献   

14.
基于改进YOLO v5的自然环境下樱桃果实识别方法   总被引:1,自引:0,他引:1  
为提高对樱桃果实识别的准确率,提升果园自动采摘机器人的工作效率,使用采集到的樱桃原始图像以及其搭配不同数据增强方式得到的数据图像共1816幅建立数据集,按照8∶2将数据集划分成训练集与测试集。基于深度学习网络,利用YOLO v5模型分别对不同数据增强方式以及组合增强方式扩增后的樱桃数据集进行识别检测,结果表明离线增强与在线增强均对模型精度提升有一定的正向促进作用,其中采用离线数据增强策略能够显著且稳定的增加检测精度,在线数据增强策略能够小幅度提高检测精度,同时使用离线增强以及在线增强能够最大幅度的提升平均检测精度。针对樱桃果实之间相互遮挡以及图像中的小目标樱桃检测难等导致自然环境下樱桃果实检测精度低的问题,本文将YOLO v5的骨干网络进行改动,增添具有注意力机制的Transformer模块,Neck结构由原来的PAFPN改成可以进行双向加权融合的BiFPN,Head结构增加了浅层下采样的P2模块,提出一种基于改进YOLO v5的自然环境下樱桃果实的识别网络。实验结果表明:相比于其他已有模型以及单一结构改进后的YOLO v5模型,本文提出的综合改进模型具有更高的检测精度,使平均精度均值2提高了29个百分点。结果表明该方法有效的增强了识别过程中特征融合的效率和精度,显著地提高了樱桃果实的检测效果。同时,本文将训练好的网络模型部署到安卓(Android)平台上。该系统使用简洁,用户设备环境要求不高,具有一定的实用性,可在大田环境下对樱桃果实进行准确检测,能够很好地满足实时检测樱桃果实的需求,也为自动采摘等实际应用奠定了基础。  相似文献   

15.
针对玉米种质资源遗传多样性丰富导致雄穗大小、形态结构及颜色呈现较大差异,无人机搭载可见光传感器相比地面采集图像分辨率低,以及图像中部分雄穗过小、与背景相似度高、被遮挡、相互交错等情况带来的雄穗检测精度低的问题,提出了一种改进YOLO v7-tiny模型的玉米种质资源雄穗检测方法。该方法通过在YOLO v7-tiny中引入SPD-Conv模块和VanillaBlock模块,以及添加ECA-Net模块的方式,增强模型对雄穗特征的提取能力。利用自建的玉米种质资源雄穗数据集,训练并测试改进模型。结果表明,改进YOLO v7-tiny的平均精度均值为94.6%,相比YOLO v7-tiny提升1.5个百分点,相比同等规模的轻量级模型YOLO v5s、YOLO v8s分别提升1.0、3.1个百分点,显著降低了图像中雄穗漏检及背景误检为雄穗的发生,有效减少了单穗误检为多穗和交错状态下雄穗个数误判的情况。改进YOLO v7-tiny模型内存占用量为17.8MB,推理速度为231f/s。本文方法在保证模型轻量化的前提下提升了雄穗检测精度,为玉米种质资源雄穗实时、精准检测提供了技术支撑。  相似文献   

16.
奶山羊乳房区域的准确提取是奶山羊非侵入式体温检测的关键,但受乳房区域遮挡及热红外图像分辨率不高等因素影响,其检测精度尚待进一步提升。基于热红外成像技术,提出了一种基于改进YOLO v5s的奶山羊乳房关键部位检测方法。通过将原模型Backbone网络的部分卷积模块替换为ShuffleNetV2结构,以达到降低网络部署和训练过程中的参数量、实现轻量化网络设计的目的。通过在Neck网络检测头(Head)前端引入CBAM注意力机制,以达到在降低网络复杂程度的同时保证奶山羊乳房区域检测精度的目的。本研究采集了包含完整信息、残缺信息和边缘模糊的孕期奶山羊乳房红外图像4611幅,并在部位标注后进行模型训练。经测试,模型精确率为93.7%,召回率为86.1%,平均精度均值为92.4%,参数量为8×105,浮点运算量为1.9×109。与YOLO v5n、YOLO v5s、YOLO v7-tiny、YOLO v7、YOLO v8n和YOLO v8s目标检测网络相比,网络的精确率分别提高1.9、1.2、1.6、4.3、3.5、2.7个百分点,召回率提高3.4、5.0、0.1、2.6、0.9、1.5个百分点,参数量降低1.1×106、6.2×106、5.2×106、3.6×107、2.4×106和1.0×107,浮点运算量降低2.6×109、1.4×1010、1.1×1010、1.0×1011、6.8×109和2.7×1010。试验结果表明,本研究所提出的网络可以实现奶山羊乳房关键部位的精确检测,且在不损失检测精度的基础上显著降低网络的参数量,有利于网络在不同环境下的部署和使用,可为奶山羊非接触式体温监测系统设计提供借鉴。  相似文献   

17.
针对养殖池塘内单环刺螠自动采捕和产量预测应用需求,提出一种基于深度学习的单环刺螠洞口识别方法,以适用于自动采捕船的嵌入式设备。该方法通过将YOLO v4的主干网络CSPDarkNet53替换为轻量型网络Mobilenet v2,降低网络参数量,提升检测速度,并在此基础上使用深度可分离卷积块代替原网络中Neck和Detection Head部分的普通卷积块,进一步降低模型参数量;选取带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration,MSRCR)增强算法进行图像增强;利用K-means++算法对数据集进行重新聚类,对获得的新锚点框尺寸进行线性缩放优化,以提高目标检测效果。在嵌入式设备Jetson AGX Xavier上部署训练好的模型,对水下单环刺螠洞口检测的平均精度均值(Mean average precision,mAP)可达92.26%,检测速度为36f/s,模型内存占用量仅为22.2MB。实验结果表明,该方法实现了检测速度和精度的平衡,可满足实际应用场景下模型部署在单环刺螠采捕船嵌入式设备的需求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号