首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 500 毫秒
1.
【目的】传统的水果检测识别技术具有一定的环境适应缺陷性和主观性,通常是对水果的纹理、颜色、形状等外表特征进行提取和识别,为实现对柑橘果实产量的精准预测,需研究温室环境下对柑橘果实的快速识别及计数。【方法】项目组选取从柑橘种植园中多场景拍摄的5 926张图片作为训练集、738张图片作为验证集、608张图片作为测试集,采用DeepSort算法结合改进YOLOv5算法的方式,通过在主干部分加入SE注意力机制以实现对算法的改进,从而提高对柑橘果实的识别效果;在柑橘果实计数部分,主要采用DeepSort算法给予每个柑橘果实单独的ID编号以实现对柑橘果实的计数。【结果】改进后的YOLOv5算法对柑橘果实的平均识别准确率为93.712%,相比改进前的CenterNet算法、EfficientDet算法、SSD算法、YOLOv4算法、YOLOX算法,平均识别准确率提升了1.354个百分点,并且精确度和召回率也有一定的提升,结合DeepSort算法后对柑橘果实的平均多目标跟踪准确率为88.465%,可较准确地实现对柑橘果实的计数。【结论】DeepSort算法具有提升目标被环境等其他因素遮挡情况下的计数效...  相似文献   

2.
基于卷积神经网络的草莓识别方法   总被引:6,自引:0,他引:6  
针对目前草莓识别定位大多在简单环境下进行、识别效率较低的问题,提出利用改进的YOLOv3识别方法在复杂环境中对草莓进行连续识别检测。通过训练大量的草莓图像数据集,得到最优权值模型,其测试集的精度均值(MAP)达到87. 51%;成熟草莓的识别准确率为97. 14%,召回率为94. 46%;未成熟草莓的识别准确率为96. 51%,召回率为93. 61%。在模型测试阶段,针对夜晚环境下草莓图像模糊的问题,采用伽马变换得到的增强图像较原图识别正确率有显著提升。以调和平均值(F)作为综合评价指标,对比多种识别方法在不同果实数量、不同时间段及视频测试下的实际检测结果,结果表明,YOLOv3算法F值最高,每帧图像的平均检测时间为34. 99 ms,视频的平均检测速率为58. 1 f/s,模型的识别正确率及速率均优于其他算法,满足实时性要求。同时,该方法在果实遮挡、重叠、密集等复杂环境下具有良好的鲁棒性。  相似文献   

3.
为了提高太阳能电池板的检测效率,针对太阳能电池板常见缺陷检测问题,本研究利用YOLOv3目标检测模型对太阳能电池板电致发光图片进行缺陷检测。根据太阳能板缺陷数据集通过K-means聚类优化先验框,YOLOv3 算法在测试集上的平均精度均值(mAP)达到 81.81%。实验结果表明:YOLOv3目标检测模型对于含有断栅、隐裂缺陷的太阳能电池板能够实现比较准确的检测,整体检测效果较为理想。  相似文献   

4.
基于YOLO v3的生猪个体识别方法   总被引:1,自引:0,他引:1  
为实现高效的猪只个体识别,提出一种基于机器视觉的生猪个体识别方法.通过采集母猪和仔猪个体图像,对图像进行扩充和筛选,制作训练集和测试集.试验采用基于YOLO v3的识别模型,并与Faster RCNN和SSD模型识别结果进行比较,结果表明:对仔猪的识别平均精度均值达89.65%,准确率达95.99%,召回率达84.09...  相似文献   

5.
基于机器视觉的水下河蟹识别方法   总被引:7,自引:0,他引:7  
为了探测河蟹在池塘中的数量及分布情况,为自动投饵船提供可靠的数据反馈,提出了基于机器视觉的水下河蟹识别方法。该方法通过在投饵船下方安装摄像头进行河蟹图像实时采集,针对水下光线衰减大、视野模糊等特点,采用优化的Retinex算法提高图像对比度,增强图像细节,修改基于深度卷积神经网络YOLO V3的输入输出,并采用自建的数据集对其进行训练,实现了对水下河蟹的高精度识别。实验所训练的YOLO V3模型在测试集上的平均精度均值达86. 42%,对水下河蟹识别的准确率为96. 65%,召回率为91. 30%。实验对比了多种目标检测算法,仅有YOLO V3在识别准确率和识别速率上均达到较高水平。在同一硬件平台上YOLO V3的识别速率为10. 67 f/s,优于其他算法,具有较高的实时性和应用价值。  相似文献   

6.
自然环境下树上绿色芒果的无人机视觉检测技术   总被引:1,自引:0,他引:1  
为了快速检测芒果树上的芒果,本文提出了一种基于无人机的树上绿色芒果视觉检测方法。本文采用深度学习技术,利用YOLOv2模型对无人机采集的芒果图像进行检测,首先通过无人机采集树上芒果图像,对芒果图像进行人工标记,建立芒果图像的训练集和测试集,通过试验确定训练模型的批处理量和初始学习率,并在训练模型时根据训练次数逐渐降低学习率,最终训练出来的模型在训练集上的平均精度(Mean average precision,MAP)为86.43%。通过试验,分析了包含不同果实数和不同光照条件下芒果图像的识别准确率,并设计了芒果树产量估计试验,试验结果表明:本文算法检测一幅图像的平均运行时间为0.08s,对测试集的识别准确率为90.64%,错误识别率为9.36%;对含不同果实数的图像识别准确率最高为94.55%,最低为88.05%;顺光条件下识别准确率为93.42%,逆光条件下识别准确率为87.18%;对芒果树产量估计的平均误差为12.79%。表明本文算法对自然环境下树上芒果有较好的检测效果,为农业智能化生产中果蔬产量的估计提供了视觉技术支持。  相似文献   

7.
黄明辉  程忠 《南方农机》2023,(16):135-138
【目的】在算力资源有限的嵌入式设备上对目标苹果进行快速、准确的识别与定位。【方法】研究小组对采摘机器人的目标识别与定位方法进行研究,以YOLOv4网络模型为基础,对YOLOv4进行轻量化改进,使用MobileNet V3作为特征提取的主干网络,减少模型的计算量,并结合ZED双目相机与定位算法在嵌入式平台上进行实验。【结果】实验表明:1)在目标识别方面,改进后模型的平均检测精度为87.32%,模型的大小为53.76 MB,较改进前降低了79%。2)采用ZED相机结合测距算法进行了苹果目标定位实验,ZED双目相机的测距误差可控制在0.02 m以内,同时改进的YOLOv4算法的平均检测速度在15FPS左右。【结论】改进后的YOLOv4网络模型更适合部署在算力有限的嵌入式设备中进行苹果采摘任务,且能够满足苹果采摘任务的实时性要求。因此,该方法可以为苹果采摘机器人的识别与定位提供技术参考。  相似文献   

8.
为实现田间环境下对玉米苗和杂草的高精度实时检测,本文提出一种融合带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration, MSRCR)增强算法的改进YOLOv4-tiny模型。首先,针对田间环境的图像特点采用MSRCR算法进行图像特征增强预处理,提高图像的对比度和细节质量;然后使用Mosaic在线数据增强方式,丰富目标检测背景,提高训练效率和小目标的检测精度;最后对YOLOv4-tiny模型使用K-means++聚类算法进行先验框聚类分析和通道剪枝处理。改进和简化后的模型总参数量降低了45.3%,模型占用内存减少了45.8%,平均精度均值(Mean average precision, mAP)提高了2.5个百分点,在Jetson Nano嵌入式平台上平均检测帧耗时减少了22.4%。本文提出的Prune-YOLOv4-tiny模型与Faster RCNN、YOLOv3-tiny、YOLOv4 3种常用的目标检测模型进行比较,结果表明:Prune-YOLOv4-tiny的mAP为96.6%,分别比Faster RCNN和YOLOv3...  相似文献   

9.
基于双目相机与改进YOLOv3算法的果园行人检测与定位   总被引:2,自引:0,他引:2  
景亮  王瑞  刘慧  沈跃 《农业机械学报》2020,51(9):34-39,25
针对复杂果园环境中行人难以精确检测并定位的问题,提出了一种双目相机结合改进YOLOv3目标检测算法的行人障碍物检测和定位方法。该方法采用ZED双目相机采集左右视图,通过视差原理获取图像像素点的距离信息;将双目相机一侧的RGB图像作为用树形特征融合模块改进的YOLOv3算法的输入,得到行人障碍物在图像中的位置信息,结合双目相机获得的像素位置信息计算出相对于相机的三维坐标。用卡耐基梅隆大学国家机器人工程中心开放的果园行人检测数据集测试改进的YOLOv3算法,结果表明,准确率和召回率分别达到95.34%和91.52%,高于原模型的94.86%和90.19%,检测速度达到30.26 f/ms。行人检测与定位试验表明,行人障碍物的定位在深度距离方向平均相对误差为1.65%,最大相对误差为3.80%。该方法具有快速性和准确性,可以较好地实现果园环境中的行人检测与定位,为无人驾驶农机的避障决策提供依据。  相似文献   

10.
基于改进YOLOv3-tiny的田间行人与农机障碍物检测   总被引:1,自引:0,他引:1  
为实现农机自主作业中的避障需求,本文针对室外田间自然场景中因植被遮挡、背景干扰而导致障碍物难以检测的问题,基于嵌入式平台应用设备,提出了农机田间作业时行人和农机障碍物检测的改进模型,更好地平衡了模型的检测速度与检测精度。该改进模型以You only look once version 3 tiny(YOLOv3-tiny)为基础框架,融合其浅层特征与第2 YOLO预测层特征作为第3预测层,通过更小的预选框增加小目标表征能力;在网络关键位置的特征图中混合使用注意力机制中的挤压激励注意模块(Squeeze and excitation attention module,SEAM) 与卷积块注意模块(Convolutional block attention module,CBAM),通过强化检测目标关注以提高抗背景干扰能力。建立了室外环境下含农机与行人的共9405幅图像的原始数据集。其中训练集7054幅,测试集2351幅。测试表明本文模型的内存约为YOLOv3与单次多重检测器(Single shot multibox detector,SSD)模型内存的1/3和2/3;与YOLOv3-tiny相比,本文模型平均准确率(Mean average precision,mAP)提高11个百分点,小目标召回率(Recall)提高14百分点。在Jetson TX2嵌入式平台上本文模型的平均检测帧耗时122ms,满足实时检测要求。  相似文献   

11.
针对火焰目标尺寸变化大、YOLOv3算法对小尺寸目标的检测性能有所欠缺、对火焰目标的检测效果不好的问题,提出对YOLOv3的改进策略。充分发挥空洞卷积在不提升训练参数的同时扩大卷积核感受野的优点,构建2层空洞卷积层,对特征金字塔的融合特征进一步提取多尺度特征;在空洞卷积模块后添加通道注意力机制模块,抑制冗余的特征;使用DIOU损失函数降低对目标的漏检率。通过在火焰目标数据集上的对比实验表明,改进后的YOLOv3训练模型在精度上达到了81.2%,相比原YOLOv3模型提升2.9%。与SSD模型相比在精度上有所提高,相比Faster R-CNN模型在检测速度上更具有优势;对小尺寸目标的检测效果相比原YOLOv3模型有所提升。  相似文献   

12.
针对甜菜机械化收获中机收甜菜识别不精确致使破损率计算不准确的问题,提出一种基于YOLOv4的机收甜菜破损检测方法。利用不同距离、不同角度和不同遮挡程度的甜菜照片制作数据集,对基于YOLOv4的机收甜菜破损检测模型进行训练和测试。测试结果表明:基于YOLOv4的机收甜菜破损检测模型识别完整甜菜精确率和召回率分别为94.02%和91.13%,识别破损甜菜的精确率和召回率分别为96.68%和95.21%,破损检测模型的mAP值为96.44%,比Faster R-CNN和SSD模型的mAP值分别高2.62%和5.65%。由此可得,提出的基于YOLOv4的机收甜菜破损检测模型可以更准确地完成对机收甜菜中完整甜菜和破损甜菜的识别,满足甜菜破损率计算的需求。  相似文献   

13.
刘志军 《南方农机》2023,(23):68-73
【目的】解决麦穗检测中麦穗之间相互遮挡、麦穗在图像中难以检测和不同环境造成目标模糊等情况导致麦穗检测精度低的问题。【方法】笔者提出一种基于改进YOLOv5s的算法,通过将数据集同时进行离线增强和在线增强,再将YOLOv5s的骨干网络进行改进,增添具有注意力机制的transformer模块,强化主干网络的全局特征信息提取能力,neck结构由原来的PAFPN改为具有双向加强融合的BiFPN特征融合网络,进行多尺度的特征融合。最后,在head部分使用EIoU-NMS来替代NMS,提高对遮挡麦穗的识别度。【结果】相比于其他改进单一结构的YOLOv5s模型,此综合性改进模型具有更好的检测效果,使mAP@0.5:0.95提高了1.4%,改进的算法比原始YOLOv5s算法的mAP@0.5提高了1.8%。【结论】使用离线增强和在线增强的方式可以使模型的精度有所提升;该模型的改进有效增强了麦穗识别过程中特征融合的效率,提高了麦穗检测的效果,能够为后续相关模型的改进升级提供参考。  相似文献   

14.
多目标肉牛进食行为识别方法研究   总被引:2,自引:0,他引:2  
基于计算机视觉技术,借助已有系统获得肉牛进食行为数据,并与体重变化、健康状况等进行关联分析,对肉牛科学养殖具有重要意义。为此提出了一种基于机器视觉的肉牛进食行为识别方法。该方法采用YOLOv3模型对观测范围内的肉牛目标进行检测,利用卷积神经网络识别单个目标的进食行为,进而实现对多目标肉牛进食行为的识别。卷积操作时,利用填充(padding)增强网络对目标边缘特征的提取能力;使用修正线性单元(ReLU)为激活函数,防止梯度消失;采用丢弃(dropout)方法提高网络的泛化能力。获取实际肉牛养殖场的监控视频,构建数据集,分别在8组测试集上进行试验,本文方法对观测范围内肉牛目标检测的平均精确度为83.8%,进食行为识别的平均精确度为79.7%、平均召回率为73.0%、平均准确率为74.3%,能够满足肉牛进食行为的监测需求。基于YOLOv3模型和卷积神经网络的多目标肉牛进食行为识别方法具有较高的准确性,为肉牛行为非接触式监测提供了新的途径。  相似文献   

15.
杆塔是输电线路中的重要组成设施,其安全直接影响电网电力输送的安全稳定。根据遥感影像中杆塔小目标识别精度低等问题,研究基于YOLOv5s和YOLOv5x算法进行集成建模,并加入加权框融合(weighted boxes fusion,WBF)推理机制,借助高分辨率遥感杆塔影像数据集进行模型训练测试,并对数据集做测试时增强(test-time augmentation,TTA)。实验结果显示:与单模型识别结果相比较,集成YOLOv5模型识别精确度、召回率、mAP@.5显著提升,分别达到0.952、0.944、0.929;并且在一些复杂背景、不同光照环境和不同天气条件下模型都具有良好的识别效果,具有较强的鲁棒性。  相似文献   

16.
孙德鑫 《南方农机》2023,(20):53-57
【目的】使用传统卷积神经网络测量土壤含水率的识别准确率低、泛化性能差。为了满足重大工程扰动下的含水率测量需要,需提出一种适用于不同土壤类型且不受深度制约的探测方法。【方法】笔者搭建了室内实验平台,采集了延安、兰州和蓝田三个地区间隔等级为2%的8类不同土壤水分下的图像,构造了用于神经网络训练和测试的数据集。然后,基于对抗域适应算法(CDAN),比较了ResNet、MobileNetV2、Xception和ViT四种网络,选取识别准确率最高的模型作为其特征提取器,构建基于对抗域适应的土壤含水率识别模型,对比分析含水率识别模型在不同迁移任务上的识别效果。【结果】域适应模型CDAN的测试准确率明显高于MobileNetV2、Xception和ViT等模型,对不同地区土壤含水率的测试准确率均达到68%以上,最高识别准确率为84.3%。【结论】使用域适应方法具有良好的泛化能力和识别精度,能够为开发土壤地质信息探测机器人的视觉系统提供算法支持。然而,目前的土壤含水率识别算法仅适用于实验室条件下所搭建的土壤含水率数据集,若想实现实际的工程应用,则需要进一步完善土壤含水率图像数据集,使室内搭建的算法实现...  相似文献   

17.
针对不同光照,遮挡重叠,大视场等复杂环境下,自动采摘机器人无法快速准确地识别果蔬目标的问题,提出一种用于复杂环境下果蔬检测的改进YOLOv5(You Only Look Once v5)算法。首先,在主干网络Backbone中的CBL模块中嵌入卷积注意力机制(Convolutional Block Attention Module, CBAM),提高目标特征的提取能力。其次,引入完全交并比非极大抑制算法(Complete IOU Non-maximum suppression, CIOU-NMS),考虑长宽边长真实差,提高回归精度。最后,用加权双向特征金字塔网络(Bidirectional Feature Pyramid Network, BiFPN)替换原始YOLOv5的路径聚合网络(PANet),融合多尺度特征提高识别精度和准确率。以苹果为例进行试验,结果表明:改进YOLOv5算法精准率为94.7%,召回率为87%,平均精度为92.5%,相比于原始YOLOv5算法AP提高3.5%,在GPU下的检测时间为11 ms,可以实现复杂情况下的果蔬快速准确识别。  相似文献   

18.
为提高草莓的总产量,合理监控和防治草莓病害是有效的手段,提出一种基于改进YOLOv5的草莓病害识别算法。该检测算法以CSPDarknet作为主干特征提取网络,能够有效提高模型的性能和训练效率,并使用EIOU Loss损失函数与K-means聚类算法,来提高模型的收敛速度。同时,在模型中增加CBAM注意力机制来提高检测精度,最终构建基于改进YOLOv5的CBAM-YOLOv5l算法。试验结果表明,改进后的模型较之原始模型,在检测精度上有所提升且依然能保证高效的检测速度。另外,经过训练的CBAM-YOLOv5l目标检测算法在验证集下的总体平均精度达到96.52%,平均检测时间为27.52 ms,对比YOLOv4、YOLOv4-Tiny、Faster_R-CNN等目标检测算法,该检测算法在精度上具有更大的优势,在实际的草莓果园环境中具有良好的鲁棒性与实时性,可以满足草莓病害识别精度的需求,能够可靠地提示草莓健康状态,从而及时地实现精准施药等保护措施。  相似文献   

19.
[目的/意义]针对小麦叶片病虫害在自然环境下形态和颜色特征较为复杂、区分度较低等特点,提出一种高质量高效的病虫害检测模型,即YOLOv8-SS (You Only Look Once Version 8-SS),为病虫害的预防与科学化治理提供准确的依据。[方法]基于YOLOv8算法,采用改进的轻量级卷积神经网络ShuffleNet V2作为主干网络提取图像特征即YOLOv8-S,在保持检测精度的同时,减少模型的参数数量和计算负载;在此基础上增加小目标检测层和注意力机制SEnet (Squeeze and Excitation Network),对YOLOv8-S进行改进,在不降低检测速度和不损失模型轻量化程度的情况下提高检测精度,提出YOLOv8-SS小麦叶片病虫害检测模型。[结果与讨论]YOLOv8-SS模型在实验数据集上的平均识别精度和检测准确率分别达89.41%和91.00%,对比原模型分别提高10.11%和7.42%。因此,本研究所提出的方法可显著提高农作物病虫害的检测鲁棒性,并增强模型对小目标图像特征的提取能力,从而高效准确地进行病虫害的检测和识别。[结论]本研究使用的方法具...  相似文献   

20.
奶牛身体部位的精准分割广泛应用于奶牛体况评分、姿态检测、行为分析及体尺测量等领域。受奶牛表面污渍和遮挡等因素的影响,现有奶牛部位精准分割方法实用性较差。本研究在YOLO v8n-seg模型的基础上,加入多尺度融合模块与双向跨尺度加权特征金字塔结构,提出了YOLO v8n-seg-FCA-BiFPN奶牛身体部位分割模型。其中,多尺度融合模块使模型更好地提取小目标几何特征信息,双向跨尺度加权特征金字塔结构实现了更高层次的特征融合。首先在奶牛运动通道处采集奶牛侧面图像作为数据集,为保证数据集质量,采用结构相似性算法剔除相似图像,共得到1452幅图像。然后对目标奶牛的前肢、后肢、乳房、尾部、腹部、头部、颈部和躯干8个部位进行标注并输入模型训练。测试结果表明,模型精确率为96.6%,召回率为94.6%,平均精度均值为97.1%,参数量为3.3×106,检测速度为6.2f/s。各部位精确率在90.3%~98.2%之间,平均精度均值为96.3%。与原始YOLO v8n-seg相比,YOLO v8n-seg-FCA-BiFPN的精确率提高3.2个百分点,召回率提高2.6个百分点,平均精度均值提高3.1个百分点,改进后的模型在参数量基本保持不变的情况下具有更强的鲁棒性。遮挡情况下该模型检测结果表明,精确率为93.8%,召回率为91.67%,平均精度均值为93.15%。结果表明,YOLO v8n-seg-FCA-BiFPN网络可以准确、快速地实现奶牛身体部位精准分割。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号