首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 203 毫秒
1.
为实现田间环境下对玉米苗和杂草的高精度实时检测,本文提出一种融合带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration, MSRCR)增强算法的改进YOLOv4-tiny模型。首先,针对田间环境的图像特点采用MSRCR算法进行图像特征增强预处理,提高图像的对比度和细节质量;然后使用Mosaic在线数据增强方式,丰富目标检测背景,提高训练效率和小目标的检测精度;最后对YOLOv4-tiny模型使用K-means++聚类算法进行先验框聚类分析和通道剪枝处理。改进和简化后的模型总参数量降低了45.3%,模型占用内存减少了45.8%,平均精度均值(Mean average precision, mAP)提高了2.5个百分点,在Jetson Nano嵌入式平台上平均检测帧耗时减少了22.4%。本文提出的Prune-YOLOv4-tiny模型与Faster RCNN、YOLOv3-tiny、YOLOv4 3种常用的目标检测模型进行比较,结果表明:Prune-YOLOv4-tiny的mAP为96.6%,分别比Faster RCNN和YOLOv3...  相似文献   

2.
为提高草莓的总产量,合理监控和防治草莓病害是有效的手段,提出一种基于改进YOLOv5的草莓病害识别算法。该检测算法以CSPDarknet作为主干特征提取网络,能够有效提高模型的性能和训练效率,并使用EIOU Loss损失函数与K-means聚类算法,来提高模型的收敛速度。同时,在模型中增加CBAM注意力机制来提高检测精度,最终构建基于改进YOLOv5的CBAM-YOLOv5l算法。试验结果表明,改进后的模型较之原始模型,在检测精度上有所提升且依然能保证高效的检测速度。另外,经过训练的CBAM-YOLOv5l目标检测算法在验证集下的总体平均精度达到96.52%,平均检测时间为27.52 ms,对比YOLOv4、YOLOv4-Tiny、Faster_R-CNN等目标检测算法,该检测算法在精度上具有更大的优势,在实际的草莓果园环境中具有良好的鲁棒性与实时性,可以满足草莓病害识别精度的需求,能够可靠地提示草莓健康状态,从而及时地实现精准施药等保护措施。  相似文献   

3.
针对蟹味菇生产过程中更好地预估产量,对生长状态做到实时检测的问题,提出了一种基于改进YOLOv8卷积神经网络的蟹味菇识别检测方法。该方法参照PASCAL VOC数据集格式,构建了蟹味菇目标检测数据集,采用添加CBAM注意力机制对原算法进行改进,并且与Faster R-CNN、SSD(single shot multibox detector)、原始YOLOv8等算法进行模型性能的试验对比。试验结果表明,改进的算法明显优于其他算法,其在测试集上的平均精度均值(mean average precision,mAP)和检测速度分别达到95%和91帧/s。此检测精度与检测时间满足蟹味菇的实时识别检测任务,为预估蟹味菇产量,提高生产管理水平提供了理论技术支持。  相似文献   

4.
果实识别是视觉检测技术重要的环节,其识别精度易受复杂的生长环境及果实状态的影响。以大棚环境下单个、一簇、光照、阴影、遮挡、重叠6种复杂生长状态下的番茄果实为对象,提出一种基于改进YOLOv4网络模型与迁移学习相结合的番茄果实识别方法。首先利用ImageNet数据集与VGG网络模型前端16卷积层进行模型参数预训练,将训练的模型参数初始化改进模型的权值以代替原始的初始化操作,然后使用番茄数据集在VGG19的卷积层与YOLOV4的主干网络相结合的新模型中进行训练,获得最优权重实现对复杂环境下的番茄果实进行检测。最后,将改进模型与Faster RCNN、YOLOv4-Tiny、YOLOv4网络模型进行比较。研究结果表明,改进模型在6种复杂环境下番茄果实平均检测精度值mAP达到89.07%、92.82%、92.48%、93.39%、93.20%、93.11%,在成熟、半成熟、未成熟3种不同成熟度下的F1分数值为84%、77%、85%,其识别精度优于比较模型。本文方法实现了在6种复杂环境下有效地番茄果实检测识别,为番茄果实的智能采摘提供理论基础。  相似文献   

5.
自然环境下绿色柑橘视觉检测技术研究   总被引:14,自引:0,他引:14  
绿色柑橘具有与背景相似的颜色特征,自然环境下绿色柑橘的视觉检测比较困难。提出基于深度学习技术,利用Faster RCNN方法进行树上绿色柑橘的视觉检测研究。首先配置深度学习的试验环境,同时设计了绿色柑橘图像采集试验,建立了柑橘图像样本集,通过试验对批处理大小、学习速率和动量等超参数进行调优,确定合适的学习速率为0.01、批处理为128、动量系数为0.9,使用确定的超参数对模型进行了训练,最终训练模型在测试集上的平均精度(MAP)为85.49%。通过设计自然环境下不同光照条件、图像中不同尺寸柑橘、不同个数柑橘的Faster RCNN方法与Otsu分割法的柑橘检测对比试验,并定义F值作为对比评价指标,分析2种方法的检测结果,试验结果表明:Faster RCNN方法与Otsu方法在不同光照条件下检测绿色柑橘的F值分别为77.45%和59.53%;不同个数柑橘果实检测结果的F值分别为82.58%和60.34%,不同尺寸柑橘检测结果的F值分别为73.53%和49.44%,表明所提方法对自然环境下绿色柑橘有较好的检测效果,为果园自动化生产和机器人采摘的视觉检测提供了技术支持。  相似文献   

6.
基于改进卷积神经网络的在体青皮核桃检测方法   总被引:1,自引:0,他引:1  
采摘机器人对核桃采摘时,需准确检测到在体核桃目标。为实现自然环境下青皮核桃的精准识别,研究了基于改进卷积神经网络的青皮核桃检测方法。以预训练的VGG16网络结构作为模型的特征提取器,在Faster R-CNN的卷积层加入批归一化处理、利用双线性插值法改进RPN结构和构建混合损失函数等方式改进模型的适应性,分别采用SGD和Adam优化算法训练模型,并与未改进的Faster R-CNN对比。以精度、召回率和F1值作为模型的准确性指标,单幅图像平均检测时间作为速度性能评价指标。结果表明,利用Adam优化器训练得到的模型更稳定,精度高达97.71%,召回率为94.58%,F1值为96.12%,单幅图像检测耗时为0.227s。与未改进的Faster R-CNN模型相比,精度提高了5.04个百分点,召回率提高了4.65个百分点,F1值提升了4.84个百分点,单幅图像检测耗时降低了0.148s。在园林环境下,所提方法的成功率可达91.25%,并且能保持一定的实时性。该方法在核桃识别检测中能够保持较高的精度、较快的速度和较强的鲁棒性,能够为机器人快速长时间在复杂环境下识别并采摘核桃提供技术支撑。  相似文献   

7.
基于YOLOv4的猪只饮食行为检测方法   总被引:7,自引:0,他引:7  
针对猪舍环境下猪只饮食行为自动化检测程度较低的问题,提出了一种基于YOLOv4的猪只饮食行为检测模型。基于多时间段、多视角和不同程度遮挡的猪只饮食图像,建立了猪只饮食行为图像数据库,利用YOLOv4深度学习网络的深层次特征提取、高精度检测分类特性,对猪只饮食行为进行检测。结果表明,基于YOLOv4的猪只饮食行为检测模型在不同视角、不同遮挡程度以及不同光照下均能准确预测猪只的饮食行为,在测试集中平均检测精度(m AP)达到95.5%,分别高于YOLOv3、Tiny-YOLOv4模型2.8、3.6个百分点,比Faster R-CNN模型高1.5个百分点,比Retina Net、SSD模型高5.9、5个百分点。本文方法可为智能养猪与科学管理提供技术支撑。  相似文献   

8.
基于YOLO v3的生猪个体识别方法   总被引:1,自引:0,他引:1  
为实现高效的猪只个体识别,提出一种基于机器视觉的生猪个体识别方法.通过采集母猪和仔猪个体图像,对图像进行扩充和筛选,制作训练集和测试集.试验采用基于YOLO v3的识别模型,并与Faster RCNN和SSD模型识别结果进行比较,结果表明:对仔猪的识别平均精度均值达89.65%,准确率达95.99%,召回率达84.09...  相似文献   

9.
针对苹果叶部病害缺陷检测效率低下、误检率高、实时性差等问题,以苹果叶部的灰斑病、黑星病、锈病、斑点落叶病作为研究对象,提出一种基于改进YOLOv4算法的苹果叶部病害缺陷检测算法。首先通过数据扩增对数据集扩充提升鲁棒性,算法通过二分K均值聚类算法确定锚框以解决预设锚框不适用苹果叶部病害的问题,引入DenseNet121作为特征提取网络,提升对苹果叶部病害缺陷的检测性能,并且减小模型大小,降低存储开销。将模型与YOLOv4模型进行对比验证,试验结果表明,改进后的YOLOv4模型平均精度均值(mAP)达到97.52%,与改进前相比提升0.89%,模型大小为62.71 MB,与改进前相比减小182.82 MB,检测速度为26.33 FPS,与改进前相比提升6.78 FPS。能够满足实际生活中对苹果叶部病害检测的需求。  相似文献   

10.
为实现在复杂水体下对鱼道过鱼进行监测,提出了一种基于YOLOv5s的改进模型,并用TensorRT部署应用于某水电站鱼道现场。首先,针对水下图像模糊、目标检测困难的问题,提出了将Swin Transformer(STR)作为检测层,提升了模型对目标的检测能力;其次,针对鱼群密集、图像信息少的问题,将Efficient channel attention(ECA)注意力机制作为主干特征提取网络C3结构的Bottleneck,减少了计算参数并提升了检测精度;然后,针对检测目标定位差、回归不收敛的问题,将Focal and efficient IOU loss(FIOU)作为模型损失函数,优化了模型整体性能;最后将模型部署在TensorRT框架进行优化,处理速度得到了大幅度提升。基于实际采集的复杂水体数据集进行实验,结果表明,本文算法mAP为91.9%,单幅图像处理时间为10.4ms,在相同条件下,精度比YOLOv5s提升4.8个百分点,处理时间减少0.4ms。模型使用TensorRT部署后单幅图像推理时间达到2.3ms,在不影响检测精度的前提下,推理速度提高4.5倍。综上,本文算法模型在保证快速检测的基础上,具有较高的准确性,更适用于复杂水体下鱼道过鱼监测。  相似文献   

11.
破损鸡蛋导致的漏液会污染自动化生产线和完好鸡蛋,不仅影响生产效率,还会干扰裂纹鸡蛋的检测.为实现破损鸡蛋快速、准确、低成本的识别,本文利用机器视觉技术,并结合深度学习网络深层次特征提取、高精度检测分类的特性,提出一种基于YOLOv4网络的破损鸡蛋检测方法.构建破损鸡蛋图像数据集,搭建YOLOv4深度学习网络,训练含有破...  相似文献   

12.
为解决目前农业采摘机器人目标难以识别与定位的问题,在原有农业采摘机器人的基础上,提出一种改进YOLOv3算法和3D视觉技术相结合的方法,实现目标的准确识别和精准定位,并利用标定完成目标坐标系和机器人坐标系的转换。通过试验分析改进YOLOv3算法的性能,并与之前的YOLOv3算法、Fast RCNN算法和Faster RCNN算法进行综合比较,研究表明所采用的改进YOLOv3算法和3D视觉具有较高的识别准确度和定位精度,识别准确率分别提高55%、9%、1.4%,最大定位误差分别降低0.69、0.44、0.28 mm,可以较好地完成后续采摘工作,对于农业机器人的发展具有重要的参考价值。  相似文献   

13.
基于改进YOLOX的自然环境中火龙果检测方法   总被引:1,自引:0,他引:1  
自然环境下果实的精准检测是火龙果采摘机器人执行采摘作业的先决条件。为提高自然环境下果实识别的精确性、鲁棒性和检测效率,本研究对YOLOX(You Only Look Once X)网络进行改进,提出了一种含有注意力模块的目标检测方法。为便于在嵌入式设备上部署,本方法以YOLOX-Nano网络为基准,将卷积注意力模块(Convolutional Block Attention Module,CBAM)添加到YOLOX-Nano的主干特征提取网络中,通过为主干网络提取到不同尺度的特征层分配权重系数来学习不同通道间特征的相关性,加强网络深层信息的传递,降低自然环境背景下对火龙果识别的干扰。对该方法进行性能评估和对比试验,经过训练后,该火龙果目标检测网络在测试集的AP0.5值为98.9%,AP0.5:0.95的值为72.4%。在相同试验条件下对比其它YOLO网络模型,该方法平均检测精度分别超越YOLOv3、YOLOv4-Tiny和YOLOv5-S模型26.2%、9.8%和7.9%。最后对不同分辨率的火龙果果园自然环境下采集的视频进行实时测试。试验结果表明,本研究提出的改进YOLOX-Nano目标检测方法,每帧平均检测时间为21.72 ms,F1值为0.99,模型大小仅3.76 MB,检测速度、检测精度和模型大小满足自然环境下火龙果采摘的技术要求。  相似文献   

14.
针对现有花椒簇检测算法模型参数量多、计算量大、检测速度低、很难部署到嵌入式设备的问题,提出一种基于轻量化YOLOv5s的花椒簇检测算法模型。首先将ShuffleNet v2主干网络替代原YOLOv5s中的主干网络进行重构;同时将SPPF嵌入至ShuffleNet v2骨干中;其次引入轻量级注意力机制CBAM;最后使用SIoU_Loss代替CIoU_Loss作为回归损失函数。试验结果表明:改进后的轻量化YOLOv5s网络参数降低85.6%,计算量降低87.7%,对花椒簇的检测精度mAP@0.5达到92.6%,较原YOLOv5s模型提高3.4%,mAP@0.5:0.95达到61.4%,检测时间为11 ms,相比原模型16 ms缩短31.3%,可以满足在现场环境下对花椒簇的检测。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号