首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 281 毫秒
1.
基于EfficientDet-D1的草莓快速检测及分类   总被引:1,自引:1,他引:0  
为了快速识别自然环境下的成熟草莓与未成熟草莓,本研究提出了基于EfficientDet-D1的草莓快速检测及分类方法。该方法具有EfficientNet 网络中快速归一化特征加权融合特点,应用该方法与YOLOv3、YOLOv4、Faster-RCNN以及EfficientDet-D0模型进行对比试验,结果显示,YOLOv3、YOLOv4、Faster-RCNN、EfficientDet-D0和EfficientDet-D1等5种算法的平均精度均值(PmA)分别为 89.51%、69.02%、96.54%、96.71%、97.50%。试验结果表明,EfficientDet-D1在成熟草莓与未成熟草莓的检测性能均优于其他4种目标检测算法,有较好的泛化性和鲁棒性,且使用模型参数量较小的EfficientNet网络,更适合作用于移动端识别,可实现草莓快速识别中的速度与精度要求。  相似文献   

2.
为了快速准确地检测出小目标生物(海参、扇贝、海星和海胆)在复杂水下环境的位置及所属种类,提出一种基于改进YOLOv5s的小目标生物检测算法。在特征提取阶段,引入基于多头自注意力设计的自注意力残差模块,强化网络全局建模能力的同时,强化目标特征信息;在特征融合阶段,将特征融合网络调整为添加横向连接的双向特征金字塔结构,增强网络融合不同阶段特征信息的能力;在检测阶段,舍弃大目标检测尺度并添加小目标的检测尺度,提升小目标生物的检测精度;最后,引入α–CIoU损失函数作为模型边界框回归损失函数,提高边界框回归精度,进而提高算法检测准确率。定性试验中,几乎所有肉眼可见的水产品目标都被改进模型检出,并正确标记,体现了改进算法的有效性。α值选取试验中,α值为2.0时效果最佳,平均精度均值(mAP)均优于其他值的,达到0.857,较α值为1.0时的提升了0.016。消融试验中,添加任一优化方法均会提升改进模型的检测精度,最终改进模型的mAP达0.873,较原模型的提升了0.032,模型参数量减少了26.8%,仅有5 M。对比试验中,改进模型的mAP较Faster RCNN、YOLOv3、YOLOv4、YOLOv5s、YOLOvX、SSD、NAS–FCOS、改进YOLOv5等的提升了0.020以上;改进模型在本地服务器的检测速度达139帧/s,较YOLOv5s的提升了14帧/s,略逊于以检测速度著称的SSD模型的。可见,改进模型能满足轻量和实时性要求。改进模型也成功部署到安卓移动设备中。  相似文献   

3.
【目的】提出了一种改进的YOLOv4模型,为自然环境下3种常见茶叶病害(茶白星病、茶云纹叶枯病和茶轮斑病)的快速精准识别提供支持。【方法】使用MobileNetv2和深度可分离卷积来降低YOLOv4模型的参数量,并引入卷积注意力模块对YOLOv4模型进行识别精度改进。采用平均精度、平均精度均值、图像检测速度和模型大小作为模型性能评价指标,在相同的茶叶病害数据集和试验平台中,对改进YOLOv4模型与原始YOLOv4模型、其他目标检测模型(YOLOv3、SSD和Faster R CNN)的病害识别效果进行对比试验。【结果】与原始YOLOv4模型相比,改进YOLOv4模型的大小减少了83.2%,对茶白星病、茶云纹叶枯病和茶轮斑病识别的平均精度分别提高了6.2%,1.7%和1.6%,平均精度均值达到93.85%,图像检测速度为26.6帧/s。与YOLOv3、SSD和Faster R-CNN模型相比,改进YOLOv4模型的平均精度均值分别提高了6.0%,13.7%和3.4%,图像检测速度分别提高了5.5,7.3和11.7帧/s。【结论】对YOLOv4模型所使用的改进方法具备有效性,所提出的改进YOLOv4模型可以实现对自然环境下3种常见茶叶病害的快速精准识别。  相似文献   

4.
目的 为提高小麦条锈病危害程度分级精度,开展小麦条锈病病害等级自动化、准确、快速识别方法研究。方法 在复杂田间条件下,使用手机拍摄图像,构建含有不同等级条锈病的小麦叶片数据集,利用GrabCut与YOLOv5s相结合的方法进行小麦叶片与复杂背景自动化分割。为了增强ResNet50对表型特征的提取能力,增加Inception模块,依据划分的小麦条锈病病害等级标准,对小麦条锈病病害等级进行识别。采用准确率、查全率、查准率等评价指标分析改进的ResNet50模型(B-ResNet50)在数据集上的表现。结果 GrabCut与YOLOv5s相结合对大田复杂背景下的小麦叶片图像实现了自动、准确、快速地分割。B-ResNet50识别小麦条锈病叶片的平均准确率为97.3%,与InceptionV3(87.8%)、DenseNet121(87.6%)、ResNet50(88.3%)相比,准确率大幅提升,比原始模型(ResNet50)高出9个百分点。结论 利用深度学习对小麦条锈病病害等级进行识别,对防治小麦条锈病的精准施药具有重要意义,可为田间复杂条件下小麦条锈病的防治提供技术支持。  相似文献   

5.
目的 针对传统混合高斯模型前景检测运算量过大问题,提出一种基于空间约束的混合高斯前景检测算法。方法 通过快速初始化缩短模型的初始建立过程;采用双重背景模型机制,以自适应背景减法的前景检测结果作为混合高斯前景检测的空间约束条件,降低模型在背景区域的冗余运算;运用多策略自适应模型更新,提高前景检测的准确性。结果 在各种测试场景下,与传统混合高斯法、CodeBook、GMG、偏差均值混合高斯模型(MODGMM)等算法相比,该算法具有更好的准确率以及4倍以上的处理速度。结论 在固定相机场景下的运动目标检测中,算法能有效提高传统混合高斯法的准确性且具有极高的实时性。  相似文献   

6.
为解决当前流行的目标检测模型对自然环境下百香果由于目标密集互相遮挡所致的检测效率低等问题,以YOLOv3网络为基础,提出了一种基于增强的YOLOv3百香果目标检测算法。首先,针对百香果目标尺寸的特点,利用以交并比为距离度量的改进K-means++算法,重新获取与目标果实相匹配的锚选框,提高对目标的框选精度以及模型的收敛速度;其次,在输出网络中将用来筛选目标预测框的Soft-NMS算法通过线性函数的形式对其高斯函数的抑制参数进行改进,以提高模型在不同密集场景下的适应性和检测能力;最后,利用增强的YOLOv3模型在经过预处理后的百香果数据集上进行多次试验对比,结果表明增强后的YOLOv3目标检测算法平均精度均值(mAP)达到94.62%,F1值达到94.34%,较原YOLOv3算法分别提升了4.58和3.68百分点,平均检测速度为25.45帧/s,基本满足了自然环境下百香果目标检测的精准性和实时性要求。  相似文献   

7.
目的 引入区域卷积神经网络Faster R-CNN算法并对其改进,以实现在田间真实环境下背景复杂且具有相似病斑特征的玉米病害的智能诊断。方法 在玉米田间和公开数据集网站获取具有复杂背景的9种常见病害图像1 150幅,人工标注后对原始图像进行离线数据增强扩充;对Faster R-CNN算法进行适应性改进,在卷积层加入批标准化处理层,引入中心代价函数构建混合代价函数,提高相似病斑的识别精度;采用随机梯度下降算法优化训练模型,分别选取4种预训练的卷积结构作为Faster R-CNN的特征提取网络进行训练,并测试得到最优特征提取网络,利用训练好的模型选取不同天气条件下的测试集进行对比,并将改进Faster R-CNN与未改进的Faster R-CNN和SSD算法进行对比试验。结果 在改进Faster R-CNN病害识别框架中,以VGG16卷积层结构作为特征提取网络具有更出色的性能,利用测试集图像检验模型,识别结果的平均精度为 0.971 8,平均召回率为0.971 9,F1为0.971 8,总体平均准确率可达97.23%;晴天的图像识别效果优于阴天的。改进Faster R-CNN算法与未改进的Faster R-CNN算法相比,平均精度高0.088 6,单张图像检测耗时减少0.139 s;与SSD算法相比,平均精度高0.0425,单张图像检测耗时减少0.018 s,表明在大田环境中具有复杂背景的玉米病害智能检测领域,改进Faster R-CNN算法综合性能优于未改进的Faster R-CNN算法和SSD算法。结论 将改进后的Faster R-CNN算法引入田间复杂条件下的玉米病害智能诊断是可行的,具有较高的准确率和较快的检测速度,能够避免传统人工识别的主观性,该方法为田间玉米病害的及时精准防控提供了依据。  相似文献   

8.
为实现自然环境下不同成熟度火龙果在不同光照、不同遮挡场景下的精确快速识别,提出了一种基于对YOLOv5的网络模型改进的一种检测模型(PITAYA-YOLOv5)。首先,使用k-means++算法重新生成火龙果数据集的锚框,提高了网络的特征提取能力;其次,将CSPDarkNet替换成PPLCNet作为骨干网络,并加入SE注意力模块(Squeeze-and-Excitation block),在降低网络参数量的同时保持检测精度;同时加入加权双向特征金字塔网络(Bi-FPN)替换YOLOv5的特征融合网络,提高网络对不同尺度特征图的融合效率;引入αDIoU损失函数,提高了模型的收敛效果。试验结果表明:PITAYA-YOLOv5目标检测模型的平均精度均值为94.90%,较原模型提高1.33个百分点,F1值为91.37%,较原模型提高1.12个百分点,平均检测速度达到20.2 ms,占用内存仅有8.1 M。针对枝条遮挡和果间遮挡下的火龙果检测能力明显增强。对比Faster R-CNN、CenterNet、YOLOv3、YOLOv5以及轻量化骨干网络ShuffleNetv2,该模型具有良好的检测精...  相似文献   

9.
针对工业施工场所背景复杂导致安全帽检测精度低及漏检等问题,提出一种融合注意力机制的安全帽检测算法。该算法在YOLOv5s网络模型的基础上,在主干网络中加入坐标注意力模块,使得网络可以有效关注目标信息的特征,提升远距离目标的检测能力。在网络训练过程中优化损失函数,将原有的CIoU损失函数更换为EIoU损失函数,优化了目标边界框回归的收敛速度,可以生成定位更精准的边界框,提高了模型检测精度。实验结果表明,改进后的算法平均精度达到94.5%,相较于原始模型提高了1.9个百分点,相较于YOLOv3算法提高了12.3个百分点。提出的算法有效地改善了原算法中安全帽漏检、误检的情况,同时提高了检测精度。  相似文献   

10.
针对现有番茄检测精度低、没有品质检测和部署难度高等问题,提出基于YOLOv5s改进的番茄及品质实时检测方法,并与原始YOLOv5模型及其他经典模型进行对比研究。结果表明,针对番茄大小不同的问题,采用K-Means++算法重新计算先验锚框提高模型定位精度;在YOLOv5s主干网络末端添加GAM注意力模块,提升模型检测精度并改善鲁棒性;应用加权双向特征金字塔网络(BiFPN)修改原有结构,完成更深层次的加权特征融合;颈部添加转换器(transformer),增强网络对多尺度目标的检测能力。改进后的YOLOv5s番茄识别算法检测速度达到72帧/s。在测试集中对番茄检测均值平均精度(mAP)达到93.9%,分别比SSD、Faster-RCNN、YOLOv4-Tiny、原始YOLOv5s模型提高17.2、13.1、5.5、3.3百分点。本研究提出的番茄实时检测方法,在保持检测速度的同时,可降低背景因素干扰,实现复杂场景下对番茄的精准识别,具有非常好的应用前景,为实现番茄自动采摘提供相应技术支持。  相似文献   

11.
复杂环境下香蕉多目标特征快速识别研究   总被引:1,自引:0,他引:1  
【目的】针对野外环境下断蕾机器人对多特征的变量目标快速识别难题,以及目标受到树叶、遮挡及光照影响精度的问题,提出多特征目标的快速识别方法。【方法】提出对香蕉果实、果轴和花蕾这3个目标进行多尺度特征提取及模型分类,融合聚类算法设计新的目标候选框参数,提出改进YOLOv3模型及网络结构参数的YOLO-Banana模型;为了平衡速度和准确度,用YOLO-Banana和Faster R-CNN分别对变化尺寸的香蕉多目标进行试验,研究算法对识别精度与速度的影响。【结果】YOLO-Banana和Faster R-CNN这2种算法识别香蕉、花蕾和果轴的总平均精度分别为91.03%和95.16%,平均每张图像识别所需时间分别为0.237和0.434 s。2种算法精度均高于90%,YOLO-Banana的速度相对快1.83倍,更符合实时作业的需求。【结论】野外蕉园环境下,采用YOLO-Banana模型进行香蕉多目标识别,可满足断蕾机器人视觉识别的速度及精度要求。  相似文献   

12.
为了解决水稻小病斑检测不准确的问题,提出一种基于改进YOLOv3的水稻叶部病害检测方法Rice–YOLOv3。首先,采用K–means++聚类算法,计算新的锚框尺寸,使锚框尺寸与数据集相匹配;其次,采用激活函数Mish替换YOLOv3主干网络中的Leaky Relu激活函数,利用该激活函数的平滑特性,提升网络的检测准确率,同时将CSPNet与DarkNet53中的残差模块相结合,在避免出现梯度信息重复的同时,增加神经网络的学习能力,提升检测精度和速率;最后,在FPN层分别引入注意力机制ECA和CBAM模块,解决特征层堆叠处的特征提取问题,提高对小病斑的检测能力。在训练过程中,采用COCO数据集预训练网络模型,得到预训练权重,改善训练效果。结果表明:在测试集下,Rice–YOLOv3检测水稻叶部3种病害的平均精度均值(mAP)达92.94%,其中,稻瘟病、褐斑病、白叶枯病的m AP值分别达93.34%、89.68%、95.80%,相较于YOLOv3,Rice–YOLOv3检测的m AP提高了6.05个百分点,速率提升了2.8帧/s,对稻瘟病和褐斑病的小病斑的检测能力明显增强,可以检测出原...  相似文献   

13.
基于YOLO的贻贝(Mytilus edulis)识别与检测技术,是实现贻贝分级、分苗等作业环节机械化和智能化的关键。然而,贻贝因外部特征不够清晰明确,给识别准确率的提高带来了挑战。本文提出一种基于改进YOLOv5算法的贻贝目标检测模型(CST-YOLO)。该算法融合CoordAttention注意力机制,以增强特征表达能力;采用SIoU作为边界框回归损失函数,以减少边界框回归损失,提高模型的检测速度;将Head替换为改进的解耦头TSCODE Head来提高检测准确率。并在自制的贻贝数据集上进行算法测试,实验结果显示:相比YOLOv5算法,CST-YOLO算法的准确率P提高了0.428%,mAP_0.5:0.95达到92.221%,提高了1.583%。实验表明CST-YOLO算法在保证检测速度的前提下,有效提高了贻贝目标的检测精度。本研究有助于机器视觉技术在贻贝养殖业自动化与智能化生产加工中的应用。  相似文献   

14.
为了提高林业害虫检测的准确性,提出一种基于YOLOv4的改进算法。首先,基于智能害虫捕捉装置拍摄的图像,制作害虫数据集,采用K-means算法对样本数据集的目标框进行聚类分析,基于DIoU-NMS算法实现对害虫的计数功能;然后,在模型的路径聚合网络(PANet)结构上增加特征融合和104×104层级特征检测图,以提升对小个体害虫的识别率;最后,根据模型检测效率和复杂度,调整模型中的尺度特征图组合,在保证检测准确度的基础上,提升检测效率,并精简模型。试验结果表明,改进的YOLOv4模型的平均识别精度比传统YOLOv4模型提高了1.6百分点,且对于小个体害虫的识别效果更好,模型复杂度和模型参数量分别减少了11.9%、33.2%,检测速度提升了11.1%,更适于应用部署。  相似文献   

15.
基于卷积神经网络的水稻虫害识别方法   总被引:1,自引:0,他引:1  
为解决人工识别水稻虫害难度大、费时费力的问题,研究了一种自动识别水稻虫害的方法。选取2 500张红袖蜡蝉、稻绿蝽、稻螟蛉、点蜂缘蝽、大螟图片建立数据库,利用深度卷积神经网络提取水稻虫害数据集特征,采用随机梯度下降法训练,得到最优权重文件。测试训练好的模型,并对比Faster-RCNN、SSD和YOLOv3算法的效果。结果表明,YOLOv3算法的平均精度最高,其在红袖蜡蝉、稻绿蝽、稻螟蛉、点蜂缘蝽、大螟5种水稻虫害中分别为97.40%、88.76%、85.74%、92.96%、94.78%,五类水稻虫害mAP为91.93%。与Faster-RCNN算法相比,平均准确率高1.43个百分点,单张图像检测耗时减少853.68 ms;与SSD算法相比,平均准确率高5.56个百分点,单张图像检测耗时减少2.9 ms。选择5类比较具有代表性的水稻虫害图片进行测试,对于叶片遮挡目标和相似背景等情况,YOLOv3算法能够正确识别不会出现漏检错检,且识别准确率大于98%。将YOLOv3算法引入田间复杂情况下的水稻虫害识别是可行的,具有较高的平均准确率以及较快的检测速度,能够准确识别水稻虫害,这对于水稻虫害防治和田间喷药等方面具有重要意义。  相似文献   

16.
He  Yue  Zhou  Zhiyan  Tian  Luhong  Liu  Youfu  Luo  Xiwen 《Precision Agriculture》2020,21(6):1385-1402

The brown rice planthopper (Nilaparvata lugens Stal) is one of the main pests of rice. The rapid and accurate detection of brown rice planthoppers (BRPH) can help treat rice in time. Due to the small size, large number and complex background of BRPHs, image detection of them is challenging. In this paper, a two-layer detection algorithm based on deep learning technology is proposed to detect them. The algorithm for both layers is the Faster RCNN (regions with CNN features). To effectively utilize the computing resources, different feature extraction networks have been selected for each layer. In addition, the second layer detection network was optimized to improve the final detection performance. The detection results of the two-layer detection algorithm were compared with the detection results of the single-layer detection algorithm. The detection results of the two-layer detection algorithm for detecting different populations and numbers of BRPHs were tested, and the test results were compared with YOLO v3, a deep learning target detection network. The test results show that the detection results of the two-layer detection algorithm were significantly better than those of the single-layer detection algorithm. In the tests for different numbers of BRPHs, the average recall rate of this algorithm was 81.92%, and the average accuracy was 94.64%; meanwhile, the average recall rate of YOLO v3 was 57.12%, and the average accuracy rate was 97.36%. In the experiment with different ages of BRPHs, the average recall rate of the algorithm was 87.67%, and the average accuracy rate was 92.92%. In comparison, for the YOLO v3, the average recall rate was 49.60%, and the average accuracy rate was 96.48%.

  相似文献   

17.
基于YOLOv4网络的棉花顶芽精准识别方法   总被引:1,自引:0,他引:1  
为实现非接触、低成本、精准识别棉花顶芽,提出一种基于YOLOv4网络在复杂环境下对棉花顶芽进行精准识别的方法。利用K-means算法对棉花顶芽数据集进行聚类,优化先验框改善网络检测精度和速度,得到最优权值模型。对聚类前后模型以及与其他目标检测模型在棉花顶芽检测性能上进行了对比试验,并探究了顶芽在逆光和遮挡环境下,不同模型的检测性能。结果表明:该模型在测试集的平均检测精度(AP)、精确率(P)、召回率(R)、调和平均值(F1)比原模型分别提高0.36%、1.73%、0.52%、1.16%,单张图像平均检测时间缩短0.28 s;对比SSD、YOLOv3、Tiny-YOLOV4模型,该模型检测精确率和F1值最高,性能均衡;在自然场景处于逆光状态下,YOLOv4模型检测顶芽效果好于其他模型,且逆光环境对检测影响小;在遮挡条件下各个模型检测精度均有不同程度下降。  相似文献   

18.
针对目前生猪目标检测算法模型较大,实时性差导致其难以在移动终端中应用等问题,将一种改进的轻量化YOLOv4算法用于生猪目标检测.在群养猪环境下以不同视角和不同遮挡程度拍摄生猪图像,建立生猪目标检测数据集.基于轻量化思想,在YOLOv4基础上缩减模型大小.结果表明,本研究算法的准确率和召回率分别为96.85%和91.75...  相似文献   

19.
针对丘陵地区小规模茶园估产难度高,估产手段少等问题,采用基于YOLOv5的目标检测算法和田间抽样调查法,对丘陵地区小规模茶园估产问题进行研究。在茶园中随机抽取9个有代表性的茶叶生长点;使用目标检测算法识别抽样点茶叶嫩芽数目;利用最小二乘法拟合茶叶嫩芽产量与数目间的线性关系;结合抽样点识别出的嫩芽数目、抽样点面积、线性拟合关系和茶园整体面积估算出茶园茶叶嫩芽产量。结果表明:1)基于YOLOv5的目标检测算法对茶叶嫩芽识别的精度为99.02%,平均准确率为90.14%;2)茶叶嫩芽数目和产量间有高度线性关系,决定系数R2为0.999 8;3)通过算法估计的茶叶嫩芽产量与实际采收产量相对误差为29.56%。本研究能够较为方便的估算出茶园茶叶嫩芽产量,在茶叶生长时期为农户提供产量相关的数据支持,便于茶叶生产的前期管理。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号