共查询到19条相似文献,搜索用时 173 毫秒
1.
在农业保险中,苹果园受灾理赔需要通过快速准确的落果计数进行定损,然而自然场景的复杂性、落果的分布状态、采集员的身高、拍照习惯等环境因素和人为因素影响了基于影像的落果识别与计数的准确性和可靠性。通过获取不同落果背景、光照度、落果分布密集度、拍摄高度和拍摄距离等条件下地面的苹果影像,采用基于深度学习的更快速的区域卷积神经网络(faster region convolutional neural networks,Faster-RCNN)模型进行地面苹果检测的方法,与传统方法Hough变换和分水岭算法进行对比。结果表明,Faster-RCNN模型的平均识别精度达到95.53%,明显优于传统的地面苹果提取方法;在弱光、落果分布密集、拍摄距离较远等不理想的条件下,识别精度也达到90%以上,有较好的稳定性。基于深度学习的地面苹果识别与计数方法,有望为提高农业果品保险定损的精度与效率提供重要的技术参考。 相似文献
2.
针对深度学习群猪目标检测算法精确度低和模型占用内存大等问题,提出基于Transformer与自适应空间特征融合的群猪目标检测算法。搭建群猪图像采集设备,以视频帧作为数据源,提取关键帧并剔除模糊图像,采用Labelme标注图像中猪只,建立群猪图像数据集;将Swin Transformer网络作为主干网络,在FPN后引入自适应空间特征融合方法作为特征融合网络;提出RIoU作为预测框回归损失计算方法。结果表明,该算法在精确率、召回率、F1值和平均精确率指标方面分别达到93.6%、97.2%、0.953、96.5%,检测速度为34.9 Hz且模型大小仅为20.6 MB,与YOLOv4相比上述指标分别提高1.5%、1.7%、1.6%、2.4%,模型占用内存量缩小12.5倍,检测速度提高13 Hz。研究有助于智能化猪场建设,为养殖场动物计数和行为识别等方面提供技术支持。 相似文献
3.
针对传统杂草识别方法对与牧草有相似特征的杂草的识别精度低的不足,提出一种基于改进DINO检测网络的牧场杂草检测模型。为了增强有效特征和精确位置信息的提取,并减少无效信息的干扰,在端到端模型DINO的主干网络ResNet中加入结合空间注意力和通道注意力的CBAM-G注意力机制模块;通过增加网络深度,让主干网络可以提取到更深层次的目标特征;引入更加轻量化的SFPN模块,替换了算法中原有的特征融合模块;最后为了提高特征提取网络与Transformer的稳定度和检测性能,在模型特征提取网络中加入高斯误差线性单元。结果表明,改进后的检测模型在Kaggle的牧场杂草数据集上的像素精度AP50达到了95.89%,AP75达到了89.23%,相较于原始模型可以更好地利用多尺度特征信息,并提升识别精度。 相似文献
4.
基于深度学习的苹果树侧视图果实识别 总被引:3,自引:2,他引:1
【目的】传统果树侧面果实识别方法精度难以满足实际果实识别的需求,研究深度学习方法对提高苹果树侧面果实识别精度、增强模型对苹果复杂生长环境的适应性和泛化性具有重要意义。【方法】文章提出基于深度卷积神经网络对广域复杂背景环境下的侧面苹果特征进行学习的方法,完成苹果树侧面果实多目标识别任务。【结果】在广域复杂场景下,基于VGG16为特征提取网络的Faster-RCNN多目标检测模型在果实多目标检测任务中,识别精度达到91%,单幅影像识别时间约为1.4 s,相较于ResNet50作为特征提取层的目标检测模型识别精度提高4%;在相同影像数据下,模型识别精度的主要影响因素是遮挡,导致模型漏判果实数量较多,VGG16在不同程度遮挡区域的漏判率比ResNet低6%。【结论】基于VGG16卷积神经网络果树侧视图果实识别算法对广域复杂场景下的果实提取效果较好,特别是在具有遮挡情况下的识别结果更优,能够为果园产量估算提供一定的借鉴。 相似文献
5.
针对现有目标检测算法对自然环境下核桃识别存在漏检、误检等问题,提出了一种基于Swin Transformer多层特征融合改进的YOLOX-S核桃识别算法。首先,在主干特征提取网络中引入基于Swin Transformer的多层特征融合模块,借助Swin Transformer的多头注意力机制对小目标的特征信息进行提取并与特征图进行融合,可以有效解决因网络层数加深导致的高层特征图中小目标特征信息丢失问题;其次,为了提高算法的检测精度,引入更高效的Repblock模块对原网络中的CSP模块进行替换;最后,为了提高下采样效果,使用更为优秀的Transition Block模块作为主干特征提取网络的下采样模块。结果表明,改进后的YOLOX-S模型在采集的自然环境下核桃数据集上平均精度AP50达到96.72%,分别比Faster-RCNN、YOLOv5-S、YOLOX-S算法提高7.36、1.38、0.62百分点,检测速度达到46 f/s,模型参数大小为20.55 M。改进后的YOLOX-S算法具有更好的精度,改善了漏检和误检问题,对自然环境下的核桃有更好的识别效果。 相似文献
6.
昆虫图像分割是昆虫图像的识别与鉴定的重点和难点.目前,昆虫分割算法速度慢、过程复杂且大多数只针对于单一背景图像.为了更准确高效地实现昆虫图像的前景背景图像分离,提出一种基于逐像素聚类的端对端的昆虫图像分割方法,能够同时实现复杂背景下的昆虫图像分割与昆虫种类识别.采用覆盖5个昆虫目级阶元的37种实际场景下拍摄的昆虫图像作为研究对象,首先通过试验确定所提模型的最优参数设置,选择ResNet101作为分割模型的主干特征提取网络,在IoU取0.50时,其掩膜分支平均准确度均值、定位平均准确度均值及平均识别误差率分别为93.15%、95.06%和12.12%,分割每张昆虫图像仅需0.080 s,所提模型能够同步实现复杂背景下昆虫目标与背景的快速准确分割并进行分类. 相似文献
7.
基于深度学习的5种树皮纹理图像识别研究 总被引:1,自引:0,他引:1
8.
麦穗检测与计数关乎小麦的产量预估与育种,估算小麦产量的重要指标之一就是单位面积穗数,如何准确检测单位面积穗数对于农业生产管理决策有着重要的指导作用。因此本研究提出了基于改进的YOLOX-s的田间麦穗检测方法对麦穗进行精准识别与计数。首先,选取多个国家的不同品种小麦图像,使用图像增强、数据清洗等方法建立全球小麦图像数据集。其次,在YOLOX-s的基础上根据麦穗图像的特点,重新设计了特征提取网络的深度,同时加入注意力机制,充分提取麦穗特征。将SPP模块替换为SPPF模块,在提升推理速度的同时,不降低模型性能。通过全球小麦图像数据集进行模型训练,并使用实地拍摄的麦田图像对模型进行测试。试验结果表明:通过全球小麦图像数据集的训练,改进的YOLOX-s网络模型的mAP达到了89.03%,精确度达到了91.21%。在实拍的麦田图像中,计数准确率达到了97.93%,平均单幅图像计数为0.194 s,单株小麦识别速度为2.8 ms,检测速度较YOLOX-s提升30.2%,计数速度优异,麦穗定位准确。 相似文献
9.
为解决昆虫数据集数据分布不均衡导致识别模型在数据量少的尾部类别的识别性能差的问题,提出1种融合数据合成的卷积识别网络模型(synthetic samples combined model,SSCM),该模型包含图像分割与重组模块、主干网络模块和数据纠正分支模块等3个模块。通过图像分割与重组模块对训练的图片进行分割并重组,得到新的训练数据并加入训练集;再使用ResNet-50作为网络主干提取图片的特征,同时数据纠正分支模块采用均方误差与交叉熵计算合成图像与原图像之间的误差,以减少合成图像对尾部数据的不利影响。构建包含300个蝴蝶类别共26 045张图片的数据集验证模型性能,结果显示,SSCM模型在该数据集上的准确率较DRC、BBN、RIDE等主流长尾目标识别模型分别高3、2.14、2.71个百分点。采用公开昆虫数据集IP102进一步验证SSCM算法的有效性,结果显示,SSCM模型准确率比DRC、BBN、RIDE等模型分别高18.94、3.02、3.36个百分点。 相似文献
10.
基于Faster-RCNN的花生害虫图像识别研究 总被引:1,自引:0,他引:1
为实现花生害虫图像的准确分类,共收集花生主要害虫图片2 038张,针对目前在基于Faster-RCNN的图像识别领域较为成熟的VGG-16和ResNet-50这2种网络模型进行对比研究,并针对ResNet-50模型参数进行调整,提出了基于学习率、训练集和测试集以及验证集的比例选择、迭代次数等参数改进的ResNet-50卷积神经网络的模型。结果表明:该模型可以准确高效地提取出花生主要害虫的多层特征图像,在平均识别率上,经过改进的ResNet-50网络模型在识别花生害虫图像上优于ResNet-50原始网络模型。该模型可以准确地分类花生主要害虫图像,可在常规情况下实现花生害虫的图像识别。 相似文献
11.
基于卷积神经网络的水稻虫害识别方法 总被引:1,自引:0,他引:1
为解决人工识别水稻虫害难度大、费时费力的问题,研究了一种自动识别水稻虫害的方法。选取2 500张红袖蜡蝉、稻绿蝽、稻螟蛉、点蜂缘蝽、大螟图片建立数据库,利用深度卷积神经网络提取水稻虫害数据集特征,采用随机梯度下降法训练,得到最优权重文件。测试训练好的模型,并对比Faster-RCNN、SSD和YOLOv3算法的效果。结果表明,YOLOv3算法的平均精度最高,其在红袖蜡蝉、稻绿蝽、稻螟蛉、点蜂缘蝽、大螟5种水稻虫害中分别为97.40%、88.76%、85.74%、92.96%、94.78%,五类水稻虫害mAP为91.93%。与Faster-RCNN算法相比,平均准确率高1.43个百分点,单张图像检测耗时减少853.68 ms;与SSD算法相比,平均准确率高5.56个百分点,单张图像检测耗时减少2.9 ms。选择5类比较具有代表性的水稻虫害图片进行测试,对于叶片遮挡目标和相似背景等情况,YOLOv3算法能够正确识别不会出现漏检错检,且识别准确率大于98%。将YOLOv3算法引入田间复杂情况下的水稻虫害识别是可行的,具有较高的平均准确率以及较快的检测速度,能够准确识别水稻虫害,这对于水稻虫害防治和田间喷药等方面具有重要意义。 相似文献
12.
【目的】研究基于改进Mask R-CNN的玉米苗冠层分割算法,满足精准作业中对靶施肥的识别要求,提高化肥的使用效率,减少环境污染。【方法】采集田间玉米苗图片并增强数据,生成田间数据集;使用ResNeXt50/101-FPN作为特征提取网络对分割算法进行训练,并与原始ResNet50/101-FPN的训练精度结果作对比;采用不同光照强度及有伴生杂草的玉米苗图片对比验证冠层识别算法效果。【结果】在不同光照强度下,无伴生杂草的目标平均识别精度高于95.5%,分割精度达98.1%;在有伴生杂草与玉米苗有交叉重合情况下,目标平均识别精度高于94.7%,分割精度达97.9%。检测一帧图像的平均时间为0.11 s。【结论】Mask R-CNN的玉米苗及株芯检测算法有更高的准确率和分割精度,更能适应不同光照强度及有伴生杂草的苗草交叉重合情况的目标检测。 相似文献
13.
14.
15.
[目的/意义]为了提高大豆叶片图像的分类精度与效率,进一步对大豆叶片图像进行存储与管理。[方法/过程]本文利用深度学习方法,针对肉眼观察准确率较低且不同人群分类结果差异较大的大豆叶片图像数据提出了一种自动分类方法。本研究首先对大豆叶片进行ROI感兴趣区域划分,进而利用分水岭分割方法对大豆叶片进行提取,最后通过深度学习高效精确的实现了大豆叶片的分类识别。[结果/结论]通过分析大豆叶片形态图像特点后,基于深度学习开展了对大豆叶片形态的分类识别的研究,达到了较高的识别准确率。 相似文献
16.
为了提高林业害虫检测的准确性,提出一种基于YOLOv4的改进算法。首先,基于智能害虫捕捉装置拍摄的图像,制作害虫数据集,采用K-means算法对样本数据集的目标框进行聚类分析,基于DIoU-NMS算法实现对害虫的计数功能;然后,在模型的路径聚合网络(PANet)结构上增加特征融合和104×104层级特征检测图,以提升对小个体害虫的识别率;最后,根据模型检测效率和复杂度,调整模型中的尺度特征图组合,在保证检测准确度的基础上,提升检测效率,并精简模型。试验结果表明,改进的YOLOv4模型的平均识别精度比传统YOLOv4模型提高了1.6百分点,且对于小个体害虫的识别效果更好,模型复杂度和模型参数量分别减少了11.9%、33.2%,检测速度提升了11.1%,更适于应用部署。 相似文献
17.
18.
[目的]研究基于ACO-SVM的粮虫特征提取,探讨粮虫特征提取的可行性。[方法]通过分析储粮害虫图像识别系统中的1个关键环节——特征提取,提出把支持向量机(Support vector machine,简称SVM)算法中交叉验证训练模型的识别率作为储粮害虫特征提取评价准则的1个重要因子,将蚁群优化算法(Ant Colony Optimization,简称ACO)应用于粮虫特征的自动提取。[结果]该算法从粮虫的17维形态学特征中自动提取出面积、周长等7个特征的最优特征子空间,采用参数优化之后的SVM分类器对90个粮虫样本进行分类,识别率达到95%以上。[结论]该研究表明蚁群优化算法在粮虫特征提取中的应用是可行的。 相似文献
19.
[目的]研究基于ACO-SVM的粮虫特征提取,探讨粮虫特征提取的可行性。[方法]通过分析储粮害虫图像识别系统中的1个关键环节——特征提取,提出把支持向量机(Support vector machine,简称SVM)算法中交叉验证训练模型的识别率作为储粮害虫特征提取评价准则的1个重要因子,将蚁群优化算法(Ant Colony Optimization,简称ACO)应用于粮虫特征的自动提取。[结果]该算法从粮虫的17维形态学特征中自动提取出面积、周长等7个特征的最优特征子空间,采用参数优化之后的SVM分类器对90个粮虫样本进行分类,识别率达到95%以上。[结论]该研究表明蚁群优化算法在粮虫特征提取中的应用是可行的。 相似文献