首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
基于迁移学习和双线性CNN的细粒度菌菇表型识别   总被引:1,自引:0,他引:1  
为了对细粒度菌菇进行表型识别,在双线性卷积神经网络细粒度图像识别框架基础上,提出了一种基于迁移学习和双线性Inception-ResNet-v2网络的菌菇识别方法。利用Inception-ResNet-v2网络的特征提取能力,结合双线性汇合操作,提取菌菇图像数据的细粒度特征,采用迁移学习将ImageNet数据集上预训练的模型参数迁移到细粒度菌类表型数据集上。试验表明,在开源数据集和个人数据集上,识别精度分别达到87.15%和93.94%。开发了基于Flask框架的在线菌类表型识别系统,实现了细粒度菌菇表型的在线识别与分析。  相似文献   

2.
针对基于生成对抗网络的多数图像修复算法所修复的图像纹理细节不清晰,不能充分融合神经网络提取的纹理细节信息和语义信息的问题,本文提出一种基于残差网络和特征融合的双阶段生成网络图像修复模型,通过修复训练集中被遮挡的图像,获取符合训练集整体分布的修复图像。首先,设计一种轻量型多尺度感受野残差模块,通过多个感受野不同的卷积核提取特征信息,提升粗化生成网络保留纹理信息的能力。其次构建一种双边精细修复网络结构,分别处理纹理细节信息和语义信息并进行聚合,实现图像的精细修复。最后基于GWHD数据集进行实验,验证本文算法的有效性。实验结果表明,本文模型较CE、GL、PEN-Net、CA算法,客观评价指标L1-loss降低0.56~3.79个百分点,PSNR和SSIM提升0.2~1.8 dB和0.02~0.08,并在人眼直观感受中实现了纹理结构清晰、语义特征合理的修复效果。相较于原GWHD数据集,在基于本文模型所扩充的小麦数据集中,运用YOLO v5s预测小麦麦穗的mAP提升1.41个百分点,准确率提升3.65个百分点,召回率提升0.36个百分点。  相似文献   

3.
为解决遥感图像河流精细化提取问题,提出一种改进LinkNet模型的分割网络(AFR-LinkNet)。AFR-LinkNet在LinkNet基础上引入了残差通道注意力结构、非对称卷积模块以及密集跳跃连接结构,并用视觉激活函数FReLU替换ReLU激活函数。残差通道注意力结构可以强化对分割任务有效的特征,以提高模型的分类能力,得到更多的细节信息。利用非对称卷积模块进行模型压缩和加速。使用FReLU激活函数提升网络提取遥感图像河流的精细空间布局。在寒旱区河流数据集上的实验结果表明,AFR-LinkNet网络相较于FCN、UNet、ResNet50、LinkNet、DeepLabv3+网络交并比分别提高了26.4、22.7、17.6、12.0、9.7个百分点,像素准确率分别提高了25.9、22.5、13.2、10.5、7.3个百分点;引入非对称卷积模块后,交并比提高了5.1个百分点,像素准确率提高了2.9个百分点,在此基础上引入残差通道注意力结构之后,交并比又提高了2.2个百分点,像素准确率提高了2.3个百分点,证明了其对河流细节识别效果更好。  相似文献   

4.
基于卷积层特征可视化的猕猴桃树干特征提取   总被引:2,自引:0,他引:2  
为探究卷积层深度对猕猴桃树干图像特征提取的影响,提出了一种分析所提取特征的可视化方法。首先,对所采集建立的数据集进行正负样本分类,将数据集中的树干与输水管交叉区域作为正样本,其余区域作为负样本,输入LeNet、Alexnet、Vgg-16以及定义的3类浅层模型进行训练;然后,通过提取激活映射图、归一化、双三次插值的可视化方法,获取各个分类模型最后一个卷积层的可视化结果,通过可视化试验对比可知,Alexnet和Vgg-16能够准确提取测试集图像中的树干区域特征,而LeNet与3类浅层模型在提取树干的同时将输水管、地垄等区域特征一并提取;最后,以上述6类网络结构作为特征提取层的图像分类和目标检测模型,对开花期和结果期的数据集进行验证,以不同季节数据集特征变化而引起的精度下降幅度作为评判标准,结果显示,图像分类浅层模型精度下降幅度不小于15.90个百分点、Alexnet与Vgg-16分别下降6.94个百分点和2.08个百分点,目标检测浅层模型精度下降幅度不小于49.77个百分点、Alexnet和Vgg-16分别下降22.53个百分点和20.54个百分点。所有浅层模型因所提取特征的改变,精度有更大幅度的下降。该方法从可视化角度解释深层网络与浅层网络对猕猴桃树干目标特征的提取差异,可为研究网络深度和训练样本的调整提供参考。  相似文献   

5.
针对传统大豆联合收获机破碎率在线检测方法以人工检测耗时耗力且受人为主观因素影响的问题,提出基于DeepLabV3+网络的机收大豆破碎率在线检测方法。利用大豆图像在线采集装置获取联合收获机实时收获的大豆图像,使用标注软件对图像进行标注,构建数据集。为进一步提高网络训练速度,在DeepLabV3+网络中主干特征提取网络选用轻量级卷积网络MobileNetV2替代网络Xception;在预测部分,采用加黑边裁剪拼接的方式,提高图像分割精度。试验结果表明:基于DeepLabV3+网络模型对测试集大豆样本图像中破碎籽粒识别的综合评价指标F1值为89.49%,完整籽粒识别的综合评价指标F1值为93.93%;建立破碎率量化模型,进行台架试验,采用本文提出大豆破碎率在线检测方法检测结果平均值与人工检测结果平均值相对误差0.36%;为大豆联合收获机作业质量在线检测提供参考。  相似文献   

6.
基于深层卷积神经网络的初生仔猪目标实时检测方法   总被引:6,自引:0,他引:6  
针对初生仔猪目标较小、分娩栏内光线变化复杂、仔猪粘连和硬性遮挡现象较为严重等问题,提出一种基于深层卷积神经网络的初生仔猪目标识别方法。将分类和定位合并为一个任务,以整幅图像为兴趣域,利用特征金字塔网络(Feature pyramid network,FPN)算法定位识别仔猪目标;对比了不同通道数数据集以及不同迭代次数对模型效果的影响;该方法支持图像批量处理、视频与监控录像的实时检测和检测结果多样化储存。实验结果表明:在数据集总量相同时,同时包含夜间单通道和白天3通道的数据集,在迭代20 000次时接近模型最优值。模型在验证集和测试集上的精确率分别为95. 76%和93. 84%,召回率分别为95. 47%和94. 88%,对分辨率为500像素×375像素的图像检测速度为53. 19 f/s,对清晰度为720 P的视频检测速度为22 f/s,可满足实时检测的要求,对全天候多干扰场景表现出良好的泛化能力。  相似文献   

7.
针对高通量自动化获取的植物表型性状图像的智能检测问题,采用迁移学习和改进掩膜区域卷积神经网络(Mask R-CNN)设计植物表型智能检测分割算法。首先对残差网络进行优化,并利用特征金字塔网络(FPN)对输入图像进行特征提取;然后调整候选区域提取网络(RPN)中锚框的长宽比例和阈值,并在RoIAlign中通过双线性插值法保留了特征图的空间信息;最后改进Mask检测头,并增加特征融合机制以获得高质量的掩膜。在西瓜突变体生长情况的性状表型数据集上进行训练和检测,得到结果表明:改进后的Mask R-CNN表现出更优的检测性能,与传统Mask R-CNN相比,检测精度提高22%,掩膜准确率提高2.7%,检测时间减少42 ms,为提升农业精准化水平和推动智慧农业发展提供了技术支撑。  相似文献   

8.
基于全卷积神经网络的云杉图像分割算法   总被引:1,自引:0,他引:1  
以云杉为研究对象提出了应用全卷积神经网络(Fully convolutional networks,FCN)分割图像的算法。利用无人机采集图像,标注470幅云杉图像,其中300幅组成训练集,170幅组成测试集,标注90幅樟子松图像作为附加测试集。以VGG16为基础建立云杉分割FCN模型,利用Tensorflow框架实现和训练网络,通过共享权值和逐渐降低的学习速率,提高FCN模型的训练性能。选择像素精度(PA)、均像素精度(MPA)、均交并比(MIoU)和频权交并比(FWIoU)4个语义分割评价指标评价测试结果。FCN模型分割云杉图像,PA和MPA达到0.86,MIoU达到0.75,FWIoU达到0.76,处理速率达到0.085s/幅,有效地解决了光照变化、云杉个体差异、地面杂草干扰和植株之间粘连的影响。与HSV颜色空间阈值分割以及K均值聚类分割算法比较,FCN模型的MIoU分别提高0.10和0.38。  相似文献   

9.
为实现苹果果径与果形快速准确自动化分级,提出了基于改进型SSD卷积神经网络的苹果定位与分级算法。深度图像与两通道图像融合提高苹果分级效率,即对从顶部获取的苹果RGB图像进行通道分离,并提取分离通道中影响苹果识别精度最大的两个通道与基于ZED双目立体相机从苹果顶部获取的苹果部分深度图像进行融合,在融合图像中计算苹果的纵径相关信息,实现了基于顶部融合图像的多个苹果果形分级和信息输出;使用深度可分离卷积模块替换原SSD网络主干特征提取网络中部分标准卷积,实现了网络的轻量化。经过训练的算法在验证集下的识别召回率、精确率、mAP和F1值分别为93.68%、94.89%、98.37%和94.25%。通过对比分析了4种输入层识别精确率的差异,实验结果表明输入层的图像通道组合为DGB时对苹果的识别与分级mAP最高。在使用相同输入层的情况下,比较原SSD、Faster R-CNN与YOLO v5算法在不同果实数目下对苹果的实际识别定位与分级效果,并以mAP为评估值,实验结果表明改进型SSD在密集苹果的mAP与原SSD相当,比Faster R-CNN高1.33个百分点,比YOLO v5高14.23个百分点...  相似文献   

10.
为了快速而准确地统计视频监测区域内的水稻穗数,提出了一种基于改进Faster R-CNN的稻穗检测方法。针对稻穗目标较小的问题,在Inception_ResNet-v2的基础上引入空洞卷积进行优化;对于不同生长期稻穗差别大的问题,设计了针对标注框尺度的K-means聚类,为候选区域生成网络提供先验知识,从而提高了检测精度。鉴于小尺寸稻穗目标的特殊性,用ROIAlign替代ROIPooling,提高了感兴趣区域的提取精度。试验测试时,根据水稻不同发育期稻穗的表型特征差异自制了3类数据集,并选取最佳聚类数为10。模型对比试验表明,本文方法的稻穗检测平均精度均值达到80.3%,较Faster R-CNN模型提升了2.4个百分点,且比SSD和YOLO系列模型有较大幅度的提升。  相似文献   

11.
针对苹果采摘机器人识别算法包含复杂的网络结构和庞大的参数体量,严重限制检测模型的响应速度问题,本文基于嵌入式平台,以YOLO v4作为基础框架提出一种轻量化苹果实时检测方法(YOLO v4-CA)。该方法使用MobileNet v3作为特征提取网络,并在特征融合网络中引入深度可分离卷积,降低网络计算复杂度;同时,为弥补模型简化带来的精度损失,在网络关键位置引入坐标注意力机制,强化目标关注以提高密集目标检测以及抗背景干扰能力。在此基础上,针对苹果数据集样本量小的问题,提出一种跨域迁移与域内迁移相结合的学习策略,提高模型泛化能力。试验结果表明,改进后模型的平均检测精度为92.23%,在嵌入式平台上的检测速度为15.11f/s,约为改进前模型的3倍。相较于SSD300与Faster R-CNN,平均检测精度分别提高0.91、2.02个百分点,在嵌入式平台上的检测速度分别约为SSD300和Faster R-CNN的1.75倍和12倍;相较于两种轻量级目标检测算法DY3TNet与YOLO v5s,平均检测精度分别提高7.33、7.73个百分点。因此,改进后的模型能够高效实时地对复杂果园环境中的苹果进行检测,适宜在嵌入式系统上部署,可以为苹果采摘机器人的识别系统提供解决思路。  相似文献   

12.
基于图像处理和聚类算法的待考种大豆主茎节数统计   总被引:1,自引:0,他引:1  
为了实现待考种大豆植株主茎节数的快速、高效测量,提出一种基于图像处理和聚类算法的待考种大豆主茎节数统计方法。首先,获取不同视角下的已脱叶待考种大豆植株图像,随机抽取训练集与验证集样本植株,并设定初始图像采集间隔与抽样步长;其次,通过植株分割、骨架提取、主茎节点去噪等操作,获取分布于植株主茎上的待检测大豆茎节点;通过基于空间距离的数据转换方法将分布离散的大豆茎节点转换至便于聚类的数据集内;利用HDBSCAN聚类算法对不同采集视角下的待检测大豆茎节点进行聚类,统计、记录主茎节数识别准确率,筛选最优采集间隔;最后,利用最优采集间隔对剩余样本植株主茎节数进行统计、分析。在63株 “中黄30”待考种大豆植株中抽取21株植株作为训练集,并进行实验测试,发现在采集间隔为90°时,以最小聚类簇为2,融合处理4幅大豆图像,大豆主茎节数识别效果最优。据此对42株验证集样本植株进行主茎节数识别和分析,结果表明,大豆主茎节数识别准确率可达98.25%。该方法能够快速、准确获取大豆主茎节数,可满足大豆考种需求。  相似文献   

13.
为研究大豆品种收获时期生物学及力学特性,对黄淮海地区12个大豆品种收获期的植株高度、底荚高度、蓬面直径、豆荚长度、豆荚个数、草谷比、百粒质量、豆粒厚度方向直径、籽粒和茎秆含水率进行测量。结果表明:收获期黄淮海实际种植的主流品种平均植株高度78.3cm,平均低荚高度18.9cm,平均蓬面直径10.0cm,豆荚平均长度4.9cm,豆荚平均个数61个,平均草谷比1.40,平均百粒质量19.9g,籽粒厚度方向平均直径5.7mm,大豆平均含水率12%,茎秆平均含水率28.4%。在含水率为13.0%,加载速度10、30、50mm/min条件下,运用万能材料试验机对不同大豆品种进行植株力学特性试验,分析了植株豆荚脱离和炸荚所需破坏力、破坏能与加载速度的关系。试验结果表明:单个大豆植株豆荚脱离和炸荚所需的破坏力和破坏能比较小,且在不同的加载速度下区别不大;豆荚炸荚时所需破坏力小于豆荚脱离时所需破坏力,在大豆收获过程中,避免炸荚、减少炸荚损失应是重点。  相似文献   

14.
深度学习在农作物病害图像识别中的研究进展   总被引:1,自引:0,他引:1  
农作物病害识别关乎作物的产量与质量,是智慧农业发展过程中必不可少的重要环节。随着深度学习技术在图像处理领域的飞速发展,利用深度学习从图像中识别出农作物患病类型的方法已逐渐成为主流。主要对基于深度学习的农作物病害识别方法进行综述,简要地介绍深度学习和卷积神经网络,收集一些常用的病害图像公开数据集。根据训练样本采集环境的不同,从实验室和野外两个方面概述近年来基于深度学习病害识别方法的进展,指出每种方法的优势与不足,总结出该研究领域存在数据量不足、任务难度大、深度学习模型网络结构复杂3个主要问题,并在此基础上进行展望,提出建立大规模、多种类、多类型病害数据库和设计高性能的深度学习模型是未来的重要发展方向。  相似文献   

15.
为实现作物病害早期识别,本文提出一种基于红外热成像和改进YOLO v5的作物病害早期检测模型,以CSPD-arknet为主干特征提取网络,YOLO v5 stride-2卷积替换为SPD-Conv模块,分别为主干网络中的5个stride-2卷积层和Neck中的2个stride-2卷积层,可以提高其准确性,同时保持相同级别的参数大小,并向下阶段输出3个不同尺度的特征层;为增强建模通道之间的相互依赖性,自适应地重新校准通道特征响应,引入SE机制提升特征提取能力;为减少模型计算量,提高模型速度,引入SPPF。经测试,改进后YOLO v5网络检测性能最佳,mAP为95.7%,相比YOLO v3、YOLO v4、SSD和YOLO v5网络分别提高4.7、8.8、19.0、3.5个百分点。改进后模型相比改进前对不同温度梯度下的作物病害检测也有提高,5个梯度mAP分别为91.0%、91.6%、90.4%、92.6%和94.0%,分别高于改进前3.6、1.5、7.2、0.6、0.9个百分点。改进YOLO v5网络内存占用量为13.755MB,低于改进前基础模型3.687MB。结果表明,改进YOLO v5可以准确快速地实现病害早期检测。  相似文献   

16.
针对现阶段特征提取网络当测试样本出现歪斜、模糊、缺损等变化时识别效果不够理想,利用训练样本扩充、变换、缩放等方式改善网络性能并不能动态地满足实际的复杂病害图像识别任务的问题,在ResNet50中引入双层注意力机制与通道特征提取机制,设计基于全局特征提取的深度学习网络(Global feature deep learning network,GFDL-Net),该网络包括通道特征提取子网络(Squeeze and excitation net,SE-Net)和双注意力特征提取子网络(Double feature extraction net,DFE-Net),分别从通道空间特征提取与平面关键点特征提取两方面改善了网络的全局特征提取能力。为了验证GFDL-Net的有效性,对辣椒、马铃薯、番茄等15种病害图像加入不同角度的旋转、色彩变换等测试,发现在样本加入旋转后与ResNet50、BoTNet、EfficientNet相比,平均识别准确率分别高出20.05、18.62、21.97个百分点;加入明暗度、饱和度、对比度变换后与ResNet50、BoTNet、 EfficientNet相比,平均识别准确率分别高出3.57、0.53、3.98个百分点,而识别速度分别为ResNet50、BoTNet、EfficientNet的4.4、4.9、2.0倍。试验证明GFDL-Net在图像全局特征提取能力方面的改进能有效提升网络的泛化能力与鲁棒性,可将其应用于解决变化样本的农作物病害识别任务中。  相似文献   

17.
基于深度相机的玉米株型参数提取方法研究   总被引:1,自引:0,他引:1  
提出了一种基于骨架提取的改进算法,可实现在大田环境下,使用PMD深度相机快速、无损测量玉米株型参数。首先利用深度图像RGB伪彩色和深度距离信息,提取深度图像的骨架,排除复杂背景干扰,得到单株玉米的二值骨架图像;然后利用基于角点检测的改进归类算法提取骨架图像特征点;最后建立骨架图像中特征点与深度图像的对应关系,利用空间几何数学方法,结合特征点计算出玉米的3种株型参数,即株高、茎粗、叶倾角。农田实验对比分析表明,所提方法的株高测量结果与人工测量结果的相关系数 r 为0.986,最大相对误差小于2 cm,农田作物育种抗逆性分析还表明玉米株型参数与抗倒伏性具有显著相关性。  相似文献   

18.
基于多视角时间序列图像的植物叶片分割与特征提取   总被引:1,自引:0,他引:1  
娄路  吕惠  宋然 《农业机械学报》2022,53(1):253-260
为了解决多种类植物在生长过程中不同时间点动态变化表型参数提取困难问题,提出了一种基于多视角时间序列图像和深度卷积神经网络Mask-RCNN的植物茎叶实例分割方法,在拟南芥、玉米和酸浆属3种代表性植物上进行了实验.结果 表明,训练得到的基于Mask-RCNN的植物分割模型对在不同生长时期的植物茎叶的识别精度(mAP0.5...  相似文献   

19.
互联网是一个巨大的资源库,也是一个丰富的知识库。针对农作物小样本引起的过拟合问题,本研究引入了知识迁移和深度学习的方法,采用互联网公开的ImageNet图像大数据集和PlantVillage植物病害公共数据集,以实验室的黄瓜和水稻病害数据集AES-IMAGE为对象开展相关的研究与试验。首先将批归一化算法应用于卷积神经网络CNN中的AlexNet和VGG模型,改善网络的过拟合问题;再利用PlantVillage植物病害数据集得到预训练模型,在改进的网络模型AlexNet和VGG模型上用AES-IMAGE对预训练模型参数调整后进行病害识别。最后,使用瓶颈层特征提取的迁移学习方法,利用ImageNet大数据集训练出的网络参数,将Inception-v3和Mobilenet模型作为特征提取器,进行黄瓜和水稻病害特征提取。本研究结合试验结果探讨了适用于农作物病害识别问题的最佳网络和对应的迁移策略,表明使用VGG网络参数微调的策略可获得的最高准确率为98.33%,使用Mobilenet瓶颈层特征提取的策略可获得96.8%的验证准确率。证明CNN结合迁移学习可以利用充分网络资源来克服大样本难以获取的问题,提高农作物病害识别效率。  相似文献   

20.
基于深度学习的大豆生长期叶片缺素症状检测方法   总被引:5,自引:0,他引:5  
为了检测作物叶片缺素,提出了一种基于神经网络的大豆叶片缺素视觉检测方法。在对大豆缺素叶片进行特征分析后,采用深度学习技术,利用Mask R-CNN模型对固定摄像头采集的叶片图像进行分割,以去除背景特征,并利用VGG16模型进行缺素分类。首先通过摄像头采集水培大豆叶片图像,对大豆叶片图像进行人工标记,建立大豆叶片图像分割任务的训练集和测试集,通过预训练确定模型的初始参数,并使用较低的学习率训练Mask RCNN模型,训练后的模型在测试集上对背景遮挡的大豆单叶片和多叶片分割的马修斯相关系数分别达到了0.847和0.788。通过预训练确定模型的初始参数,使用训练全连接层的方法训练VGG16模型,训练的模型在测试集上的分类准确率为89.42%。通过将特征明显的叶片归类为两类缺氮特征和4类缺磷特征,分析讨论了模型的不足之处。本文算法检测一幅100万像素的图像平均运行时间为0.8 s,且对复杂背景下大豆叶片缺素分类有较好的检测效果,可为农业自动化生产中植株缺素情况估计提供技术支持。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号