首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 281 毫秒
1.
在蝴蝶兰(Phalaenopsisaphrodite)产业中,种苗在达到最短营养栽培时长时的生长势在其后续的栽培链和最终的经济利润中起着重要的作用。当前在商业大型温室中主要采取人工方式对每株种苗进行评估,既费时又费力。基于RGB图像进行植物生长评估的相关研究依赖于从图像中手动提取人工定义的特征,从而影响了机器学习模型的有效性和泛化能力。该研究使用卷积神经网络(Convolutional Neural Network,CNN)来探讨其以端对端方式评估温室中蝴蝶兰种苗生长势的可行性。对在温室中采集的图像数据集,采用不同的CNN架构(VGG、ResNet和Inception-v3)结合不同的训练机制(从头训练、微调、特征提取)建立基准模型,其中微调取得了最佳的分类结果。考虑到该研究的目标任务是对具有复杂图像背景的单个温室种苗的形态分类,为进一步提高模型性能,在可控的实验室条件下采集了更多的种苗图像。实验室图像进行背景分割后,用于协助模型更好地学习植株的形态,即建立增强模型。与基准模型相比,2种增强方式总体上在温室测试集的F1-score取得了0.03~0.05的提升。采用增强方式Ⅱ的VGG模型取得了最高的性能(温室测试集上的F1-score为0.997),并对该模型的特征图进行可视化。在高层特征图中,目标种苗区域被激活,同时滤除了大部分背景(包括相邻种苗的叶片),进一步证明了能够采用CNN对温室种苗进行有效的形态学习和刻画。总体结果表明,深度学习模型可用于基于图像的蝴蝶兰种苗生长势评估,并且可扩展用于温室下其他植物类型的生长评估。  相似文献   

2.
基于Swin Transformer模型的玉米生长期分类   总被引:1,自引:1,他引:0  
快速准确识别玉米生长的不同阶段,对于玉米种植周期的高效精准管理具有重要意义。针对大田环境下玉米生长阶段分类辨识易受复杂背景、户外光照等因素影响的问题,该研究采用无人机获取玉米不同生长阶段的图像信息,以苗期、拔节期、小喇叭口期、大喇叭口期4个生长阶段为对象,利用Swin Transformer模型引入迁移学习实现玉米不同生长阶段的快速识别。首先结合玉米垄面走向特性,将训练集旋转8次用以扩充数据集;为探究各模型在非清晰数据集上的表现,采用高斯模糊方法将测试集转换6次;最后以AlexNet,VGG16,GoogLeNet做为对比,评估Swin-T模型性能。试验结果表明,Swin-T模型在原始测试集的总体准确率为98.7%,相比于AlexNet,VGG16,GoogLeNet模型分别高出6.9、2.7和2.0个百分点;在错误分类中,大喇叭口期和小喇叭口期由于冠层特征相似,造成识别错误的概率最大;在非清晰数据集下,AlexNet,VGG16,GoogLeNet模型精度总体退化指数分别为12.4%、10.4%和15.0%,Swin-T模型总体退化指数为8.31%,并且退化均衡度、平均退化指数、最大退化准确率均表现最佳。研究结果表明:在分类精度、模糊图像输入等方面,Swin-T模型能够较好地满足实际生产中,玉米不同生长阶段分类识别的实际需求,可为玉米生长阶段的智能化监测提供技术支撑。  相似文献   

3.
为提高苹果园中现有设备的病害树叶识别精度,该研究提出了一种快速识别方法S-DenseNet-E。首先,基于DenseNet的Dense模块提出了S-Dense模块,并基于S-Dense模块搭建了S-DenseNet模型。S-Dense模块在输出层中以前馈直连方式将模型内每一层输出聚合连接在一起,改善了Dense模块的密集连接存在计算量大的问题,有效减小了模型计算量。通过在Phytopathology 2021 FGVC8的苹果树叶病害公开数据集上测试表明,S-DenseNet的F1-score达到85.14%,高于常用的CNN类模型;其识别推理时间(或延迟)是33.03 ms,低于MobileNetV2模型。其次,针对S-DenseNet模型在不可辨别病害上的F1-score较低(65.82%)的问题。该研究在S-DenseNet基础上增加辅助模型专门识别不可辨别病害,形成S-DenseNet-E方法。通过在同一数据集上测试表明,S-DenseNet-E在不可辨别病害上的F1-score达到70.10%,识别推理时间为38.92 ms,比S-DenseNet模型仅升高5.89 ms,并且保持了原来S-DenseNet对其他病害的识别效果。因此,该研究表明,S-DenseNet-E方法针对苹果患多种病害和不可辨别病害两种复杂情形的识别效果好,并且计算资源的需求较少,满足果园实际需求。  相似文献   

4.
基于深度学习与图像处理的哈密瓜表面缺陷检测   总被引:9,自引:8,他引:1  
针对传统人工检测哈密瓜表面缺陷效率低等问题,提出利用卷积神经网络(Convolutional Neural Networks, CNN)对哈密瓜表面缺陷进行快速检测。对原始图像进行主成分分析(Principal Components Analysis,PCA)、奇异值分解(Singular Value Decomposition, SVD)和二值化等预处理操作,通过数据扩充得到正常、霉菌、晒伤和裂纹的哈密瓜图像各2 500幅。构建一种改进的类似VGG卷积神经网络模型,将预处理后的图像输入模型,并使用随机梯度下降(StochasticGradient Descent,SGD)优化器进行算法优化,为探究CNN模型的特征提取原理,将改进的类似VGG模型每层卷积的特征进行可视化,最后利用开发的哈密瓜表面缺陷检测软件对模型进行试验验证。研究结果表明:图像预处理算法提高了模型的鲁棒性和泛化能力,改进的类似VGG模型优于Alex Net和VGG-16模型,其训练集和测试集准确率分别为100.00%和97.14%;对比预处理前后4类哈密瓜卷积特征可视化结果表明,随着卷积层层数的增加,哈密瓜表面缺陷特征越来越明显,图像预处理后卷积层特征提取效果优于原始图像提取效果。软件测试结果表明:静态下哈密瓜缺陷检测速率达到0.7 s/幅,识别准确率达到93.50%。研究结果可为哈密瓜表面缺陷在线检测技术提供理论依据和技术参考。  相似文献   

5.
蝴蝶兰种苗自动化切割可降低组培苗染病几率,提高种苗品质。为实现蝴蝶兰种苗自动化切割,该研究针对种苗结构特性提出基于拟合直线的切点定位方法,并配合切割方法设计了弹性切割末端,搭建了基于视觉伺服的蝴蝶兰种苗切割系统。首先,采用深度学习模型对采集到的图像进行目标检测;然后,根据检测结果使用基于几何规则的切割点定位算法计算切点;最后,将切割坐标传输给切割执行机构完成切割作业。目标检测试验中,ShuffleNet v2-YOLOv5模型检测精度达96.7%,权重文件大小1.3 MB,平均检测时间0.026 s。种苗切割试验中,切割合格率高于86%,单株平均切割时间小于18 s。该系统能有效完成蝴蝶兰种苗切割任务,为蝴蝶兰组培苗自动化生产提供新思路。  相似文献   

6.
基于卷积神经网络的温室黄瓜病害识别系统   总被引:25,自引:14,他引:11  
基于图像处理和深度学习技术,该研究构建了一个基于卷积神经网络的温室黄瓜病害识别系统。针对温室现场采集的黄瓜病害图像中含有较多光照不均匀和复杂背景等噪声的情况,采用了一种复合颜色特征(combinations of color features,CCF)及其检测方法,通过将该颜色特征与传统区域生长算法结合,实现了温室黄瓜病斑图像的准确分割。基于温室黄瓜病斑图像,构建了温室黄瓜病害识别分类器的输入数据集,并采用数据增强方法将输入数据集的数据量扩充了12倍。基于扩充后的数据集,构建了基于卷积神经网络的病害识别分类器并利用梯度下降算法进行模型训练、验证与测试。系统试验结果表明,针对含有光照不均匀和复杂背景等噪声的黄瓜病害图像,该系统能够快速、准确的实现温室黄瓜病斑图像分割,分割准确率为97.29%;基于分割后的温室黄瓜病斑图像,该系统能够实现准确的病害识别,识别准确率为95.7%,其中,霜霉病识别准确率为93.1%,白粉病识别准确率为98.4%。  相似文献   

7.
针对工厂化番茄智能化整枝打叶作业需要,研究了基于Mask R-CNN模型的整枝操作点识别定位方法,以期为整枝机器人的精准操作提供依据.鉴于丛生植株中主茎和侧枝茎秆目标随机生长、形态各异,结合植株在不同生长阶段、远近视场尺度和观测视角等条件下的成像特征,构建了温室番茄植株图像样本数据集.采用学习率微调训练方法,对Mask...  相似文献   

8.
基于迁移学习和改进CNN的葡萄叶部病害检测系统   总被引:9,自引:9,他引:0  
为建立高效、准确的葡萄叶部病害检测系统,引入迁移学习机制,利用大型公开数据集对VGG16模型预训练,保持模型前端13个层的参数和权重不变,对全连接层和分类层改进后利用新数据集微调训练模型,包括对训练优化器、学习率和中心损失函数平衡参数的优选试验,最后将模型部署在Android手机端。试验表明,在微调训练阶段选择Adam优化器、初始学习率设为0.001、中心损失函数平衡参数设为0.12时,改进的VGG16模型性能最优,对葡萄6类叶部图像的分类平均准确率为98.02%,单幅图像平均检测耗时为0.327s。与未改进的VGG16模型相比,平均准确率提高了2.82%,平均检测耗时下降了66.8%,权重参数数量减少了83.4%。改进后的模型综合性能优于AlexNet、ResNet50和Inceptionv3等模型。将模型跨平台部署在Android手机端,自然环境下验证的平均准确率为95.67%,平均检测耗时为0.357 s。该研究建立的基于迁移学习和改进卷积神经网络的病害检测系统可实现对葡萄叶部病害的快速、智能诊断,为葡萄病害的及时防控提供依据。  相似文献   

9.
随着油茶产业不断壮大,市场上也出现了油茶幼苗品系混乱、以假乱真、以次充好的现象,因此急需开发一种专门的分类识别算法实现不同油茶品种的准确识别。农业领域常用VGG、ResNet网络模型进行分类工作,但存在权重空间过大和准确率不高等问题。该研究对VGG16网络模型进行层间删减以及结构调整,提出了Enhanced VGG16网络模型,在油茶叶数据集上完成模型训练与测试,并与现有经典卷积神经网络(AlexNet、VGG16、Resnet50、InceptionV3、Xception)进行对比。结果表明,Enhanced VGG16网络模型的训练集准确率和测试集准确率分别为98.98%和98.44%,权重空间为90.6 MB。与原始VGG16模型相比,训练集准确率和测试集准确率分别提高3.08和2.05个百分点,权重空间下降165.4 MB,模型性能显著提升。Enhanced VGG16网络模型与经典卷积神经网络相对比,模型综合性能更优。该研究为通过油茶叶进行品种分类识别提供了依据,同时可为其他农作物品种识别提供参考。  相似文献   

10.
温室蝴蝶兰干物质分配及产品上市期模拟研究   总被引:2,自引:0,他引:2  
为对温室蝴蝶兰生育过程的基本规律和量化关系有一个清楚的理解和认识,并对其生长系统的动态行为进行预测,从而辅助进行对蝴蝶兰生长和生产系统的适时合理调控,本研究根据温室蝴蝶兰器官生长与温度和辐射的关系,建立了基于分配指数的温室蝴蝶兰干物质分配及产品上市期的模拟模型,并利用试验资料对模型进行了检验。模拟系统是采用C Builder6.0为编程语言,在Pentium(R)4 CPU、512 MB内存计算机、中文Windows XP操作平台上开发的可执行模型系统。研究结果表明,模型对地上部分干重、根干重、茎干重、叶干重、花梗和花干重的模拟结果与实测值均符合较好,模拟结果与实测值之间的拟合度值分别为0.99、0.99、0.94、0.98、0.97和0.99(均为0.01水平显著相关),预测相对误差分别为1.19%、1.79%、5.66%、1.22%、2.90%和1.53%。与已有的温室作物生长模型相比,本研究建立的模型预测精度较高、功能全面,且模型参数易获取,具有较强实用性。模型能够预测温室蝴蝶兰干物质分配及产品上市期,从而为温室蝴蝶兰生产管理和环境调控的优化提供决策支持。  相似文献   

11.
基于改进卷积神经网络模型的玉米叶部病害识别(英文稿)   总被引:3,自引:2,他引:1  
准确识别玉米病害有助于对病害进行及时有效的防治。针对传统方法对于玉米叶片病害识别精度低和模型泛化能力弱等问题,该研究提出了一种基于改进卷积神经网络模型的玉米叶片病害识别方法。改进后的模型由大小为3×3的卷积层堆栈和Inception模块与ResNet 模块组成的特征融合网络两部分组成,其中3×3卷积层的堆栈用于增加特征映射的区域大小,Inception模块和ResNet 模块的结合用于提取出玉米叶片病害的可区分特征。同时模型通过对批处理大小、学习率和 dropout参数进行优化选择,确定了试验的最佳参数值。试验结果表明,与经典机器学习模型如最近邻节点算法(K- Nearest Neighbor,KNN)、支持向量机(Support Vector Machine,SVM)和反向传播神经网络(Back Propagation Neural Networks,BPNN)以及深度学习模型如AlexNet、VGG16、ResNet 和Inception-v3相比,经典机器学习模型的识别率最高为77%,该研究中改进后的卷积神经网络模型的识别率为98.73%,进一步提高了模型的稳定性,为玉米病害检测与识别的进一步研究提供了参考。  相似文献   

12.
为了解决现阶段水稻发育期信息的获取主要依靠人工观测的效率低、主观性强等问题,该研究提出一种基于Rectified Adam(RAdam)优化器的ResNet50卷积神经网络图像识别方法,开展水稻关键生育期的自动识别。连续2a对12块试验田的水稻物候特征进行持续自动拍摄,对采集的水稻图像进行预处理,得到水稻各发育期分类图像数据集;采用ExG因子和大津法(Otsu)算法相结合的方法对水稻图像分割,减小稻田背景干扰;对比分析了VGG16、VGG19、ResNet50和Inception v3四种模型下水稻生育期图像分级识别的性能,选取性能较优网络模型并进行了网络参数调优;对比试验了不同优化器下模型准确率和损失值的变化,选取了RAdam优化器。结果表明,采取基于RAdam优化器卷积神经网络构建的模型,在真实场景下分类识别准确率达到97.33%,网络稳定性高、收敛速度快,为水稻生育期自动化观测提供了有效方法。  相似文献   

13.
基于分水岭和梯度的蝴蝶兰图像分割方法   总被引:5,自引:5,他引:0  
利用图像识别技术采集设施蝴蝶兰生长参数,从而对花期进行调控,是提高蝴蝶兰种植效益的重要手段,而如何把蝴蝶兰图像与自然背景图像进行分割与提取,是图像识别的关键。该文利用彩色梯度算法,提取出蝴蝶兰自然图像的梯度图像,利用阈值找出梯度图像的显著部分(即图像中的显著边缘),同时利用水域分割方法对源图像进行分割,产生过分割图像,然后利用显著边缘图像对过分割图像进行判断,去除不显著的"水坝"并令其两边水域相融合,从而达到极大的抑制过分割的目的,最后再根据区域合并准则合并相似的区域,得到蝴蝶兰目标物图像。针对20幅蝴蝶兰图像,通过与人工分割的方法进行对比试验,结果表明,该文提出的基于梯度和分水岭的分割算法能够很好地从自然背景中提取出蝴蝶兰图像,分割正确率达到了92.6%。  相似文献   

14.
基于特征融合的棉花幼苗计数算法   总被引:3,自引:3,他引:0       下载免费PDF全文
为了获取棉花幼苗数量,掌握播种成活率和出苗率等关键苗情信息,该研究提出一种基于特征融合的棉花幼苗计数算法。首先,该算法采用VGG-16作为基础模块提取图像特征,使用注意力模块(Convolutional Block Attention Module,CBAM)在通道和空间维度上进行特征增强,然后将增强后的特征与基础模块中的特征进行融合,进一步强化幼苗特征表达,最后通过去冗余和归一化操作得到计数结果。此外,还构建了一个包含399张棉花幼苗图像的数据集,其中包含了对212 572株幼苗的精准手工标注点标签。在该数据集上的测试结果表明,所提出的棉花幼苗计数算法取得了较好的计数效果,平均计数误差(Mean Absolute Error,MAE)和均方根误差(Root Mean Square Error,RMSE)分别为63.46和81.33,对比多列卷积神经网络(Multi-column Convolutional Neural Network, MCNN)、拥挤场景识别网络(Congested Scene Recognition Network, CSRNet)、TasselNet、MobileCount等方法,MAE平均下降了48.8%,RMSE平均下降了45.3%。  相似文献   

15.
为实现肉鸡屠宰过程中断翅鸡胴体的快速检测,提高生产效率,该研究利用机器视觉系统采集了肉鸡屠宰线上的1 053张肉鸡胴体图,构建了一种快速识别断翅缺陷的方法。通过机器视觉装置采集鸡胴体正视图,经图像预处理后分别提取鸡胴体左右两端到质心的距离及其差值(d1、d2、dc)、两翅最低点高度及其差值(h1、h2、hc)、两翅面积及其比值(S1、S2、Sr)、矩形度(R)和宽长比(rate)共11个特征值,并通过主成分分析降维至8个主成分。建立线性判别模型、二次判别模型、随机森林、支持向量机、BP神经网络和VGG16模型,比较模型的F1分数和总准确率,在所有模型组合中,以VGG16模型的F1分数和总准确率最高,分别为94.35%和93.28%,平均预测速度为10.34张/s。利用VGG16建立的模型有较好的分类效果,可为鸡胴体断翅的快速识别与分类提供技术参考。  相似文献   

16.
针对目前基于计算机视觉估算冬小麦苗期长势参数存在易受噪声干扰且对人工特征依赖性较强的问题,该文综合运用图像处理和深度学习技术,提出一种基于卷积神经网络(convolutional neural network, CNN)的冬小麦苗期长势参数估算方法。以冬小麦苗期冠层可见光图像作为输入,构建了适用于冬小麦苗期长势参数估算卷积神经网络模型,通过学习的方式建立冬小麦冠层可见光图像与长势参数的关系,实现了农田尺度冬小麦苗期冠层叶面积指数(leaf area index,LAI)和地上生物量(above ground biomass, AGB)的准确估算。为验证方法的有效性,该研究采用以冠层覆盖率(canopy cover, CC)作为自变量的线性回归模型和以图像特征为输入的随机森林(random forest, RF)、支持向量机回归(support vectormachinesregression,SVM)进行对比分析,采用决定系数(coefficientofdetermination,R2)和归一化均方根误差(normalized root mean square error, NRMSE)定量评价估算方法的准确率。结果表明:该方法估算准确率均优于对比方法,其中AGB估算结果的R2为0.7917,NRMSE为24.37%,LAI估算结果的R2为0.8256,NRMSE为23.33%。研究可为冬小麦苗期长势监测与田间精细管理提供参考。  相似文献   

17.
采用组合增强的YOLOX-ViT协同识别温室内番茄花果   总被引:1,自引:1,他引:0  
番茄花果的协同识别是温室生产管理调控的重要决策依据,针对温室番茄栽培密度大,植株遮挡、重叠等因素导致的现有识别算法精度不足问题,该研究提出一种基于级联深度学习的番茄花果协同识别方法,引入图像组合增强与前端ViT分类网络,以提高模型对于小目标与密集图像检测性能。同时,通过先分类识别、再进行目标检测的级联网络,解决了传统检测模型因为图像压缩而导致的小目标模糊、有效信息丢失问题。最后,引入了包括大果和串果在内的不同类型番茄品种数据集,验证了该方法的可行性与有效性。经测试,研究提出的目标检测模型的平均识别率均值(mean average precision,m AP)为92.30%,检测速度为28.46帧/s,其中对小花、成熟番茄和未成熟番茄识别平均准确率分别为87.92%、92.35%和96.62%。通过消融试验表明,与YOLOX、组合增强YOLOX相比,改进后的模型m AP提高了2.38~6.11个百分点,相比于现有YOLOV3、YOLOV4、YOLOV5主流检测模型,m AP提高了16.56~23.30个百分点。可视化结果表明,改进模型实现了对小目标的零漏检和对密集对象的无误检,从而达到...  相似文献   

18.
图像语义分割作为计算机视觉领域的重要技术,已经被广泛用于设施环境下的植物表型检测、机器人采摘、设施场景解析等领域。由于温室环境下未成熟番茄果实与其茎叶之间具有相似颜色,会导致图像分割精度不高等问题。本研究提出一种基于混合Transformer编码器的“RGB+深度”(RGBD)双模态语义分割模型DFST(depth-fusion semantic transformer),试验在真实温室光照情况下获得深度图像,对深度图像做HHA编码并结合彩色图像输入模型进行训练,经过HHA编码的深度图像可以作为一种辅助模态与RGB图像进行融合并进行特征提取,利用轻量化的多层感知机解码器对特征图进行解码,最终实现图像分割。试验结果表明,DFST模型在测试集的平均交并比可达96.99%,对比不引入深度图像的模型,其平均交并比提高了1.37个百分点;对比使用卷积神经网络作为特征提取主干网络的RGBD语义分割模型,其平均交并比提高了2.43个百分点。结果证明,深度信息有助于提高彩色图像的语义分割精度,可以明显提高复杂场景语义分割的准确性和鲁棒性,同时也证明了Transformer结构作为特征提取网络在图像语义分割中也表现出了良好的性能,可为温室环境下的番茄图像语义分割任务提供解决方案和技术支持。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号