首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 78 毫秒
1.
针对DeepLabV3+语义分割模型计算复杂度高、内存消耗大、难以在计算力有限的移动平台上部署等问题,提出一种改进的轻量化DeepLabV3+深度学习语义分割算法,用于实现无人机荞麦苗期图像的分割与识别。该算法采用RepVGG(Re-parameterization visual geometry group)与MobileViT(Mobile vision transformer)模块融合的方式建立主干网络实现特征提取;同时,在RepVGG网络结构中引入SENet(Squeeze-and-excitation networks)注意力机制,通过利用通道间的相关性,捕获更多的全局语义信息,保证荞麦分割的性能。实验结果表明,与FCN(Fully convolutional networks)、PSPNet(Pyramid scene parsing network)、DenseASPP(Dense atrous spatial pyramid pooling)、DeepLabV3、DeepLabV3+模型相比,本文提出的改进算法在较大程度上降低了模型参数规模,更适合在移动端部署,自建荞麦苗期分割数据集上的语义分割平均像素准确率(Mean pixel accuracy,mPA)和平均交并比(Mean intersection over union,mIoU)分别为97.02%和91.45%,总体参数量、浮点运算次数(Floating-point operations,FLOPs)和推理速度分别为9.01×106、8.215×1010、37.83f/s,综合表现最优。在全尺寸图像分割中,训练模型对不同飞行高度的荞麦苗期分割的mPA和mIoU均能满足要求,也具有较好的分割能力和推理速度,该算法可为后期荞麦补种、施肥养护和长势监测等提供重要技术支持,进而促进小杂粮产业智能化发展。  相似文献   

2.
针对传统大豆联合收获机破碎率在线检测方法以人工检测耗时耗力且受人为主观因素影响的问题,提出基于DeepLabV3+网络的机收大豆破碎率在线检测方法。利用大豆图像在线采集装置获取联合收获机实时收获的大豆图像,使用标注软件对图像进行标注,构建数据集。为进一步提高网络训练速度,在DeepLabV3+网络中主干特征提取网络选用轻量级卷积网络MobileNetV2替代网络Xception;在预测部分,采用加黑边裁剪拼接的方式,提高图像分割精度。试验结果表明:基于DeepLabV3+网络模型对测试集大豆样本图像中破碎籽粒识别的综合评价指标F1值为89.49%,完整籽粒识别的综合评价指标F1值为93.93%;建立破碎率量化模型,进行台架试验,采用本文提出大豆破碎率在线检测方法检测结果平均值与人工检测结果平均值相对误差0.36%;为大豆联合收获机作业质量在线检测提供参考。  相似文献   

3.
邓向武  马旭  齐龙  孙国玺  梁松 《农机化研究》2021,43(8):27-30,35
稻田杂草主要在水稻秧苗封行前与其竞争水肥光等资源,也为病虫害提供滋生条件.由于目前主要防控方式为除草剂无选择性地喷施,造成大量的农药浪费和环境污染.由于除草剂针对杂草的靶向喷施可大量减少农药使用量,笔者提出了一种基于深度卷积特征的稻田苗期杂草识别方法,采用支持向量机(Support Vector Machine,SVM...  相似文献   

4.
玉米是我国重要的粮食和经济作物,但由于玉米易受杂草侵害,而人力除草费用很高,所以有必要开发出一种用于杂草分割检测的模型指导机器人除草。课题组提出了一种新型的基于神经网络的深度卷积模型,以实现在自然光照拍摄条件下对杂草和玉米苗的语义分割检测。课题组使用私有玉米-杂草数据集,使用数据增强和数据归一化等方法进行预处理,建立神经网络模型,在RTX3050上训练100个Epoch后得到收敛的模型,并使用mIOU等多个指标对模型进行评价。仿真结果表明,该深度神经网络模型能够有效地实现对玉米、杂草的分割检测,各种指标均满足预期,为农业方面的杂草检测工作提供了有效参考。  相似文献   

5.
淡水鱼头、腹、鳍的各部分快速识别与精准定位是机器人实现淡水鱼快速抓取,精确切割、提升作业效率关键技术的前提.针对深度学习的淡水鱼体语义分割算法在编码特征提取阶段产生大量无效的特征通道,以及网络不断下采样和池化操作使得鱼体某些细节信息被丢失,网络性能下降、边缘分割效果不佳的问题,提出了一种基于SENet优化后的Deepl...  相似文献   

6.
果园环境实时检测是保证果园喷雾机器人精准作业的重要前提。本文提出了一种基于改进DeepLab V3+语义分割模型的果园场景多类别分割方法。为了在果园喷雾机器人上部署,使用轻量化MobileNet V2网络替代原有的Xception网络以减少网络参数,并在空洞空间金字塔池化(Atrous spatial pyramid pooling,ASPP)模块中运用ReLU6激活函数减少部署在移动设备的精度损失,此外结合混合扩张卷积(Hybrid dilated convolution,HDC),以混合扩张卷积替代原有网络中的空洞卷积,将ASPP中的扩张率设为互质以减少空洞卷积的网格效应。使用视觉传感器采集果园场景RGB图像,选取果树、人、天空等8类常见的目标制作了数据集,并在该数据集上基于Pytorch对改进前后的DeepLab V3+进行训练、验证和测试。结果表明,改进后DeepLab V3+模型的平均像素精度、平均交并比分别达到62.81%和56.64%,比改进前分别提升5.52、8.75个百分点。模型参数量较改进前压缩88.67%,单幅图像分割时间为0.08s,与原模型相比减少0.09s。尤其是对树的分割精度达到95.61%,比改进前提高1.31个百分点。该方法可为喷雾机器人精准施药和安全作业提供有效决策,具有实用性。  相似文献   

7.
基于卷积神经网络与迁移学习的稻田苗期杂草识别   总被引:1,自引:0,他引:1  
邓向武  马旭  齐龙  孙国玺  梁松  金晶 《农机化研究》2021,43(10):167-171
杂草类别信息获取是实现杂草智能化田间管理的基础,为实现自然光照和大田复杂背景下的稻田苗期杂草自动识别,提出了一种基于卷积神经网络(Convolutional Neural Network,CNN)与迁移学习相结合的稻田苗期杂草识别方法,可将预训练CNN图像分类模型的参数迁移到稻田苗期杂草识别任务.工作时,采集6种稻田苗...  相似文献   

8.
番茄图像中多类别目标的准确识别是实现自动化采摘的技术前提,针对现有网络分割精度低、模型参数多的问题,提出一种基于改进DeepLabv3+的番茄图像多类别分割方法。该方法使用幻象网络(GhostNet)和坐标注意力模块(Coordinate attention, CA)构建CA-GhostNet作为DeepLabv3+的主干特征提取网络,减少网络的参数量并提高模型的分割精度,并设计了一种多分支解码结构,用于提高模型对小目标类别的分割能力。在此基础上,基于单、双目小样本数据集使用合成数据集的权值参数进行迁移训练,对果实、主干、侧枝、吊线等8个语义类别进行分割。结果表明,改进的DeepLabv3+模型在单目数据集上的平均交并比(MIoU)和平均像素准确率(MPA)分别为68.64%、78.59%,在双目数据集上的MIoU和MPA分别达到73.00%、80.59%。此外,所提模型内存占用量仅为18.5 MB,单幅图像推理时间为55 ms,与基线模型相比,在单、双目数据集上的MIoU分别提升6.40、6.98个百分点,与HRNet、UNet、PSPNet相比,内存占用量压缩82%、79%、88%...  相似文献   

9.
针对实际稻田环境中水稻与杂草相互遮挡、难以准确区分的问题,提出一种基于改进DeepLabv3+的水稻杂草识别方法。以无人机航拍的复杂背景下稻田杂草图像为研究对象,在DeepLabv3+模型的基础上,选择轻量级网络MobileNetv2作为主干特征提取网络,以减少模型参数量和降低计算复杂度;融合通道和空间双域注意力机制模块,加强模型对重要特征的关注;提出一种基于密集采样的多分支感受野级联融合结构对空洞空间金字塔池化模块(ASPP)进行改进,扩大对全局和局部元素特征的采样范围;对模型解码器部分进行改进。设置消融试验验证改进方法的有效性,并与改进前DeepLabv3+、UNet、PSPNet、HrNet模型进行对比试验。试验结果表明,改进后模型对水稻田间杂草的识别效果最佳,其平均交并比(MIoU)、平均像素准确率(mPA)、F1值分别为90.72%、95.67%、94.29%,较改进前模型分别提高3.22、1.25、2.65个百分点;改进后模型内存占用量为11.15 MB,约为原模型的1/19,网络推算速度为103.91 f/s。结果表明改进后模型能够实现复杂背景下水稻与杂草分割,研究结果可...  相似文献   

10.
基于机器视觉的苗期杂草实时分割算法   总被引:17,自引:9,他引:17  
对利用植物的位置来识别作物苗期田间杂草的方法进行了研究。根据苗期田间植物的位置特征 ,建立了基于机器视觉的分割苗期田间杂草的算法 DBW。通过比较分析各种算法的分割效果图和所耗费的时间 ,运用超绿色法灰度化原始图像 ,然后应用最大方差自动取阈法二值化图像 ,最后运用种子填充算法分割作物和杂草。研究表明 ,算法 DBW在实时性方面表现出一定的优越性 ,处理一幅 5 4 4× 117像素的图像只需大约 6 0 ms  相似文献   

11.
基于深度学习的无人机水田图像语义分割方法   总被引:1,自引:0,他引:1  
为高效获取水田信息提高精准农业应用水平,提出一种基于深度学习的无人机水田图像语义分割方法。首先,采集无人机水田图像并制作一套高分辨率水田数据集,使用双边滤波去除图像噪声;然后,通过调整编码器获取更为细致的田块边界特征信息;最后,改进解码器融合更多浅层特征并采用深度可分离卷积解耦图像深度信息与空间信息,获得改进网络结构的DeepLabv3+模型。试验结果显示,改进模型的像素精度和平均交并比分别为96.04%和85.90%,与原始模型相比提升2.09%和4.66%;与典型的UNet、SegNet和PSPNet语义分割模型相比,各项指标均有不同程度的提高。本文方法能够实现准确、高效的水田分割,为进一步获取水田边界定位信息和构建高精度农田地图提供重要基础。  相似文献   

12.
为应用高分辨率遥感影像和卷积神经网络模型快速提取柑橘园空间信息,选择四川省柑橘重点产区蒲江县为研究区,以高分辨率Google earth图像为数据源,构建3类不同树龄的柑橘园样本数据集,训练U-net和DeepLabv3+语义分割模型,提取柑橘园空间信息。通过验证,具有不同神经网络结构的U-net和DeepLabv3+模型提取柑橘园信息总体精度分别为88.30%和86.79%,Kappa系数为0.75和0.72,二者精度相当;通过分析小地块的果园遥感识别精度,测试区最小识别图斑面积约为120 m2,大于该面积的果园遥感面积平均精度在85%以上。该研究可为经营者、农业部门使用高分辨率遥感影像和开源的深度学习分类工具快速获取果园空间信息提供参考。  相似文献   

13.
为提高苹果种植区域的提取精度,提出了一种基于Sentinel-2和MODIS融合影像的CBAM-DeepLab V3+模型。影响苹果种植区域提取精度的主要因素包括遥感影像的质量以及语义分割模型的性能。从影像质量角度来看,采用基于时序的时空融合算法ESTARFM,通过融合Sentinel-2和MODIS的遥感影像数据,实现更高空间分辨率和时间分辨率数据的获取。与此同时,将训练样本从原始的800幅扩充至2 400幅,为后续语义分割模型提供更为充足的样本容量。在语义分割模型优化方面,为了进一步提高苹果种植面积的提取精度,以DeepLab V3+网络结构模型为基础,引入基于通道和空间的CBAM注意力机制,进而发展出CBAM-DeepLab V3+模型。与原始DeepLab V3+模型相比,加入CBAM注意力机制的CBAM-DeepLab V3+模型在拟合速度较慢、边缘目标分割不精确、大尺度目标分割内部不一致和存在孔洞等缺陷方面实现了突破,这些改进提高了模型的训练与预测性能。本研究采用原始Sentinel-2影像及时空融合后的影像数据集,结合烟台市牟平区王格庄镇的数据集和观水镇苹果数据集对U-N...  相似文献   

14.
基于改进YOLOv3网络模型的茶草位置检测算法   总被引:1,自引:0,他引:1  
精准高效的茶草识别是智能茶园植保机械进行除草工作的关键。针对目前茶园除草智能化程度较低等问题,提出改进YOLOv3网络模型的茶草检测算法。首先,分季节和时间段,在多个茶叶品种的种植园中以自适应的距离和角度采集茶草混合图像并建立试验数据集。接着,使用K均值聚类算法重新设计先验锚框尺度。然后,以YOLOv3网络模型为基础,选取17×17的网格划分图像区域;采用残差网络(ResNet)作为主干网;加入过程提取层,增强草株检测性能。最后在原损失函数中引入广义交并比损失。通过消融试验和不同目标检测算法对比试验验证此改进算法对茶树与杂草的检测效果。试验结果表明,改进 YOLOv3网络模型对杂草的检测精确率和召回率分别为85.34%和91.38%,对茶树的检测精确率和召回率最高达到82.56%和90.12%;与原YOLOv3网络模型相比,检测精确率提高8.05%,并且每秒传输帧数达到52.83 Hz,是Faster R-CNN网络模型的16倍。这些数据说明所提算法在茶园复杂环境下,不仅对于茶树和杂草具有更好的识别效果,而且满足实时检测的要求,可以为智能茶园植保机械提供技术支持。  相似文献   

15.
基于深度学习的无人机遥感生态灌区杂草分类   总被引:1,自引:0,他引:1  
为了更好地推进生态灌区建设,对灌区内杂草进行检测、控制,提出一种基于卷积神经网络的杂草分类和密度测算方法.通过无人机低空拍摄采集3种杂草(藜草、葎草、苍耳)和3种作物(小麦、花生、玉米)作为数据集,经过裁剪、灰度化等前期处理,并通过旋转方式扩充数据集,最后收集17 115张训练样本和750张测试样本,然后将训练集输送给卷积神经网络,采用softmax回归,实现6类植物的分类.为降低网络参数,文中试验了100×100和300×300不同分辨率图像对识别精度的影响,分类结果表明300×300分辨率时识别率最高可达到95.6%.另外为实现针对特定杂草的防控,提出了一种检测单一杂草密度的方法,可实现对灌区内各种杂草的精确监控,为后期杂草防控的精准施药提供依据,对实现高效、绿色、安全的现代农业具有重要理论意义和实用价值.  相似文献   

16.
赤霉病是影响小麦产量和品质的主要病害之一。为快速、有效地监测小麦赤霉病的发生情况,利用数码相机对人工接种赤霉病菌的小麦田进行RGB图像获取,在图像预处理基础上,对Deeplabv3+网络模型进行调参和训练。以轻量化网络MobileNet V2为网络编码模块,利用空洞卷积技术建立基于深度学习网络的小麦赤霉病发病麦穗的识别与检测模型,并用实测数据对模型进行验证和评价。结果表明,该模型的平均精度为0.969 2,损失函数Loss为0.103 0,平均交并比MIoU为0.793,模型识别与检测效果较好。上述结果为小麦赤霉病的检测与识别提供新的手段。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号