首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
【目的】提出了一种改进的YOLOv4模型,为自然环境下3种常见茶叶病害(茶白星病、茶云纹叶枯病和茶轮斑病)的快速精准识别提供支持。【方法】使用MobileNetv2和深度可分离卷积来降低YOLOv4模型的参数量,并引入卷积注意力模块对YOLOv4模型进行识别精度改进。采用平均精度、平均精度均值、图像检测速度和模型大小作为模型性能评价指标,在相同的茶叶病害数据集和试验平台中,对改进YOLOv4模型与原始YOLOv4模型、其他目标检测模型(YOLOv3、SSD和Faster R CNN)的病害识别效果进行对比试验。【结果】与原始YOLOv4模型相比,改进YOLOv4模型的大小减少了83.2%,对茶白星病、茶云纹叶枯病和茶轮斑病识别的平均精度分别提高了6.2%,1.7%和1.6%,平均精度均值达到93.85%,图像检测速度为26.6帧/s。与YOLOv3、SSD和Faster R-CNN模型相比,改进YOLOv4模型的平均精度均值分别提高了6.0%,13.7%和3.4%,图像检测速度分别提高了5.5,7.3和11.7帧/s。【结论】对YOLOv4模型所使用的改进方法具备有效性,所提出的改进YOLOv4模型可以实现对自然环境下3种常见茶叶病害的快速精准识别。  相似文献   

2.
【目的】玉米雄穗在玉米生产及品种鉴别等方面具有重要的作用,其性状在一定程度上也和产量相关,自动监测玉米抽雄期能有效观察玉米生长状况,现阶段的玉米雄穗检测方法无法很好地完成实时检测任务,从而提出一种兼顾检测精度与检测速度的新检测模型。【方法】使用无人机在中国西南地区的玉米农田采集数据样本,对数据样本进行处理,共得到1 000张有效数据,使用LabelImg软件标注出样本中雄穗的位置和大小。为使试验模拟出复杂环境下的玉米雄穗在不同气候与光照呈现出不同的特征,随机采用镜像对称、仿射变换、高斯加噪、对比度变化的方式对数据样本增强至11 000张,以此制作数据集。选用检测精度高但参数量和计算量较大的YOLOv4作为检测的基准模型,为了减少模型参数量与计算量,更好地完成雄穗实时检测任务,新的检测模型使用轻量级神经网络GhostNet替换YOLOv4的主干特征提取网络,在加强特征提取网络中使用深度可分离卷积模块替代普通卷积模块,并将激活函数更换为稀疏性较强的ReLU6,从而有效地进行轻量化。【结果】轻量化后的新模型参数量为43.4 MB,计算量为3.55 GFLOPs,仅占原基准模型YOLOv4的1...  相似文献   

3.
目的 引入区域卷积神经网络Faster R-CNN算法并对其改进,以实现在田间真实环境下背景复杂且具有相似病斑特征的玉米病害的智能诊断。方法 在玉米田间和公开数据集网站获取具有复杂背景的9种常见病害图像1 150幅,人工标注后对原始图像进行离线数据增强扩充;对Faster R-CNN算法进行适应性改进,在卷积层加入批标准化处理层,引入中心代价函数构建混合代价函数,提高相似病斑的识别精度;采用随机梯度下降算法优化训练模型,分别选取4种预训练的卷积结构作为Faster R-CNN的特征提取网络进行训练,并测试得到最优特征提取网络,利用训练好的模型选取不同天气条件下的测试集进行对比,并将改进Faster R-CNN与未改进的Faster R-CNN和SSD算法进行对比试验。结果 在改进Faster R-CNN病害识别框架中,以VGG16卷积层结构作为特征提取网络具有更出色的性能,利用测试集图像检验模型,识别结果的平均精度为 0.971 8,平均召回率为0.971 9,F1为0.971 8,总体平均准确率可达97.23%;晴天的图像识别效果优于阴天的。改进Faster R-CNN算法与未改进的Faster R-CNN算法相比,平均精度高0.088 6,单张图像检测耗时减少0.139 s;与SSD算法相比,平均精度高0.0425,单张图像检测耗时减少0.018 s,表明在大田环境中具有复杂背景的玉米病害智能检测领域,改进Faster R-CNN算法综合性能优于未改进的Faster R-CNN算法和SSD算法。结论 将改进后的Faster R-CNN算法引入田间复杂条件下的玉米病害智能诊断是可行的,具有较高的准确率和较快的检测速度,能够避免传统人工识别的主观性,该方法为田间玉米病害的及时精准防控提供了依据。  相似文献   

4.
【目的】为解决传统天麻表面破损主要依靠人工检测的问题,提出将残差神经网络模型(Faster R-CNN ResNet101)检测方法应用到天麻表面破损识别中,以期取得较好的识别效果。【方法】以腐烂、霉变、机械损伤和完好等4类天麻为研究对象,在卷积神经网络和区域候选网络的基础上构建模型,然后在tensorflow框架上实现模型检测,最后对比分析结果。【结果】天麻表面破损检测模型利用Faster R-CNN ResNet101网络中的输入卷积层以及4个卷积组进行特征提取,区域候选网络生成天麻表面破损的初步位置候选框,实现候选框的分类和定位,其识别率达95.14%,且查准率为0.94,召回率为0.92。与SSD (Single Shot multibox Detector)、Faster_rcnn_inception和Rfcn_resnet101等3种神经网络识别方法对比,识别率分别提高了13.02%、10.69%和12.02%。【结论】该模型具有泛化能力强、准确率较高和鲁棒性较好等特点,为农产品的识别研究提供了参考和借鉴。  相似文献   

5.
目前田间玉米雄穗数量监测主要依靠人工进行,效率低且易出错.为了实现在复杂的田间环境下对玉米雄穗自动识别和计数的任务,使用无人机平台和田间作物表型高通量获取平台采集的田间玉米顶视图像构建数据集,使用Resnet 50作为新的特征提取网络代替原始的VGG 16来优化Faster R-CNN模型.再根据表型平台所获取的高时序、连续图像,进一步使用改进后的模型对试验小区内玉米抽穗期前后20 d的雄穗数量进行监测,以此为依据进行抽穗期判定.该方法在田间作物表型高通量平台获取的图像数据测试集中类平均精度为90.14%,平均绝对误差为4.7328;在无人机平台获取的图像数据测试集中类平均精度为82.14%,平均绝对误差为9.6948.试验结果表明:该模型在田间作物表型高通量获取平台上的检测结果优于无人机平台,且具备一定的应用价值.  相似文献   

6.
基于YOLOv3-CIoU的松材线虫病树检测方法研究   总被引:1,自引:0,他引:1  
松材线虫病被称为松树的癌症,及时发现并处置松材线虫病树是防止疫情扩散的重要手段。人工踏查、遥感影像等手段难以有效满足复杂林区疫情监测的需求。为快速、准确发现松材线虫病树,提高处置效率,本文提出了一种基于改进YOLOv3算法的松材线虫树检测方法。首先,使用小型无人机机载高分辨率数码相机在不同空间位置采集松材线虫病树图像并构建Pascal VOC数据集;随后针对YOLOv3算法存在训练过程IoU置空、平均损失下降缓慢等问题,提出了改进的YOLOv3-CIoU方法,使算法训练快,在小数据量时即实现高精度检测;最后通过高性能计算平台对改进的YOLOv3-CIoU模型进行训练测试,并与其他方法进行对比分析。结果表明:改进后的YOLOv3-CIoU模型在测试集上准确率达98.88%,较YOLOv3算法提升5%以上;在移动终端上平均单张图像检测速度为0.32 s,较改进前提升13%。与Faster R-CNN、SSD等方法相比,改进算法在模型检测准确率、缩短模型训练时间、目标边缘框定精度等方面也有较大提升。因此,改进后的YOLOv3-CIoU模型在多个评估指标中具有良好的性能,可有效提高松材线虫病树检测效率,对降低松材线虫病树监测投入,保障林区防疫监测精准高效具有重要的实际意义。  相似文献   

7.
为构建田间杂交大豆胚轴颜色检测模型,以大田场景下的大豆植株为研究对象,利用自走式大豆表型信息采集平台获取图像数据并构建杂交大豆胚轴颜色数据集,使用不同目标检测模型(SSD、Faster R-CNN、YOLOv3、YOLOv4、YOLOv5、YOLOX和YOLOv7)对杂交大豆胚轴颜色数据集进行检测,将模型分数(F1)、平均精度均值(mAP)及检测速度3个指标用于评估不同模型在杂交大豆胚轴颜色检测中的性能。在YOLOv7网络中添加CARAFE特征上采样算子、SE注意力机制模块和WIoU位置损失函数,建立杂交大豆胚轴颜色检测模型YOLOv7-CSW,并利用改进模型对杂交大豆胚轴颜色数据集进行消融试验。结果表明:1)YOLOv7模型的F1(0.92)与mAP(94.3%)均显著高于其他模型;2)YOLOv7模型的检测速度为58帧/s,低于YOLOv5和YOLOX,检测速度可以满足田间实时检测任务需求;3)YOLOv7-CSW模型比YOLOv7模型的F1和mAP分别升高0.04和2.6%;4)YOLOv7-CSW模型比YOLOv7模型检测速度升高了5帧/s,可以实现杂交大豆胚轴颜色实时检测。综...  相似文献   

8.
为提高复杂背景下立木图像的识别准确率,提出近似联合训练的Faster R-CNN对立木图像进行目标提取并分类。首先迁移ImageNet上的模型VGG16、ResNet101和MobileNetV2提取图像特征并微调网络,然后构建新的数据集包括7科10种立木图像共2 304张,通过该数据集训练和测试3种网络模型下的Faster R-CNN。结果表明,通过近似联合训练的Faster R-CNN得到的均值平均精度分别是93.64%、92.38%、92.58%,对于不同种属的立木,VGG16网络效果最佳。由于光照会对图像识别造成影响,将光照平衡前后的结果作对比,得到光照平衡后的立木图像识别结果优于平衡前。并利用训练的模型对斜向生长的立木图片进行检测,结果显示生长方向不影响图像识别准确率。证明该方法在具有复杂背景的立木图像上具有良好的效果,对更多立木的识别有一定的参考价值。  相似文献   

9.
小麦是重要的粮食作物之一,针对人工田间麦穗计数及产量预测效率低的问题,基于深度学习提出了一种高分辨率的小密集麦穗实时检测方法。对麦穗图像数据集进行图像分割、标注、增强预处理,基于Tensorflow搭建YOLOv4网络模型,调整改进后对其进行迁移学习;与YOLOv3、YOLOv4-tiny、Faster R-CNN训练模型进行对比,对改进模型的实用性与局限性进行分析;重点分析影响麦穗检测模型性能的关键因素。通过图像分割的方式,证明了通过改变图像分辨率确定麦穗所占图像最优像素比,可以提高前景与背景差异,对小密集麦穗有显著效果。通过对改进模型的测试,表明该模型检测精度高,鲁棒性强。不同分辨率、不同品种、不同时期的麦穗图像均类平均精度(mAP)为93.7%,单张图片的检测速度为52帧·s-1,满足了麦穗的高精度实时检测。该研究结果为田间麦穗计数以及产量预测提供技术支持。  相似文献   

10.
小样本目标检测旨在通过少量样本实现对图像中目标的识别和定位。目前针对柑橘缺陷的小样本数据集进行的检测较少,本文提出了使用数据增强和迁移学习来对小样本柑橘的缺陷类型进行检测的方法,采用旋转、裁剪和高斯模糊进行数据增强来扩充数据集,与使用迁移学习方法进行对比。实验表明:迁移学习方法中最优算法是FRCN ft-full,基于该算法的20-shot任务的mAP值为67.823%;在基于数据增强的方法中使用Faster R-CNN算法的mAP值达到了84.7%,使用YOLOv8算法的mAP是85.3%,YOLOv8算法略优于Faster R-CNN算法。迁移学习方法增强了检测模型的泛化能力,加快了模型的收敛速度;数据增强方法有效扩充了数据集,提升了小样本柑橘缺陷检测模型的准确性。  相似文献   

11.
【目的】研究基于改进Mask R-CNN的玉米苗冠层分割算法,满足精准作业中对靶施肥的识别要求,提高化肥的使用效率,减少环境污染。【方法】采集田间玉米苗图片并增强数据,生成田间数据集;使用ResNeXt50/101-FPN作为特征提取网络对分割算法进行训练,并与原始ResNet50/101-FPN的训练精度结果作对比;采用不同光照强度及有伴生杂草的玉米苗图片对比验证冠层识别算法效果。【结果】在不同光照强度下,无伴生杂草的目标平均识别精度高于95.5%,分割精度达98.1%;在有伴生杂草与玉米苗有交叉重合情况下,目标平均识别精度高于94.7%,分割精度达97.9%。检测一帧图像的平均时间为0.11 s。【结论】Mask R-CNN的玉米苗及株芯检测算法有更高的准确率和分割精度,更能适应不同光照强度及有伴生杂草的苗草交叉重合情况的目标检测。  相似文献   

12.
为了准确检测田间植株幼苗,以实现植株幼苗的精准喷药施肥,提出了一种基于改进Faster R-CNN的植株幼苗检测方法.以Faster R-CNN结构为基础设计植株幼苗检测网络,将ResNet50网络作为共享卷积层,并将Dropout层引入到Fast R-CNN网络的全连接层之间,用月季苗图像对网络进行训练生成模型.结果表明,改进的Faster R-CNN模型对月季苗的检测准确度可达96.5%,召回率达到95.35%,而且对其他种类植株幼苗如玫瑰和番茄幼苗也具有良好的检测能力.改进的网络模型的泛化能力强,收敛速度快,有助于自动化植保机械的研发.  相似文献   

13.
复杂环境下香蕉多目标特征快速识别研究   总被引:1,自引:0,他引:1       下载免费PDF全文
【目的】针对野外环境下断蕾机器人对多特征的变量目标快速识别难题,以及目标受到树叶、遮挡及光照影响精度的问题,提出多特征目标的快速识别方法。【方法】提出对香蕉果实、果轴和花蕾这3个目标进行多尺度特征提取及模型分类,融合聚类算法设计新的目标候选框参数,提出改进YOLOv3模型及网络结构参数的YOLO-Banana模型;为了平衡速度和准确度,用YOLO-Banana和Faster R-CNN分别对变化尺寸的香蕉多目标进行试验,研究算法对识别精度与速度的影响。【结果】YOLO-Banana和Faster R-CNN这2种算法识别香蕉、花蕾和果轴的总平均精度分别为91.03%和95.16%,平均每张图像识别所需时间分别为0.237和0.434 s。2种算法精度均高于90%,YOLO-Banana的速度相对快1.83倍,更符合实时作业的需求。【结论】野外蕉园环境下,采用YOLO-Banana模型进行香蕉多目标识别,可满足断蕾机器人视觉识别的速度及精度要求。  相似文献   

14.
【目的】为实现复杂背景下广佛手发病早期的病虫害快速精准识别,提出一种基于YOLOv5-C的广佛手病虫害识别方法。【方法】使用YOLOv5s网络模型作为基础网络,通过引入所提出的多尺度特征融合模块,提高网络模型的特征提取与特征融合能力,均衡提高每一类广佛手病虫害的识别准确率;使用注意力机制模块提高网络模型对病虫害目标特征信息的关注度,弱化复杂背景的干扰信息,提高网络模型的识别准确率;利用改进的C3-SC模块替换PANet结构中的C3模块,在不影响网络模型识别性能的条件下减少网络模型的参数。【结果】基于YOLOv5-C的复杂背景下的广佛手病虫害识别,F1分数为90.95%,平均精度均值为93.06%,网络模型大小为14.1 Mb,在GPU上每张图像平均检测时间为0.01 s。与基础网络YOLOv5s相比,平均精度均值提高了2.45个百分点,7个类别识别的平均准确率的标准差由7.14减少为3.13,变异系数由7.88%减少为3.36%。平均精度均值比Retina Net、SSD、Efficientdet和YOLOv4模型分别高22.30、20.65、4.84和2.36个百分点。【结论】该方法...  相似文献   

15.
【目的】针对果园多种苹果树皮病害实时检测的需求,设计基于 Android 的苹果树皮病害识别 APP 以便进行果园精准管理。【方法】通过网络查找和实地拍摄收集轮纹病、腐烂病、干腐病 3 种病害的图片 数据,经扩增和标注后按照 8 ∶ 2 比例进行训练集和测试集的划分。使用 YOLOv5s 算法训练苹果树皮病害识别 网络模型,对训练得到的轻量级网络模型进行 Android 端部署,并设计相应 APP 界面,实现对轮纹病、腐烂病、 干腐病的快速诊断。【结果】训练后得到的深度学习网络模型识别效果良好,准确率稳定在 88.7%,召回率稳 定在 85.8%,平均精度值稳定在 87.2%。其中腐烂病准确率为 93.5%,干腐病准确率为 88.2%,轮纹病准确率为 84.3%。将其在 Android 端部署后,每张病害图片处理时间均小于 1 s,检测置信度为 87.954%。该轻量级识别系 统不仅实现了 3 种病害的快速检测,也保证了较高的识别精度。【结论】YOLOv5s 网络权重模型小,能够轻松 实现 Android 端的部署,且基于 YOLOv5s 设计的 APP 操作简单、检测精度高、识别速度快,可以有效辅助果园 精准管理。  相似文献   

16.
【目的】利用深度学习技术开展基于无人机采集的水稻稻穗 RGB 图像进行稻穗快速计数技术研究,利于建立省工、省时、高效的产量评估预测,为后续收获、烘干、仓储工作以及品种试验评估等提供依据。【方法】在水稻齐穗 - 灌浆期,使用无人机采集水稻稻穗图片,通过对图片中稻穗的标注、分类以及训练,获得基于 YOLOv7 的网络结构模型,与田间实际调查结果进行对比和验证,针对该方法对不同亚种水稻稻穗的数穗计数精度作出评价。【结果】将得到的模型的预测结果与真实结果进行比较,对于相同的训练集,YOLOv7模型的重叠率(Intersecion of union,IoU)值的中位数普遍高于 YOLOv5 模型。仅使用粳稻数据训练得到的模型对粳稻有较好的识别精度,YOLOv7 模型的 mAP@0.5 为 80.75%、mAP@0.25 为 93.01%,优于 YOLOv5l 模型的 mAP@0.5 值 73.36%、mAP@0.25 值 91.16%;两种模型对籼稻识别精度不高。对籼稻识别最佳的模型为使用籼稻数据训练得到的模型,YOLOv7 模型的 mAP@0.5 为 73.19%、mAP@0.25 为 83.71%,优于 YOLOv5l 模型的mAP@0.5 值 72.77%、mAP@0.25 值 81.66%;但两种模型均对粳稻识别精度不高。对预测结果与实际调查结果进一步比较验证表明,仅使用粳稻数据训练得到的模型对粳稻有较好的识别精度,模型预测值与观察值显著相关。其中 YOLOv7 模型对粳稻预测精度最高,R2 为 0.9585、RMSE 为 9.17;其次为 YOLOv5 模型,R2 为 0.9522、RMSE为 11.91。对籼稻识别最佳的模型为使用籼稻数据训练得到的模型。其中 YOLOv7 模型对籼稻预测精度最高,R2 为 0.8595、RMSE 为 24.22。其次为 YOLOv5 模型,R2 为 0.7737、RMSE 为 32.56。【结论】本研究初步建立的基于无人机的田间水稻单位面积穗数快速调查方法,具有较高精度,可应用于实际田间测产工作,有利于克服人工田间估产工作量大、效率低、人为误差等问题,未来可进一步应用于可移动水稻估产装置的开发。  相似文献   

17.
[目的]基于Faster R-CNN模型对不同成熟度蓝莓果实进行精准识别分类,为浆果类果实的自动化采摘、产量预估等提供技术支撑.[方法]选取成熟果、半成熟果、未成熟果剪切图像各4000幅和8000幅背景图像作为训练集,1000幅原始图像用于验证集开展试验,改进Faster R-CNN算法,设计一种对背景干扰、果实遮挡等因素具有良好鲁棒性和准确率的蓝莓果实识别模型,模型通过卷积神经网络(CNN)、区域候选网络(RPN)、感兴趣区域池化(ROI Pool-ing)和分类网络来实现蓝莓图像背景消除及果实识别并与DPM算法进行对比.[结果]以WOA算法优化的训练参数作为参考,在蓝莓数据集上训练网络模型.在分析P-R曲线后计算F发现,Faster R-CNN算法在成熟果、半成熟果和未成熟果上的F值分别为95.48%、95.59%和94.70%,与DPM算法相比平均高10.00%.在对3类蓝莓果实的识别精度方面,Faster R-CNN同样有着优秀的识别效果.对成熟果、半成熟果和未成熟果的识别准确率分别为97.00%、95.00%和92.00%,平均识别准确率为94.67%,比DPM算法高20.00%左右.该网络模型在高精度的识别效果下,对于蓝莓果实的平均识别速度依然达0.25 s/幅,能满足实时在线识别的需求.[建议]获取多角度、复杂环境下的图像用来提高模型识别率;利用迁移学习建立蓝莓识别模型;数据集样本扩充并分类.  相似文献   

18.
【目的】针对目前三七Panax notoginseng病害识别模型结构复杂、参数庞大,难以实现在移动设备上部署的问题,提出一种基于SSD(Single shot multibox detector)目标检测的改进模型,以期实现三七病害检测的便捷化、快速化与精准化。【方法】基于SSD模型架构,采用轻量化卷积神经网络(MobileNet)替换原始特征提取网络(VGG16),降低主干网络的参数量与计算量,同时根据人类视觉皮层中群智感受野(pRF)的大小与其视网膜图中偏心率之间的函数关系,构建RFB模块,用该模块替换原SSD模型框架顶部卷积层,从而增强网络深层特征,提高轻量化模型的检测精度与检测速度,实现多尺度三七病害检测。【结果】与SSD模型相比,RFBMobileNet-SSD模型网络参数量和参数计算量分别降低了96.67%和96.10%。在不同天气条件下应用模型对4种不同病害数据进行验证发现,改进模型的准确率提高了4.6个百分点,召回率提高了6.1个百分点,F1精度提高了5.4个百分点,单幅图像检测时间由SSD模型的0.073 s缩短为0.020 s,尺寸仅为SSD模型的54.6%。【结...  相似文献   

19.
针对当前玉米病害发生量大、病情复杂、难以防治,严重影响玉米产量和质量的问题,提出了一种基于卷积神经网络和迁移学习的玉米叶片病害检测与识别方法。首先收集了3 827张玉米健康叶片图像和3种不同的玉米病害叶片图像样本,为了使模型拥有更好的泛化能力,使用生成对抗网络对样本进行处理,得到分辨率更高的样本,再对样本进行平移旋转,使样本数量达到5 153张。然后构建ResNet模型,分别对ResNet34、ResNet50及对其添加CBAM注意力机制和FPN特征金字塔网络,并通过迁移学习方法将预训练权重迁移到训练模型中。试验结果表明,ResNet50结合CBAM注意力机制模型的准确率达到了97.5%,相比ResNet50模型准确率提升了4.2百分点,相比ResNet34模型准确率提升了4.9百分点。本研究表明,提出的ResNet50结合CBAM注意力机制模型能够较精准地检测识别玉米枯萎叶、锈病叶、灰斑病叶和健康叶。并可将模型安装在无人机等移动设备上,实现对玉米叶片病害智能化防治,而且后期还会扩充更多的植物病害数据,实现对多类植物病害的检测,为智慧农业添砖加瓦,促进农业防治现代化。  相似文献   

20.
【目的】研究基于区域卷积神经网络(R-CNN)模型的广西柑橘病虫害识别方法,为提高柑橘重要病症分类和病理检测效率提供参考依据。【方法】设计专用R-CNN模型,采用多层神经网络,通过机器学习算法和神经网络对柑橘黄龙病、红蜘蛛感染和溃疡病等广西柑橘主要病症特征图像进行识别,分析其准确率和空间复杂度。【结果】R-CNN模型对广西柑橘黄龙病的平均识别准确率为95.30%,对红蜘蛛感染的平均识别准确率为90.30%,对溃疡病的平均识别准确率为99.10%,均优于传统机器学习方法中支持向量机算法(SVM)的平均识别准确率(分别为93.20%、88.20%和95.20%),分类效果也优于小型神经网络模型如视觉几何组网络(VGG-19)模型,平均识别准确率分别提高4.25%、4.62%和2.55%。R-CNN模型在较少神经元参数(33层卷积网络)情况下,空间复杂度比SVM和VGG-19模型低,能获得更佳的柑橘黄龙病、红蜘蛛感染和溃疡病识别效果。【结论】R-CNN模型识别是一种对柑橘黄龙病、红蜘蛛感染和溃疡病行之有效的鉴别方法,可在广西柑橘果园大量部署和应用。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号