首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 671 毫秒
1.
基于改进Bayes抠图算法的麦穗小穗自动计数方法   总被引:1,自引:1,他引:0  
小麦产量评估需人工获取田间单位面积的麦穗数和麦穗小穗数,往往耗时耗力。为了实现高效、自动地麦穗小穗计数,提出一种基于改进Bayes抠图算法的麦穗小穗自动计数方法。该方法首先利用改进Bayes抠图算法对获取地自然生长条件下的麦穗图像进行抠图,将麦穗从自然背景中分割出来。然后对该图像进行平滑滤波和二值化,运用迭代极限腐蚀运算对二值化图像进行腐蚀处理,去除麦穗图像中的麦芒,分离出麦穗上每个单独的麦穗小穗。再运用面积滤波滤除掉面积过小的区域,对剩余区域的黑洞进行填充,由此每个单独的麦穗小穗形成一个单独的连通区域,最后对连通区域进行标记和计数,完成麦穗小穗的自动计数。使用4个小麦品种的麦穗图像对麦穗上的小穗进行计数验证,结果表明,该方法在识别4个品种田间麦穗单幅图像中小穗数量的平均计数精度达到94.53%,平均相对误差为5.47%,对比已有麦穗小穗自动计数方法,计数精度显著提高,这对于小麦在线产量预估具有重要意义。  相似文献   

2.
基于YOLOv3网络的小麦麦穗检测及计数   总被引:2,自引:0,他引:2  
小麦(Triticum aestivum L.)麦穗检测及计数对小麦产量估计及育种至关重要,但传统小麦麦穗数量统计都是基于人工统计的方法或遥感预测等方法,效率低且准确率差。为解决上述问题,提出了基于YOLOv3的深度神经网络小麦检测方法。结果表明,YOLOv3在3种常见的小麦品种上检测平均精度mAP值为67.81%,麦穗计数准确率为93%,该方法可快速高效地检测特定标注框中的小麦麦穗。  相似文献   

3.
麦穗检测与计数关乎小麦的产量预估与育种,估算小麦产量的重要指标之一就是单位面积穗数,如何准确检测单位面积穗数对于农业生产管理决策有着重要的指导作用。因此本研究提出了基于改进的YOLOX-s的田间麦穗检测方法对麦穗进行精准识别与计数。首先,选取多个国家的不同品种小麦图像,使用图像增强、数据清洗等方法建立全球小麦图像数据集。其次,在YOLOX-s的基础上根据麦穗图像的特点,重新设计了特征提取网络的深度,同时加入注意力机制,充分提取麦穗特征。将SPP模块替换为SPPF模块,在提升推理速度的同时,不降低模型性能。通过全球小麦图像数据集进行模型训练,并使用实地拍摄的麦田图像对模型进行测试。试验结果表明:通过全球小麦图像数据集的训练,改进的YOLOX-s网络模型的mAP达到了89.03%,精确度达到了91.21%。在实拍的麦田图像中,计数准确率达到了97.93%,平均单幅图像计数为0.194 s,单株小麦识别速度为2.8 ms,检测速度较YOLOX-s提升30.2%,计数速度优异,麦穗定位准确。  相似文献   

4.
田间麦穗计数因主要依靠人工而存在耗时长、成本高等问题,为提高麦穗计数的效率和准确性,提出基于人群计数卷积神经网络的麦穗计数方法,在图像基础上进行麦穗数量自动化计数.试验改进了现有人群计数模型中的多列卷积神经网络MCNN和空洞卷积神经网络CSRNet,并对MCNN和CSRNet进行融合,建立了多列卷积神经网络MCSRNet.测试结果表明:MCSRNet网络对麦穗的预测准确率可以达到92.4%,较MC-NN和CSRNet分别提高1.0%和4.0%,且训练迭代次数分别减少39次和5次.另基于独立数据集进行了测试,MCSRNet网络平均准确率为81.9%,较MCNN和CSRNet分别提高了0.4%和0.7%.MCSRNet的麦穗计数结果R2为0.80,优于MCNN和CSRNet.以上研究结果表明,MCSRNet网络有较高的麦穗计数准确率,同时有较快的训练速度,可为后续基于图像的小麦产量预测提供技术方法.  相似文献   

5.
为构建田间杂交大豆胚轴颜色检测模型,以大田场景下的大豆植株为研究对象,利用自走式大豆表型信息采集平台获取图像数据并构建杂交大豆胚轴颜色数据集,使用不同目标检测模型(SSD、Faster R-CNN、YOLOv3、YOLOv4、YOLOv5、YOLOX和YOLOv7)对杂交大豆胚轴颜色数据集进行检测,将模型分数(F1)、平均精度均值(mAP)及检测速度3个指标用于评估不同模型在杂交大豆胚轴颜色检测中的性能。在YOLOv7网络中添加CARAFE特征上采样算子、SE注意力机制模块和WIoU位置损失函数,建立杂交大豆胚轴颜色检测模型YOLOv7-CSW,并利用改进模型对杂交大豆胚轴颜色数据集进行消融试验。结果表明:1)YOLOv7模型的F1(0.92)与mAP(94.3%)均显著高于其他模型;2)YOLOv7模型的检测速度为58帧/s,低于YOLOv5和YOLOX,检测速度可以满足田间实时检测任务需求;3)YOLOv7-CSW模型比YOLOv7模型的F1和mAP分别升高0.04和2.6%;4)YOLOv7-CSW模型比YOLOv7模型检测速度升高了5帧/s,可以实现杂交大豆胚轴颜色实时检测。综...  相似文献   

6.
【目的】利用深度学习技术开展基于无人机采集的水稻稻穗 RGB 图像进行稻穗快速计数技术研究,利于建立省工、省时、高效的产量评估预测,为后续收获、烘干、仓储工作以及品种试验评估等提供依据。【方法】在水稻齐穗 - 灌浆期,使用无人机采集水稻稻穗图片,通过对图片中稻穗的标注、分类以及训练,获得基于 YOLOv7 的网络结构模型,与田间实际调查结果进行对比和验证,针对该方法对不同亚种水稻稻穗的数穗计数精度作出评价。【结果】将得到的模型的预测结果与真实结果进行比较,对于相同的训练集,YOLOv7模型的重叠率(Intersecion of union,IoU)值的中位数普遍高于 YOLOv5 模型。仅使用粳稻数据训练得到的模型对粳稻有较好的识别精度,YOLOv7 模型的 mAP@0.5 为 80.75%、mAP@0.25 为 93.01%,优于 YOLOv5l 模型的 mAP@0.5 值 73.36%、mAP@0.25 值 91.16%;两种模型对籼稻识别精度不高。对籼稻识别最佳的模型为使用籼稻数据训练得到的模型,YOLOv7 模型的 mAP@0.5 为 73.19%、mAP@0.25 为 83.71%,优于 YOLOv5l 模型的mAP@0.5 值 72.77%、mAP@0.25 值 81.66%;但两种模型均对粳稻识别精度不高。对预测结果与实际调查结果进一步比较验证表明,仅使用粳稻数据训练得到的模型对粳稻有较好的识别精度,模型预测值与观察值显著相关。其中 YOLOv7 模型对粳稻预测精度最高,R2 为 0.9585、RMSE 为 9.17;其次为 YOLOv5 模型,R2 为 0.9522、RMSE为 11.91。对籼稻识别最佳的模型为使用籼稻数据训练得到的模型。其中 YOLOv7 模型对籼稻预测精度最高,R2 为 0.8595、RMSE 为 24.22。其次为 YOLOv5 模型,R2 为 0.7737、RMSE 为 32.56。【结论】本研究初步建立的基于无人机的田间水稻单位面积穗数快速调查方法,具有较高精度,可应用于实际田间测产工作,有利于克服人工田间估产工作量大、效率低、人为误差等问题,未来可进一步应用于可移动水稻估产装置的开发。  相似文献   

7.
刘芳  刘玉坤  张白 《江苏农业学报》2021,37(5):1262-1269
为解决温室叶菜子叶期幼苗生长密集情况下的图像识别问题,提出一种密集连接型D-YOLOv3检测网络.该网络以YOLOv3为基础构建主干网络,改进检测结构和损失函数.以穴盘培育的油菜幼苗为例展开一系列试验.首先确定了YOLOv3和D-YOLOv3检测网络中损失函数的修正系数;其次通过构建的几种检测网络的对比试验验证了对YOLOv3主干网络、检测结构和损失函数改进的有效性,D-YOLOv3的幼苗检测精度高达93.44%,检测时间低至12.61 ms,与YOLOv3相比精度提升9.4个百分点,时间降低4.07 ms;最后进行不同密集程度和光照环境下幼苗图像的检测性能对比试验,结果表明D-YOLOv3的检测精度、检测时间及对小目标的特征提取能力均优于YOLOv3.D-YOLOv3能够对温室环境下的叶菜幼苗进行有效检测,可以为智能检测装备的作物识别提供依据.  相似文献   

8.
为了提高林业害虫检测的准确性,提出一种基于YOLOv4的改进算法。首先,基于智能害虫捕捉装置拍摄的图像,制作害虫数据集,采用K-means算法对样本数据集的目标框进行聚类分析,基于DIoU-NMS算法实现对害虫的计数功能;然后,在模型的路径聚合网络(PANet)结构上增加特征融合和104×104层级特征检测图,以提升对小个体害虫的识别率;最后,根据模型检测效率和复杂度,调整模型中的尺度特征图组合,在保证检测准确度的基础上,提升检测效率,并精简模型。试验结果表明,改进的YOLOv4模型的平均识别精度比传统YOLOv4模型提高了1.6百分点,且对于小个体害虫的识别效果更好,模型复杂度和模型参数量分别减少了11.9%、33.2%,检测速度提升了11.1%,更适于应用部署。  相似文献   

9.
针对花粉、孢子图像特征复杂,样本稀缺及种类繁多制约图像检测识别效果的问题,建立基于自适应阈值分割的pix2pix图像增广模型.首先基于卷积评价改进自适应阈值分割算法,择优选取语义分割图像;其次构建pix2pix图像增广模型,将语义分割图像和原始图像建立标签映射用于模型训练,根据语义分割图像生成仿真图像,扩充样本数据集.结果表明,以149种花粉、孢子图像为样本,通过图像增广模型生成的花粉、孢子图像整体相似度达到85.40%;图像增广前Faster RCNN、YOLOv3检测模型的检测精准率分别为86.18%、85.64%,使用增广后的样本训练模型,检测精准率分别达到92.16%、90.57%,提升5.98个百分点和4.93个百分点.  相似文献   

10.
基于改进Faster-RCNN模型的粘虫板图像昆虫识别与计数   总被引:2,自引:1,他引:1  
针对传统机器学习采用人工提取特征方法时,由于人为主观性而影响昆虫识别效果与计数准确性的问题,采用图像特征自动提取方法,将深度学习目标检测模型引入昆虫的识别与计数领域,对Faster-RCNN目标检测模型进行改进:针对昆虫体积小,图像分辨率较低的特点,用网络深度更深,运算量更小的深度残差网络(ResNet50)代替原来的VGG16,以提取更加丰富的特征;针对部分昆虫密集的特点,用Soft-NMS算法代替传统的非极大值抑制(NMS)算法,以减少密集区域的漏检。结果表明:改进后Faster-RCNN模型的检测准确率达到90.7%,较未改进的Faster-RCNN模型提高了4.2%,可以运用于昆虫的分类计数。利用深度学习目标检测模型进行昆虫识别与计数较传统的昆虫识别与计数方法更加方便,能够将昆虫的识别、定位和计数融为一体。  相似文献   

11.
单位面积穗数是小麦产量构成的重要因素,利用图像信息处理技术快速、准确地估测田间小麦穗数,可以为小麦长势监测和产量估测提供直接依据.利用无人机路径规划和控制系统(fragmentation monitoring and analysis with aerial photography,FragMAP)获取标准统一、高分辨...  相似文献   

12.
基于超像素分割的田间小麦穗数统计方法   总被引:1,自引:0,他引:1  
【目的】 小麦穗数是产量构成的重要因素。通过图像处理技术快速准确地统计小麦穗数,为作物长势监测和产量估测提供重要依据。【方法】 本研究以经氮肥梯度处理后不同长势的小麦为研究对象,首先,通过简单线性迭代聚类算法(simple linear iterative cluster,SLIC)对田间小麦图像进行超像素分割的预处理;提取并分析图像的部分颜色特征参数,选择适宜的颜色特征参数训练分类器;选择准确率最高的分类器对图像进行分类处理,识别麦穗。其次,对麦穗识别结果进行二值化;经腐蚀、膨胀等一系列形态学计算提取麦穗主体并进行区域统计;提取麦穗骨架,检测骨架角点数,结合角点数与区域统计结果计算小麦穗数;最后,通过线性回归分析方法验证了无氮(0)、低氮(1/2常规施氮量)、正常氮(常规施氮量)、高氮(2倍的常规施氮量)4个氮水平麦穗统计结果。【结果】 (1)利用超绿值(Eg)和归一化红绿指数(Dgr)作为分类特征可以有效地识别麦穗、土壤和叶片;(2)相较于直接基于像素进行图像处理,经超像素分割处理后麦穗识别结果更理想,识别出麦穗主体清晰,形态更为完整;(3)经比较,高氮水平下小麦长势较好,穗数统计准确率最高,为94.4%,无氮水平下小麦长势较差,穗数统计准确率最低,仅为81.9%;排除无氮情况后,长势较均匀的氮水平混合样本中麦穗计数准确率达到92.9%,相较于长势差异较大的混合样本准确率提高了8.3%。【结果】 在一般环境下,利用超像素和颜色特征的麦穗自动统计方法可以快速准确地对大田小麦进行穗数计算,长势过弱以及差异过大区域不推荐使用,研究结果为小麦大田估产提供了新的参考。  相似文献   

13.
基于卷积神经网络的小麦产量预估方法   总被引:1,自引:0,他引:1  
小麦产量是评估农业生产力的重要指标之一,针对小麦产量人工预估困难,提出将卷积神经网络运用于小麦产量预估,为农业生产力的预估提供参考,指导农业生产管理决策。利用无人机分别在河南省新乡、漯河两地进行图片采集,并以之构建麦穗数据集,分为正样本(麦穗)和负样本(叶子和背景)。针对小麦常规的生理形态和生长环境,设计卷积神经网络识别模型,以图像金字塔构建多尺度滑动窗口,以非极大值抑制(NMS)去除重叠率较高的目标框,实现对单位面积内麦穗的计数,并利用随机采样的方式对大田麦穗进行单位面积图像采样,以采样图像中麦穗数量的平均值作为产量预估基准,进一步实现麦穗产量预估。随机抽取100幅不同小麦图片进行测试,与人工计数结果进行对比,准确率达到97.30%,漏检率为0.34%,误检率为2.36%,误差率为2.70%。试验结果表明,此方法能够克服环境中的多种噪声干扰,能够在不同光照条件下对麦穗进行计数和产量预估。  相似文献   

14.
Grain number is crucial for analysis of yield components and assessment of effects of cultivation measures. The grain number per spike and thousand-grain weight can be measured by counting grains manually, but it is time-consuming, tedious and error-prone. Previous image processing algorithms cannot work well with different backgrounds and different sizes. This study used deep learning methods to resolve the limitations of traditional image processing algorithms. Wheat grain image datasets were collected in the scenarios of three varieties, six background and two image acquisition devices with different heights, angles and grain numbers, 1 748 images in total. All images were processed through color space conversion, image flipping and rotation. The grain was manually annotated, and the datasets were divided into training set, validation set and test set. We used the TensorFlow framework to construct the Faster Region-based Convolutional Neural Network Model. Using the transfer learning method, we optimized the wheat grain detection and enumeration model. The total loss of the model was less than 0.5 and the mean average precision was 0.91. Compared with previous grain counting algorithms, the grain counting error rate of this model was less than 3% and the running time was less than 2 s. The model can be effectively applied under a variety of backgrounds, image sizes, grain sizes, shooting angles, and shooting heights, as well as different levels of grain crowding. It constitutes an effective detection and enumeration tool for wheat grain. This study provides a reference for further grain testing and enumeration applications.  相似文献   

15.
基于Lab颜色空间下的小麦赤霉病图像分割   总被引:3,自引:1,他引:2  
针对智能识别小麦赤霉病方法中分割患病麦穗图像效果不佳的问题,运用中值滤波方法对患赤霉病麦穗图像进行降噪预处理,采用基于阈值的最大类间方差算法(OTSU)、基于聚类的k-means算法在RGB、HSV和Lab颜色空间中对小麦扬花期到黄熟期感染赤霉病的麦穗图像进行分割,提取出麦穗的病害部分。采用试验田环境下扬花期到黄熟期200张患赤霉病的麦穗图像进行分割试验,结果表明:将图像从RGB颜色空间转化为Lab颜色空间并对a分量采用最大类间方差算法(OTSU)进行分割的效果最佳,误分率仅有1.11%。  相似文献   

16.
目前田间玉米雄穗数量监测主要依靠人工进行,效率低且易出错.为了实现在复杂的田间环境下对玉米雄穗自动识别和计数的任务,使用无人机平台和田间作物表型高通量获取平台采集的田间玉米顶视图像构建数据集,使用Resnet 50作为新的特征提取网络代替原始的VGG 16来优化Faster R-CNN模型.再根据表型平台所获取的高时序、连续图像,进一步使用改进后的模型对试验小区内玉米抽穗期前后20 d的雄穗数量进行监测,以此为依据进行抽穗期判定.该方法在田间作物表型高通量平台获取的图像数据测试集中类平均精度为90.14%,平均绝对误差为4.7328;在无人机平台获取的图像数据测试集中类平均精度为82.14%,平均绝对误差为9.6948.试验结果表明:该模型在田间作物表型高通量获取平台上的检测结果优于无人机平台,且具备一定的应用价值.  相似文献   

17.
针对目前生猪目标检测算法模型较大,实时性差导致其难以在移动终端中应用等问题,将一种改进的轻量化YOLOv4算法用于生猪目标检测.在群养猪环境下以不同视角和不同遮挡程度拍摄生猪图像,建立生猪目标检测数据集.基于轻量化思想,在YOLOv4基础上缩减模型大小.结果表明,本研究算法的准确率和召回率分别为96.85%和91.75...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号