首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
为了快速准确获取大面积农田图像信息,提高保护性耕作秸秆还田监测效率和准确性,该研究提出一种基于优化SIFT(scale-invariantfeaturetransform)算法的农田航拍全景图像快速拼接方法。首先对高分辨率图像进行降采样处理,针对图像的重叠区域进行有效检测;然后采用基于梯度归一化的特征描述符对特征点进行匹配,同时通过渐进样本一致算法去除误匹配,精准计算拼接转换模型;最后采用基于最佳拼接线的多分辨率融合算法进行图像融合,得到全景拼接图像。试验结果表明:该文方法在图像配准阶段与传统SIFT算法和SURF(speeded up robust feature)算法相比,特征点数量分别减少了97%和90%,运行时间减少了94%和69%,平均匹配效率为65.17%,约为SIFT算法的4倍,SURF算法的9倍;与APAP(ss-projective-as-possible)、SPHP(shape-preserving half-projective)和AANAP(adaptive as-natural-as-possible)算法相比,该方法拼接图像的信息熵、平均梯度和图像对比度均有...  相似文献   

2.
当前菠萝催花作业以人工喷洒为主,生产效率低、劳动强度大。菠萝苗心位置的精准识别和定位是实现机械化、智能化菠萝催花的核心问题。该研究在YOLOv4目标识别算法的基础上,选择GhostNet作为主干特征提取网络,构建了一种混合网络模型,并在颈部网络中融合深度可分离卷积与轻量级的注意力模块。改进后的模型相较于YOLOv4模型的总参数量减少70%。与YOLOv4、Faster R-CNN和CenterNet 3个模型进行检测对比试验,结果可得:改进模型在菠萝植株种植密集与稀疏的条件下识别精度分别为94.7%和95.5%,实时识别速度可达27帧/s,每张图像平均检测时间为72 ms,相比常规YOLOv4模型用时缩短23%。总体性能表现均优于对比组的目标检测模型。总的来说,改进模型YOLOv4-GHDW在一定程度上实现了检测速度、识别精度和模型体量三者之间平衡,能够在实际种植环境下对菠萝苗心有较好的识别效果。研究结果可为智能化菠萝精准催花设备研发提供视觉技术支持。  相似文献   

3.
基于轻量和积网络及无人机遥感图像的大豆田杂草识别   总被引:4,自引:4,他引:0  
为提高机器视觉在无人机等小型嵌入式设备中杂草识别的准确率,该文以大豆苗中常见禾本科杂草和阔叶型杂草为研究对象,针对传统和积网络在图像分类任务中模型参数多、训练时间长、含有较多冗余节点和子树的问题,该文改进传统和积网络的学习过程,提出一种以小批量数据作为输入的轻量和积网络。在结构学习中,当积节点作用域内的变量个数小于一定阈值时,合并积节点为多元叶节点,否则将积节点重组为和积混合结构,并对边缘节点进行裁剪,有效降低了模型的参数量和复杂度。在参数学习中,提出贝叶斯矩匹配更新网络参数,使得模型对小样本的学习效率更高。最后结合K均值聚类算法应用于无人机图像中的杂草识别。试验结果表明,利用该方法对无人机图像中大豆苗、禾本科杂草、阔叶型杂草以及土壤的平均识别准确率达99.5%,高于传统和积网络和传统AlexNet。并且模型平均参数量仅为传统和积网络的33%,内存需求最大时减少了549 M,训练时间最多减少了688.79 s。该研究可为轻量和积网络模型在无人机喷洒农药中的杂草识别提供参考。  相似文献   

4.
基于YOLOv5s的农田垃圾轻量化检测方法   总被引:2,自引:2,他引:0  
针对目前垃圾检测算法在农田复杂环境下检测精度不高、检测效率低,模型复杂等问题,该研究提出了基于YOLOv5s的农田垃圾轻量化检测方法。首先,使用轻量级分类网络ShuffleNetV2的构建单元作为特征提取网络,降低模型的计算量和参数量,提高运行速度,以满足移动端的应用要求;其次,为应对模型轻量化后带来的检测精度降低,该文相继对ShuffleNetV2的构建单元进行了卷积核扩大化改进和激活函数优化,在增加部分计算量的前提下提高了模型精度;此外,为增强模型在田间环境下对目标的精准定位能力,该研究针对边界框损失函数进行了优化,将CIoU边界框损失函数高宽纵横比的损失项拆分为预测框的高宽分别与最小外接框高宽的差值,然后通过不断迭代减小差值,提高模型的收敛速度和回归精度。试验结果显示,最终的改进模型检测精度达到了90.9%,此时检测速度为74 ms/帧,计算量仅为3.6 GFLOPs,与当前主流的目标检测算法SSD、YOLOv3等相比,不仅具有更优越的检测精度和推理速度,同时还大幅减少了计算量;最后,将改进前后的模型部署到Jetson TX1和Raspberry 4B 两种边缘计算设备上进行测试,测试结果表明,改进后的YOLOv5s模型在边缘计算设备上的检测速度相对原模型提高了至少20%,同时保持了较好的检测效果,平衡了边缘计算设备对精度和速度的性能需求,为田间垃圾检测任务提供了参考。  相似文献   

5.
自主导航是智能化农机完成收割作业的重要保障。该研究针对多云天气下光照易变化导致单一特征难以应对麦田环境的问题,提出基于多纹理特征融合的麦田收割边界检测方法。通过构建由图像熵特征和方向梯度特征组成的二维特征向量对麦田收割区域与未收割区域进行分类。其中,根据图像熵特征提取的特点,提出基于滑动窗口的直方图统计方法加速图像熵特征提取速度,较传统熵特征提取方法,本文方法耗时减少49.52%。在提取二维特征基础上,根据特征直方图分布特点,结合最大熵阈值分割算法对麦田图像进行初步分类,然后通过去除小连通区域对误分类区域进行剔除,进而运用Canny算子提取边缘轮廓点,得到分布于收割边界附近的待拟合点。最后,通过Ransac算法对拟合直线进行区域限制,得到较为准确的收割边界。试验结果表明,相比传统基于Adaboost集成学习算法提取收割边界,本文算法处理240像素×1 280像素的图像平均耗时为0.88 s,提速约73.89%;在不同光照条件下,收割边界平均检测率为89.45%,提高47.28个百分点,其中弱光照下检测率为90.41%,提高46.19个百分点,局部强光照下检测率为88.26%,提高46.00个百分点,强光照下检测率为89.68%,提高49.64个百分点。研究结果可为田间农机导航线识别提供参考。  相似文献   

6.
摘要:为了减少农药的使用量,设计了一种新型杂草智能识别系统,并在不同的环境下进行了大量试验。该系统主要由智能识别控制器、喷头总成于安装支架组成,通过摄像头实时采集田间图像,采用基于颜色与位置特征的识别算法分析杂草分布情况,控制喷头快速开闭,实现精准对靶喷药。试验证明,该系统对不同环境均具有较好地适应性,能够快速、准确、可靠的定位杂草。在普通环境下系统识别准确率为97.0%;在强光照环境下系统识别准确率为92.5%;在阴影环境下系统识别准确率为89.2%,单帧图像平均耗时160 ms。该研究可为田间精确喷施除草装置的研发提供参考。  相似文献   

7.
苹果采摘机器人夜间图像边缘保持的Retinex增强算法   总被引:2,自引:2,他引:0  
为了提高采摘机器人的适用性和工作效率,保证成熟苹果果实的及时采摘,需要机器人具有夜间连续识别、采摘作业的能力。针对夜间苹果图像的特点,该文提出一种基于引导滤波的具有边缘保持特性的Retinex图像增强算法。利用颜色特征分量采用具有边缘保持功能的引导滤波来估计出照度分量;进而利用单尺度Retinex算法对图像进行对数变换获得仅包含物体本身特性的反射分量图像;分别对照度分量和反射分量图像增强后,再合成为新的夜间苹果的增强图像。文中选取30幅荧光灯辅助照明下采集到的夜间苹果图像进行试验的结果显示,该文增强算法处理后的30幅图像的平均灰度值,分别比原始图像、直方图均衡算法、同态滤波算法和双边滤波Retinex算法处理后的图像平均提高230.34%、251.16%、14.56%、7.75%,标准差平均提高36.90%、-23.95%、53.37%、28.00%,信息熵平均提高65.88%、99.68%、66.85%、17.53%,平均梯度提高161.70%、64.71%、139.89%、17.70%。且该文算法较双边滤波Retinex方法的运行时间平均减少74.56%。表明该文算法在夜间图像增强效果和运行时间效率上有明显的提高,为后续夜间图像的分割和目标识别提供了保障。  相似文献   

8.
基于叶绿素荧光成像技术的番茄苗热害胁迫智能识别方法   总被引:1,自引:1,他引:0  
为实现作物热害胁迫状态快速、无损和智能化识别,该研究设计了一套叶绿素荧光图像采集装置,并提出一种基于叶绿素荧光成像技术的番茄苗热害胁迫智能识别方法。以不同热害阶段下的番茄苗叶片作为研究对象,通过搭建的叶绿素荧光图像采集设备获取具有单一背景的叶片原始荧光图像,将获取的12组荧光参数值结合Spearman等级相关性分析得到相关性最高的非调节性能量耗散的量子产量Y(NO),对其进行图像预处理后构建番茄苗叶片热害图像数据集。对AlexNet模型进行改进,引入批量归一化(Batch Normalization,BN)方法加快模型的收敛速度,选择Mish激活函数提高模型的表达能力,同时使用全局平均池化层(Golbal Average Pooling,GAP)替换全连接层和深度可分离卷积替换传统卷积的方法减少模型参数量,以提升模型运行速度,通过Adam优化算法更新梯度。研究结果表明,改进AlexNet模型性能最优,平均识别精度达98.8%,平均测试耗时为11.6 ms,模型权重空间仅为1.13 MB。相比未改进AlexNet模型,平均测试耗时下降23.2%,模型权重空间下降99.5%。该研究为番茄苗早期热害胁迫检测和胁迫等级划分提供了一种方法,也为其他作物夏季热害监测和防控提供技术参考。  相似文献   

9.
快速傅里叶变换结合SVM算法识别地表玉米秸秆覆盖率   总被引:5,自引:4,他引:1  
针对田间环境复杂、秸秆形态多样、秸秆覆盖率判断主观性影响过大、补贴面积测量耗时耗力等问题,该文开展了秸秆覆盖率自动识别方法研究和监测设备研制。首先,提出利用时频变换进行秸秆识别,设计高通滤波器提取了图像的频域特征进行自适应分割。基于集成分类器利用已有的秸秆识别数据训练支持向量机分类器,对秸秆图像进行再识别和筛选。最后,设计多尺度占比滤波器,对识别图像中的噪声和空洞进行修补,生成适应多种情况的秸秆覆盖率识别算法。与北斗定位模块、无线通讯模块、摄像头、传感器、服务器等设备共同组成秸秆覆盖率识别系统。试验结果表明,设备的秸秆覆盖率识别误差为4.55%,平均单张图像耗时0.05 s。研究结果满足保护性耕作中的自动化监测要求,可为保护性耕作作业质量评测提供有效的技术支持。  相似文献   

10.
基于K-means聚类的柑橘红蜘蛛图像目标识别   总被引:3,自引:3,他引:3  
为快速检测红蜘蛛虫害,该研究采用基于Lab颜色模型中a(红/绿)、b(黄/蓝)层信息的K-means聚类法识别彩色图像中的红蜘蛛。试验选取8幅具有不同清晰度的柑橘红蜘蛛图像,采用基于Sobel边缘检测算子的评价函数计算图像清晰度评价值以评价图像清晰度,对比采用灰度法和包含2、3、4或5个聚类中心的K-means聚类法的目标识别效果和识别效率。结果表明,灰度法对8幅图像中红蜘蛛目标识别率平均值为29%,误判率平均值为201%,无法应用于复杂背景图像中的红蜘蛛目标识别。包含5个聚类中心的K-means聚类法对清晰度较高的图像识别率为100%,误判率为0,对清晰度较低的图像识别率为88%,误判率为0;当图像尺寸较小时,包含4个聚类中心的K-means聚类法识别效率与灰度法相当;当图像尺寸较大时,重复计算聚类中心导致识别耗时较长;基于Lab颜色空间的识别算法无法有效识别其他颜色的红蜘蛛,继续研究的方向为引入红蜘蛛形态信息以提高识别准确率和优化聚类中心的选取以降低识别耗时。  相似文献   

11.
基于改进密度峰值聚类算法的梨花密度分级   总被引:1,自引:1,他引:0  
精准判断梨花疏密程度是自动疏花的基础。为了更好地判断梨花密度,该研究提出了基于改进密度峰值聚类算法的梨花密度分级方法。该方法首先提取梨花位置坐标,获取需要聚类的数据点。其次,为了实现梨花图像的密度分级,针对原有密度峰值聚类算法在梨花密度分级中的不足,结合梨花密度分级需求,改进了对聚类中心的选取方式,通过4组局部密度和中心偏移距离分割阈值将决策图划分为4部分来选取聚类中心,分别对应高、中、低密度以及无需疏花处理等4个等级,实现了对疏密合理的梨花图像的准确分级。最后,针对只有团状分布、稀疏分布及大尺度特写的梨花分布聚类分级不准确的问题,改进了两点间的距离dij参数的计算方法,统一梨花尺度大小和密度分级标准,对所有分布类型的梨花图像均能实现合理的密度分级。试验结果表明,该研究算法能够适应不同尺度大小的梨花图像,预测准确率为94.89%,密度分级准确率达到94.29%,可实现自然环境下局部花簇的密度分级,为机器智能疏花提供了技术支持。  相似文献   

12.
基于无人机遥感影像的覆膜农田面积及分布提取方法   总被引:4,自引:4,他引:0  
针对基于无人机遥感的覆膜农田识别研究甚少的现状,该文以云南省昭通市鲁甸县为研究区,获取了研究区中地表类型复杂程度不同的2幅航空影像(复杂区影像和简单区影像)作为试验数据,利用灰度共生矩阵对原始航片影像进行纹理特征提取并选择纹理特征最佳提取参数;然后基于随机森林算法进行纹理特征重要性评价,优选纹理特征,结合原始数据进行最大似然初步分类;运用众数分析进行分类后处理;最后结合图像形态学算法与面积阈值分割法提取出了最终的覆膜农田面积及分布。通过试验结果发现,依据该文提出的方法,复杂区和简单区覆膜农田识别的总体精度、Kappa系数、产品精度、用户精度和面积误差分别达到了94.84%、0.89、92.48%、93.39%、0.38%和96.74%、0.93、97.39%、94.63%、1.95%。该文提出的融合监督分类和图像形态学算法的覆膜农田提取方法可以简单、快速的将地膜连成块,形成覆膜农田对象,进而通过面积阈值分割法获取高精度的覆膜农田分布信息。该方法可以为精准覆膜农田识别算法的发展提供参考。  相似文献   

13.
Harris角点自适应检测的水稻低空遥感图像配准与拼接算法   总被引:2,自引:5,他引:2  
图像配准和拼接的自动化是微小型无人机能否被广泛应用于水稻长势低空遥感监测的关键技术之一。为了改进Harris角点检测算法中阈值需要人为设定的局限,文章提出了基于Harris角点自适应检测的水稻低空遥感图像配准与拼接算法。该算法在Harris角点检测算法的基础上进行改进,采用基于图像像素灰度值标准差标准化的方法进行角点的自适应确定,并对角点进行特征描述,利用角点特征描述算子之间的欧式距离进行配准。为了验证算法的有效性并进行相关参数的优化,采用多旋翼无人直升机获取了水稻长势的低空遥感图像,并设计了重复率(衡量角点检测的稳定性)、辨识率(衡量角点描述算子的辨识度)、配准率(衡量图像的拼接精度)以及运行时间(衡量算法的运算速度)4个评价指标对配准与拼接的结果进行评判。随机选取获得的低空遥感图像分成3组进行测试,试验结果表明,平均配准率达到了98.95%,且各组图像之间的重复率与配准率差异不显著(显著性水平为0.05),说明改进后的算法稳定。设计了角点自适应检测算法阈值参数的优选试验,阈值参数为标准化处理后的图像像素灰度值标准差,方差分析结果表明,图像像素灰度标准差为1和2时配准率的差异不显著(显著性水平为0.05),但当图像像素灰度标准差为1时,图像配准与拼接平均运行时间是其为2时的2.5倍,因此,可设定图像像素灰度标准差为2作为本算法的较优参数。  相似文献   

14.
基于无人机遥感影像的玉米苗期株数信息提取   总被引:6,自引:5,他引:1  
准确、快速地获取玉米苗期株数对于育种早期决策起着至关重要的作用。该文利用2017年6月于北京市小汤山镇采集的无人机影像,首先对比分析RGB、HSV、YCbCr及L*A*B 4种色彩空间,变换优选HSV颜色模型对无人机影像前景(作物)与后景(土壤背景)进行分割,得到分类二值图。然后利用骨架提取算法及多次去毛刺处理等数学形态学流程提取玉米苗形态,得到高精度作物形态骨架,结合影像尺度变换剔除噪声影像,将影像分为多叶、少叶2类,经Harris、Moravec和Fast角点检测识别结果对比,Harris角点检测算法可以较好地提取玉米苗期影像的株数信息。结果表明,少叶类型识别率达到96.3%,多叶类型识别率达到99%,总体识别率为97.8%,将目前传统影像识别精度提高了约3%。同时在多个植株叶片交叉重叠覆盖的情况下,该文的研究方法有良好的适用性。通过无人机影像提取玉米苗期作物准确数目是可行的。该文采用了数学形态学的原理,通过HSV色彩空间变换得到的二值图,从无人机影像中识别提取玉米苗期形态信息,利用影像尺度缩放变换去除噪点,优化骨架识别算法使得识别精度大大提高,最后采用角点检测从无人机影像中直接读取玉米材料小区内的具体数目,该方法节省了人力物力,为田间大面积测定出苗率及最终估产提供了参考。  相似文献   

15.
基于无人机遥感影像的水稻种植信息提取   总被引:9,自引:5,他引:4  
水稻是中国南方最主要的粮食作物,种植面积波动对国家粮食稳定有很大影响。通过无人机遥感试验获取多幅有重叠区域的图像,使用Agisoft photoscan软件拼接重构试验区的完整图像,利用多尺度分割方法将试验区域分割成若干对象,并基于统计方法提取对象的光谱特征、几何特征和纹理特征;然后,建立识别水稻地块的二分类Logistic回归模型,特征指标为形状指数、红色均值、红色标准偏差、最大化差异度量、灰度共生矩阵同质性和灰度共生矩阵非相似性。结果表明:模型辨识训练样本集的正确率为100%,辨识检验样本的正确率为97%,模型应用于辨识验证区域水稻田块,总体正确率为98%。最后基于累计像素方法测算水稻田块的面积,并与目视解译测算的结果对比,面积误差小于3.5%,研究方法识别水稻田块效果好,面积测算准确率高。因此,该研究对利用无人机遥感影像普查水稻种植信息具有一定的适用性。  相似文献   

16.
基于双注意力语义分割网络的田间苗期玉米识别与分割   总被引:6,自引:6,他引:0  
为实现复杂田间场景中幼苗期玉米和杂草的准确识别与区域划分,该研究提出改进的双注意力语义分割方法,通过获取形态边界实现玉米幼苗的识别与精细分割,在此基础上采用形态学处理方法识别图像中除玉米外的全部杂草区域。首先对6种当前最高性能的语义分割网络进行对比,确定模型原始架构;建立幼苗期玉米语义分割模型,包括改进深层主干网络增强特征,引入双注意力机制构建特征的场景语义依赖关系,以编码器-解码器结构组建模型并增加辅助网络优化底层特征,改进损失函数协调模型整体表现,制定改进的迁移学习策略;提出图像形态学处理方法,基于玉米像素分割结果,生成杂草分割图。测试结果表明,模型的平均交并比、平均像素识别准确率分别为94.16%和95.68%,相比于原网络分别提高1.47%和1.08%,识别分割速度可达15.9帧/s。该研究方法能够对复杂田间场景中的玉米和杂草进行准确识别与精细分割,在仅识别玉米的前提下识别杂草,有效减少图像标注量,避免田间杂草种类的多样性对识别精度的影响,解决玉米与杂草目标交叠在形态边界上难以分割的问题,研究结果可为智能除草装备提供参考。  相似文献   

17.
无人机飞行高度对植被覆盖度和植被指数估算结果的影响   总被引:1,自引:1,他引:0  
将无人机与多种成像传感设备相结合可实现田间作物表型信息的全面获取。针对田间复杂环境下无人机搭载多种成像传感设备在不同飞行高度处提取的作物信息具有差异性的问题,本研究着重探究了无人机搭载两种成像传感设备获取图像时,不同飞行高度对估算植被覆盖度以及植被指数结果的影响。首先为防止外界环境变化对获取图像质量造成干扰,通过最近邻插值算法将无人机飞行高度为25 m处获取的两个多光谱和可见光图像数据集分别退化为十个不同地面分辨率的模糊图像数据集,以模拟无人机在不同飞行高度中获取的作物图像。然后获取50m高度处的无人机图像数据集通过皮尔逊相关性分析验证模拟数据集的有效性。最后采用随机森林模型估算不同数据集中的植被覆盖度,分类精度大于91%。结果发现,当植被覆盖度小于二分之一时,随着地面分辨率的降低该指标不断被低估,反之则被高估。飞行高度50 m的真实图像与模拟图像估算植被覆盖度结果的相关系数r为0.992 8,两者具有强相关性,模拟图像估算得到的植被覆盖度变化具备参考意义。植被指数估算结果中,首先对无人机图像数据集进行辐射校正、阈值分割等图像预处理,然后根据公式计算得到植被指数,最后通过假设性检验对十个图像数据集计算得出的植被指数进行分析。结果发现,可见光植被指数在飞行高度61 m时具备显著性差异,多光谱植被指数在十个高度下均没有显著性差异,因此为保证无人机获取数据的准确性与完整性,建议当无人机搭载本文的两种相机获取作物信息时建议飞行高度不高于61 m。本研究为研究者利用无人机搭载多传感设备获取作物信息设定合适的飞行高度、减小作业成本提供参考。  相似文献   

18.
基于改进判别区域特征融合算法的近色背景绿色桃子识别   总被引:6,自引:4,他引:2  
针对机器视觉识别中自然光照条件下未成熟绿色果实的识别存在颜色与背景相似、光照不均、果叶遮挡等问题,该文提出在判别区域特征集成(discriminative regional feature integration,DRFI)算法框架的基础上,结合颜色、纹理、形状特征,对未成熟绿色桃子进行识别。首先通过基于图的图像分割(graph-based image segmentation)算法,取不同的参数将图像分割为多层,再计算各层图像的显著图,并用线性组合器将其融合,得到DRFI显著图。再用OTSU算法得到的阈值自适应调整之后对DRFI显著图进行分割,减少了显著图中识别为低概率果实的误分割。对于分割后仍存在的果实相互粘连的情况,通过控制标记符和距离变换相结合的分水岭分割算法将其分开。试验结果表明:该方法在训练集中的准确识别率为91.7%,在验证集中的准确识别率为88.3%,与相关文献报道的结果以及原始DRFI算法在验证集中的检测结果相比,该文方法的准确识别率提高了3.7~10.7个百分点,较有效地解决了颜色相近和果叶遮挡问题,可为果树早期估产和绿色果实采摘自动化、智能化提供参考。  相似文献   

19.
基于点特征检测的农业航空遥感图像配准算法   总被引:1,自引:1,他引:0  
针对当前无人机遥感图像配准算法普遍存在匹配精度差与配准速度慢等问题,该文以点特征检测方法为基础,结合矩阵降维处理方法,提出一种适用于农业航空遥感图像配准的改进算法—SNS(scale-invariant feature transform and singular value decomposition)算法。SNS算法以高斯函数同步检测尺度空间极值点的坐标和特征尺度,利用海森矩阵消除伪特征点,获取特征点精准定位,在求取特征点的模值与方向基础上,采用奇异值分解方法进行矩阵优化,实现数据降维再重构。试验结果表明,SNS算法与经典算法相比,配准速度平均提高5.01%,配准精度均方根误差平均降低10.48%,说明SNS算法在压缩数据量的同时,提高了整体配准精度,具有配准速度较快和鲁棒性较好的特点。研究结果可为农业航空遥感图像快速配准提供参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号