首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 234 毫秒
1.
基于彩色模型和近邻法聚类的水田秧苗列中心线检测方法   总被引:1,自引:4,他引:1  
张勤  黄小刚  李彬 《农业工程学报》2012,28(17):163-171
水田秧苗列中心线的检测是实现水田除草机器人自主导航的重要保证。在秧苗的不同生长时期,秧苗形态各不相同;并且在南方地区的水田中经常会出现的绿色浮萍、蓝藻,它们的颜色与目标秧苗非常接近,这给秧苗的分割以及列中心线的检测带来很大的困难。针对这些问题,提出一种基于彩色模型和近邻法聚类实现秧苗列中心线的检测方法。首先,基于彩色模型即2G-R-B模型(2Green-Red-Blue)和HSI(Hue,Saturation and Intensity)彩色空间中提取S分量提取秧苗灰度特征;然后,在保持秧苗原有形状的前提下提取秧苗特征点,获得秧苗特征点图像;最后,基于近邻法利用特征点间的邻近关系对特征点进行聚类,采用基于已知点的Hough变换(known point Hough transform)提取秧苗列中心线。试验表明:提出的方法能够在图像中存有绿色浮萍、蓝藻等噪声情况下准确提取秧苗灰度特征,平均每幅真彩色图像(分辨率:1280×960)整个流程所需时间小于350ms,并能够适应自然光线变化。提出的方法能够适应环境的变化,满足机器人实时性要求。  相似文献   

2.
张勤  陈少杰  李彬 《农业工程学报》2015,31(20):165-171
中国南方水田环境复杂,不同生长阶段秧苗的形态各异,且田中常出现浮萍及蓝藻,其颜色与秧苗颜色极其相似,因此常用的作物特征提取算法难以应用在水田上。针对这些问题,该文提出一种基于SUSAN角点的秧苗列中心线方法。运用归一化的Ex G(excess green index)提取秧苗的灰度化特征,运用自适应的SUSAN(smallest univalue segment assimilating nucleus)算子提取秧苗特征角点;最后运用扫描窗口近邻法进行聚类,采用基于已知点的Hough变换(known point Hough transform)提取秧苗列中心线。经试验验证,此算法在图像中存在浮萍、蓝藻和秧苗倒影的情况下有较高的鲁棒性。在各种情况下均成功提取秧苗的列中心线,且每幅真彩色图像(分辨率:1280×960)处理时间不超过563 ms,满足视觉导航的实时性要求。  相似文献   

3.
针对笼养鸡舍环境下光照强度弱、作业通道内狭小导致机器人巡检时通道中心线检测困难的问题,该研究利用3D激光雷达对鸡舍通道中心线进行获取。首先通过机器人搭载的3D激光雷达对鸡舍作业通道信息进行采集,利用直通滤波、地面点滤波、体素滤波、统计滤波和平面投影对获取的3D激光雷达点云数据进行预处理,获取XOY平面上的点云数据。通过改变K-means聚类初始点选择方式和聚类函数对预处理后的点云数据进行数据分类。利用改进RANSAC算法对分类后的数据进行处理,提取通道中心线。试验结果表明该研究提出的改进K-means聚类算法平均耗时6.98 ms,相较于传统的K-means聚类算法平均耗时减少了29.40 ms,准确率提高了82.41%。该研究提出的改进RANSAC算法中心线提取准确率为93.66%、平均误差角为0.89°、平均耗时为3.94 ms,比LSM算法得到的平均误差角高0.14°,平均耗时减少6.15 ms。表明该研究提出的鸡舍通道中心线检测方法基本满足笼养鸡舍环境实时自主导航的需求,为巡检机器人在鸡舍作业通道内进行激光雷达导航提供了技术支撑。  相似文献   

4.
为提高果园机器人自主导航和果园作业的质量、效率,该研究提出一种基于改进YOLOv3算法对果树树干进行识别,并通过双目相机进行定位的方法。首先,该算法将SENet注意力机制模块融合至Darknet53特征提取网络的残差模块中,SENet模块可增强有用特征信息提取,压缩无用特征信息,进而得到改进后残差网络模块SE-Res模块;其次,通过K-means聚类算法将原始YOLOv3模型的锚框信息更新。果树树干定位通过双目相机的左、右相机对图像进行采集,分别传输至改进YOLOv3模型中进行果树树干检测,并输出检测框的信息,再通过输出的检测框信息对左、右相机采集到的果树树干进行匹配;最后,通过双目相机三角定位原理对果树树干进行定位。试验表明,该方法能较好地对果树树干进行识别和定位,改进YOLOv3模型平均精确率和平均召回率分别为97.54%和91.79%,耗时为0.046 s/帧。在果树树干定位试验中,横向和纵向的定位误差均值分别为0.039 和0.266 m,误差比均值为3.84%和2.08%;与原始YOLOv3和原始SSD模型相比,横向和纵向的定位误差比均值分别降低了15.44、14.17个百分点和21.58、20.43个百分点。研究结果表明,该方法能够在果园机器人自主导航、开沟施肥、割草和农药喷洒等作业中进行果树识别和定位,为提高作业效率、保障作业质量奠定理论基础。  相似文献   

5.
基于K-means和近邻回归算法的Kinect植株深度图像修复   总被引:6,自引:3,他引:3  
沈跃  徐慧  刘慧  李宁 《农业工程学报》2016,32(19):188-194
针对Kinect传感器应用于农业植株检测产生的图像噪声问题,特别是由光线以及传感器自身局限导致的匹配图像目标植株数据的缺失,提出一种基于K-means和近邻回归算法的植株深度检测图像修复方法。首先对Kinect传感器获取的彩色RGB图像进行阈值分割预处理提取植株目标区域,再利用K-means聚类算法去除背景噪声,使得植株目标区域轮廓更加清晰;然后基于配准的彩色图像和深度图像,对获取的深度图像中可疑像素点的深度数据采取近邻回归算法进行修复,再将修复后的深度图像与目标分割后的彩色图像进行植株区域的匹配,并进行二次近邻回归算法修正错误的深度数据,最后获取目标植株深度信息的检测图像。试验结果证明,采用RGB阈值分割和K-means聚类算法植株目标区域分割误差均值为12.33%,比单一RGB阈值分割和K-means聚类分割误差降低了12.12和41.48个百分点;同时结合聚类后的彩色图像对深度数据进行两次近邻回归算法修复深度数据,能够提高深度数据边缘的清晰度,单帧深度数据空洞点进行修复数据的准确度提高。该研究结果可为农业植株检测、植株三维重构、精准对靶喷雾等提供参考。  相似文献   

6.
低对比度条件下联合收割机导航线提取方法   总被引:4,自引:2,他引:2  
针对强光照下成熟小麦已收割区域和未收割区域对比度低、收割边界获取难度大的问题,该文提出了一种基于区域生长算法的联合收割机导航线精确提取方法。对摄像头采集的作物收割图像,利用区域生长算法分割出图像中未收割区域。生长阈值通过对图像灰度直方图高斯多峰拟合进行自适应计算。对分割得到的二值图像进行形态学处理,获取作物已收割和未收割区域分界线,然后采用最小二乘法拟合收割机作业导航线。试验结果表明:在小麦已收割和未收割区域对比度很低的情况下,所提方法能够精确地提取出小麦收获边线,并得到收割机作业导航线,与人工标定导航线夹角平均误差小于1.21°,可以为联合收割机的自动导航研究提供参考;处理一张900×1 200像素的图像时长约0.41 s,基本满足联合收割机导航作业的实时性要求。与传统方法对比发现,该文方法不易受作物生长密度和麦茬的干扰,导航线的提取精度更高,单幅图像的处理时间略有增加,但基本满足实时性作业要求。  相似文献   

7.
基于图像特征点粒子群聚类算法的麦田作物行检测   总被引:8,自引:8,他引:0  
为了快速准确地提取麦田作物行中心线,提出了基于图像特征点粒子群聚类算法的麦田作物行检测。首先,对自然光照下获取的彩色图像运用"过绿颜色因子图像灰度化"、"Otsu图像二值化"、"左右边缘中间线检测提取作物行特征点算法"3步对图像进行预处理。然后,根据农田作物行中心线周围区域的特征点到该直线的距离均小于某一距离阈值的特征,运用粒子群优化算法对每一作物行的特征点分别进行聚类。最后,对每一类的特征点用最小二乘法进行直线拟合获取麦田作物行中心线。试验结果表明,该算法可以对作物断行、杂草、土块等复杂农田环境下的图像进行有效地作物行检测,识别率达95%,识别误差小于3°。与标准Hough算法相比,运行速率提升了一倍。该文可为实现农业机器人田间作业提供参考。  相似文献   

8.
野外自然环境下采集的紫色土图像背景复杂,将紫色土区域从背景中分割出来是应用机器视觉对紫色土进一步分析处理的首要工作。该文提出基于自适应密度峰值聚类的野外紫色土彩色图像分割算法。该方法首先构造基于熵的相似度矩阵,从而建立基于类间方差最大化类内方差最小化准则的灰度变换优化模型,求解优化模型获得一个提升了紫色土与背景间分离特性的灰度图像。然后,构建无参的密度公式和一个中心决策度量来自动获取聚类中心,实现在密度峰值聚类算法框架下紫色土图像的自适应分割。最后,设计边界提取与区域填充的后处理算法获得完整的紫色土土壤区域图像。通过使用常规样本集、鲁棒样本集试验测试,结果显示:该文分割算法的初分割平均分割精度分别为93.45%和87.40%,比采用原始密度峰值聚类算法的平均分割精度分别提高3.16和12.47个百分点。经该文算法初分割、后处理,平均分割精度分别提高到96.30%和91.63%,平均耗时分别为0.36和0.35 s。研究结果为野外紫色土彩色图像的自适应分割提供参考。  相似文献   

9.
大豆单株豆荚数检测是考种的重要环节,传统方法通过人工目测的方式获取豆荚类型和数量,该方法费时费力且误差较大。该研究利用大豆单株表型测量仪采集到的表型数据,通过融合K-means聚类算法与改进的注意力机制模块,对YOLOv4目标检测算法进行了改进,使用迁移学习预训练,获取最优模型对测试集进行预测。试验结果表明,该研究模型的平均准确率为80.55%,数据扩充后准确率达到了84.37%,比育种专家目测准确率提高了0.37个百分点,若不考虑5粒荚,该研究模型的平均准确率为95.92%,比YOLOv4模型提高了10.57个百分点,具有更强的检测性能。在简单背景的摆盘豆荚检测中,该研究模型预测的平均准确率达到了99.1%,比YOLOv4模型提高了1.81个百分点,研究结果表明该模型在不同场景下的大豆豆荚检测中具有较强的泛化能力,可为大豆人工智能育种提供参考。  相似文献   

10.
群猪检测是现代化猪场智慧管理的关键环节。针对群猪计数过程中,小目标或被遮挡的猪只个体易漏检的问题,该研究提出了基于多尺度融合注意力机制的群猪检测方法。首先基于YOLOv7模型构建了群猪目标检测网络YOLOpig,该网络设计了融合注意力机制的小目标尺度检测网络结构,并基于残差思想优化了最大池化卷积模块,实现了对被遮挡与小目标猪只个体的准确检测;其次结合GradCAM算法进行猪只检测信息的特征可视化,验证群猪检测试验特征提取的有效性。最后使用目标跟踪算法StrongSORT实现猪只个体的准确跟踪,为猪只的检测任务提供身份信息。研究以育肥阶段的长白猪为测试对象,基于不同视角采集的视频数据集进行测试,验证了YOLOpig网络结合StongSORT算法的准确性和实时性。试验结果表明,该研究提出的YOLOpig模型精确率、召回率及平均精度分别为90.4%、85.5%和92.4%,相较于基础YOLOv7模型平均精度提高了5.1个百分点,检测速度提升7.14%,比YOLOv5、YOLOv7tiny和YOLOv8n 3种模型的平均精度分别提高了12.1、16.8和5.7个百分点,该文模型可以实现群猪的有...  相似文献   

11.
蔬菜穴盘苗自动补苗试验台穴孔定位与缺苗检测系统   总被引:4,自引:4,他引:0  
为了精确获得蔬菜穴盘育苗空穴信息并为自动补苗提供依据,研制了蔬菜穴盘苗自动补苗试验台。利用该试验台获取了苗龄25、35 d的拟南介穴盘苗彩色图像,对彩色图像依次进行灰度化处理、Otsu阈值分割得到幼苗和穴盘二值图;对幼苗二值图进行开运算去除噪声,提取出幼苗特征图像;将穴盘二值图去除幼苗图像并去除噪声获得穴盘特征图像,依据穴盘特征图像分别在行、列上的像素统计峰值、峰宽及穴盘规格化结构,精确确定了穴孔边界;对穴孔内幼苗图像像素统计以判定是否空穴,结果表明:25、35 d拟南芥穴盘苗有苗穴孔与无苗穴孔内像素统计值差异极显著,空穴、有苗穴判断正确率均为100%,为穴盘苗空穴自动补苗提供了精确的幼苗信息与穴孔位置。  相似文献   

12.
壮秧影响不同节氮水平下早稻产量及氮肥吸收利用   总被引:2,自引:1,他引:1  
【目的】培育壮秧和施用分蘖肥是促进水稻早发的重要措施,但增施分蘖肥易导致水稻无效分蘖增加和氮素流失。研究双季稻区早稻壮秧和分蘖肥节氮条件下产量形成和氮素吸收利用特性,以期为早稻节氮控污和丰产栽培提供科学依据。【方法】以超级杂交早稻‘淦鑫203’为材料,采用壮苗育秧(状秧)和普通育秧(普秧)两种方式培育秧苗。于2014-2015年进行大田试验,设置壮秧常规施氮(VS+100%N)、节氮10%(VS–10%N)、节氮20%(VS–20%N)、节氮30%(VS–30%N) 4个处理,以普秧常规施氮(NS+100%N)处理和不施氮空白(NS+0N)处理分别作对照,共6个处理。减施的氮肥均在分蘖肥中扣除,除不施氮对照外,各处理基肥氮(72 kg/hm^2)和穗肥氮(54 kg/hm^2)均保持不变。分析早稻拔节期、齐穗期和成熟期SPAD值、光合速率、硝酸还原酶活性和各器官氮素含量,并测定成熟期水稻产量及其构成,明确了植株总氮积累量、氮素转运量、氮表观转运率、氮素利用效率等。【结果】与NS+100%N处理相比,壮秧条件下分蘖肥节氮10%~30%对叶片SPAD值和光合速率无显著影响,但壮秧能促进分蘖发生和成穗,在生育中后期可逐渐弥补分蘖肥节氮对分蘖期干物质积累的不利影响,成熟期VS–10%N和VS–20%N处理干物质积累量较对照NS+100%N增加,产量分别增加了8.5%和1.5%;VS–30%N处理干物质积累量和产量则呈下降趋势。同时,壮秧有利于提高早稻叶片硝酸还原酶活性、各器官氮含量和氮积累量,与NS+100%N处理相比,VS+100%N处理成熟期氮素积累量显著增加了6.9%,VS–10%N和VS–20%N处理无显著变化,VS–30%N处理显著下降了9.7%。壮秧处理氮素回收率和氮素农学效率较NS+100%N处理分别显著提高了12.1%~22.4%和9.9%~24.7%(P <0.05)。【结论】双季稻区早稻壮秧可以促进分蘖早发,提高叶片的干物质生产能力和氮代谢性能,弥补分蘖肥减氮后对水稻前期生长的不利影响,提高后期的干物质生产量和氮运转量。通过培育壮秧,分蘖肥减施总施氮量的20%以内,早稻产量不会下降,可实现水稻的节氮、丰产和节本栽培,有利于提高氮素利用效率和减少氮素流失对环境的污染。  相似文献   

13.
玉米苗带准确检测与精准跟踪是玉米除草机器人实现自主作业的重要基础。针对玉米除草机器人苗带检测,该研究提出了基于感兴趣区域更新的玉米苗带实时识别及导航线提取方法,首先利用单目相机采集机器人前向玉米苗带,将苗带图像进行归一化和超绿处理,采用改进自适应响应阈值SUSAN(small univalue segment assimilating nucleus)角点法以及冗余离群特征点剔除法获得玉米苗特征点,以改进的顺序聚类算法对视频帧进行玉米苗带聚类处理,再利用最小二乘法拟合出各玉米苗带,最后基于机器人航向偏差和其相对玉米苗带的横向偏差实时调整感兴趣区域和更新导航线;同时,针对除草机器人苗带行线跟踪,提出以运动学为模型的PID(proportionintegrationdifferentiation)转向角决策方法,建立了导航跟踪控制模型;并在Visual Studio平台下,利用OpenCV库开发了导航控制系统。试验结果表明,玉米除草机器人导航线提取准确率为96.8%,每帧图像平均处理时间为87.39ms,具有较好的实时性和抗干扰性;在模拟环境下,玉米苗带直线和曲线跟踪平均误差≤1.42 c...  相似文献   

14.
自主导航是智能化农机完成收割作业的重要保障。该研究针对多云天气下光照易变化导致单一特征难以应对麦田环境的问题,提出基于多纹理特征融合的麦田收割边界检测方法。通过构建由图像熵特征和方向梯度特征组成的二维特征向量对麦田收割区域与未收割区域进行分类。其中,根据图像熵特征提取的特点,提出基于滑动窗口的直方图统计方法加速图像熵特征提取速度,较传统熵特征提取方法,本文方法耗时减少49.52%。在提取二维特征基础上,根据特征直方图分布特点,结合最大熵阈值分割算法对麦田图像进行初步分类,然后通过去除小连通区域对误分类区域进行剔除,进而运用Canny算子提取边缘轮廓点,得到分布于收割边界附近的待拟合点。最后,通过Ransac算法对拟合直线进行区域限制,得到较为准确的收割边界。试验结果表明,相比传统基于Adaboost集成学习算法提取收割边界,本文算法处理240像素×1 280像素的图像平均耗时为0.88 s,提速约73.89%;在不同光照条件下,收割边界平均检测率为89.45%,提高47.28个百分点,其中弱光照下检测率为90.41%,提高46.19个百分点,局部强光照下检测率为88.26%,提高46.00个百分点,强光照下检测率为89.68%,提高49.64个百分点。研究结果可为田间农机导航线识别提供参考。  相似文献   

15.
机器视觉导航是智慧农业的重要部分,无作物田垄的导航线检测是旱地移栽导航的关键。针对无作物田垄颜色信息相近、纹理差距小,传统图像处理方法适用性差、准确率低,语义分割算法检测速度慢、实时性差的问题,该研究提出一种基于改进DeepLabV3+的田垄分割模型。首先对传统DeepLabV3+网络进行轻量化设计,用MobileNetV2网络代替主干网络Xception,以提高算法的检测速度和实时性;接着引入CBAM(convolutional block attention module,CBAM)注意力机制,使模型能够更好地处理垄面边界信息;然后利用垄面边界信息获得导航特征点,对于断垄情况,导航特征点会出现偏差,因此利用四分位数对导航特征点异常值进行筛选,并采用最小二乘法进行导航线拟合。模型评估结果显示,改进后模型的平均像素精确度和平均交并比分别为96.27%和93.18%,平均检测帧率为84.21帧/s,优于PSPNet、U-Net、HRNet、Segformer以及DeepLabV3+网络。在不同田垄环境下,最大角度误差为1.2°,最大像素误差为9,能够有效从不同场景中获取导航线。研究结果可为农业机器人的无作物田垄导航提供参考。  相似文献   

16.
在蝴蝶兰(Phalaenopsis aphrodite)产业中,种苗在达到最短营养栽培时长时的生长势在其后续的栽培链和最终的经济利润中起着重要的作用。当前在商业大型温室中主要采取人工方式对每株种苗进行评估,既费时又费力。基于RGB图像进行植物生长评估的相关研究依赖于从图像中手动提取人工定义的特征,从而影响了机器学习模型的有效性和泛化能力。本研究使用卷积神经网络(Convolutional Neural Network,CNN)来探讨其以端对端方式评估温室中蝴蝶兰种苗生长势的可行性。对在温室中采集的图像数据集,采用不同的CNN架构(VGG、ResNet和Inception-v3)结合不同的训练机制(从头训练、微调、特征提取)建立基准模型,其中微调取得了最佳的分类结果。考虑到本研究的目标任务是对具有复杂图像背景的单个温室种苗的形态分类,为进一步提高模型性能,在可控的实验室条件下采集了更多的种苗图像。实验室图像进行背景分割后,用于协助模型更好地学习植株的形态,即建立增强模型。与基准模型相比,2种增强方式总体上在温室测试集的F1-score取得了0.03~0.05的提升。采用增强方式II的VGG模型取得了最高的性能(温室测试集上的F1-score为0.997),并对该模型的特征图进行可视化。在高层特征图中,目标种苗区域被激活,同时滤除了大部分背景(包括相邻种苗的叶片),进一步证明了能够采用CNN对温室种苗进行有效的形态学习和刻画。总体结果表明,深度学习模型可用于基于图像的蝴蝶兰种苗生长势评估,并且可扩展用于温室下其他植物类型的生长评估。  相似文献   

17.
基于机器视觉的超级稻秧盘育秧播种空穴检测技术   总被引:3,自引:5,他引:3  
针对超级稻育秧播种量少,易出现空穴而影响产量的问题,对超级稻高速连续秧盘育秧播种的空穴进行了在线检测。在秧盘育秧流水线的播种和覆表土工序之间加入检测系统,CCD摄像机不断地拍摄穴盘图像,并建立与穴孔相对应的掩模图像,利用定时读取程序,读取缓存中的图像信息。通过图像处理和分析,有效地识别了穴盘空穴,将检测结果以电子表格的形式存储在穴盘空穴数据库中,以供人工补种,进一步降低了秧盘育秧空穴率,提高了超级稻精准育秧的成秧率。  相似文献   

18.
基于改进YOLOv3-Tiny的番茄苗分级检测   总被引:3,自引:3,他引:0  
为了提高番茄苗分选移栽分级检测精度,该研究提出了YOLOv3-Tiny目标检测改进模型.首先建立了番茄穴盘苗数据集,使用K-means++算法重新生成数据集锚定框,提高网络收敛速度和特征提取能力;其次为目标检测模型添加SPP空间金字塔池化,将穴孔局部和整体特征融合,提高了对弱苗的召回率;同时加入路径聚合网络(PANet...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号