首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到12条相似文献,搜索用时 62 毫秒
1.
广义Hough变换在遮挡图像识别中的应用   总被引:6,自引:2,他引:4  
介绍了一种基于广义Hough变换的空间有部分遮挡的茄子目标识别方法。从生物学的角度,用广义柱近似等效样本茄子形状;通过坐标转换获得了不同位姿的立体目标在平面上的投影边缘,并建立茄子外形的4维参数索引表;采用一种广义Hough变换计算茄子目标的潜在位置,并通过比较各旋转角度下的"面积比",筛选出目标实际的位姿。试验表明:这种广义Hough变换检测目标位置和姿态的相对误差分别约在1.3%和5.5%以下,说明其对空间不同位姿、部分遮挡情况下目标的识别具有良好的效果。  相似文献   

2.
改进圆形Hough变换的田间红提葡萄果穗成熟度判别   总被引:6,自引:5,他引:1  
针对田间环境下红提葡萄果穗成熟度人眼判断效率低且易误判的问题,该研究采用K近邻(K-nearest neighbor,KNN)算法和最大类间方差(Otsu)法分别对葡萄果穗图像背景分割以找到最佳分割效果,采用圆形Hough变换识别葡萄果粒,并开发了可判别葡萄果穗成熟度的算法。研究结果表明,不论顺光、逆光或者与田间背景相似的绿色果穗,KNN法可实现良好的背景分割,然后圆形Hough变换法在边缘阈值和灵敏度分别取0.15和0.942时,识别葡萄果粒的准确率可达96.56%。在此研究基础上,采用该研究开发的葡萄果穗成熟度判断算法,可根据颜色将果粒划分不同成熟度等级,并实现对果穗成熟度判别,判别准确率为91.14%。该研究结果可为果农适宜期收获葡萄及自动化采摘提供重要指导。  相似文献   

3.
针对传统鱼眼瞳孔直径测量方法耗时、耗力,且数据主观性强的问题,该文提出基于权重约束AdaBoost和改进Hough圆变换的鱼眼瞳孔直径智能测量方法。首先,利用工业相机采集实验板上的鱼图像,从正负鱼眼图像样本中训练出基于权重约束AdaBoost算法的鱼眼分类器;然后,采用该分类器对试验图像进行检测,将检测到的鱼眼局部图从整体图中分离出来;最后,采用改进的Hough圆变换检测出鱼眼的瞳孔,并计算得到瞳孔直径。对100条金鲳鱼进行试验,鱼眼分类精度达97.1%,瞳孔正确检测率达94.2%,相比改进前分别提升了1.7个百分点和10.5个百分点,与人工测量瞳孔直径值的平均偏差为6.5%,比改进前低了5.9个百分点,总的平均测量时间为324.371 ms,比改进前减少了10.707 ms。试验证明:该文提出的方法能够精确、实时、自动地测量出鱼眼瞳孔的直径,有效避免了传统测量方式的复杂性和测量数据的主观性,可为鱼体生长状况评估、良种选育提供重要参考。  相似文献   

4.
基于改进型广义Hough变换的茄子果实位姿识别方法   总被引:2,自引:0,他引:2  
以茄子果实为例,提出一种基于改进型广义Hough变换的空间物体位置和姿态的识别方法。在已知图形的参数表制作阶段添加缩放和旋转运算,扩大样本的代表范围;采用“形状相似度”的方法初选待识图形的缩放索引和旋转索引,缩小了搜索范围;适当提高梯度索引步长,避免参考点在累加器中的排布过于分散,便于确定最终参考点坐标。试验表明:改进型广义Hough变换对茄子大、小目标的深度恢复误差分别减小了4.0和7.9个百分点,说明该方法对空间不同位姿、部分遮挡情况下茄子果实的识别具有良好的效果。  相似文献   

5.
基于机器视觉自然场景下成熟柑橘识别   总被引:27,自引:20,他引:7  
采用2R-G-B色差分量,通过Ostu自适应阈值算法进行图像分割,利用形态运算消除分割后随机噪声,并对分割区域进行标记,利用区域面积和区域最小外接矩形长宽比参数进一步去除背景区域.对于多果重叠问题,利用T=Sqrt(S×I)形成新的图像提取边界,再结合形态学运算实现分割.最后利用优化的圆形Hough变换提取目标图像的形心坐标及半径,恢复遮挡果形.经验证有95%果实能正确识别.  相似文献   

6.
为了能够快速、准确地对农作物病斑进行图像检测,该文根据病斑的形态特点,提出一种基于边缘检测与改进Hough变换的病斑目标检测方法。该研究根据不同种类的病害图像,采用R、G、B或者之间的差值分量确定病斑的特征图像,采用边缘提取、修复、过滤等方法获取病斑轮廓。对Hough变换的应用策略进行改进,采用边缘线编码,每个病斑根据自身形态确定变换的参数,并采用对应的圆形对病斑边界进行拟合,从而对病斑进行检测,同时对病斑边界进行有效识别。以90幅不同种类农作物病害图像为研究对象,对病斑进行类圆目标检测,检测圆拟合精度为87.01%,圆心定位误差为4.44%。结果表明,该方法能够快速、准确地对类圆病斑进行检测,同时对病斑边界有较好的识别效果。  相似文献   

7.
基于改进Hough变换的类圆果实目标检测   总被引:15,自引:11,他引:4  
为了能够快速准确地计算出类圆果实的形心坐标和半径,提出了一种基于改进圆形随机Hough变换的快速类圆果实目标检测方法。在以2R-G色差分量实现背景分离后,采用模板匹配细化算法获取单像素果实轮廓,并按步长获取果实的边缘特征点;然后,根据边缘特征点的平均切线方向对特征点进行分组,并以此为依据对圆形RHT算法进行改进;最后利用改进后的圆形RHT算法计算出类圆果实的形心坐标和半径。该方法能够快速准确地对类圆果实进行检测,对部分被遮挡的类圆果实识别效果较好。  相似文献   

8.
基于两级分割与区域标记梯度Hough圆变换的苹果识别   总被引:1,自引:1,他引:0  
自然环境下果实的准确分割与快速识别是采摘机器人作业面临的难题之一。针对自然环境中的成熟苹果,该研究提出一种基于Otsu与分水岭相结合的两级分割算法与区域标记梯度Hough圆变换的苹果识别方法。首先,使用亮度自适应校正算法对表面亮度分布不均的苹果图像进行校正,增强图像的细节信息。结合果实颜色特征,提取YCbCr颜色空间的Cr分量图像作为预处理样本。然后,采用改进后的Otsu算法进行初次分割,得到苹果目标的二值图像,该算法通过引入形态学开-闭重建滤波去除大量背景噪声,通过缩减灰度级遍历范围提高分割速率。采用基于距离变换的分水岭算法进行二次分割,分离粘连果实区域,提取目标苹果的外部轮廓。最后,在轮廓外设置最小外接矩形标记有效区域,在标记区域内进行梯度Hough圆变换实现苹果目标的自动识别。对自然环境中采集的200幅苹果图像进行测试,并与传统梯度Hough圆变换方法进行对比,该文方法在顺、逆光下的识别准确率为90.75%和89.79%,比传统方法提高了15.03和16.41个百分点,平均识别时间为0.665和0.693 s,比传统方法缩短了0.664和0.643 s。所提的两级分割算法不仅可以从复杂环境中准确分割果实目标区域,而且可以从粘连果实区域中提取单个果实边界。利用区域标记的梯度Hough圆变换方法能够快速准确地对果实进行识别。研究结果能满足苹果采摘机器人对不同光照下目标识别速度和精度的要求,可为苹果等类球形果实的快速识别提供参考。  相似文献   

9.
为提高油茶果采摘机器人机器视觉的识别率,该文提出了基于偏好人工免疫网络识别的油茶果多特征融合识别方法。在对油茶果图像进行处理的基础上,提取待识别目标区域的颜色特征、形态特征、纹理特征进行聚类,并提取典型油茶果多特征作为偏好抗体,使多特征参数在偏好免疫算法中进行有效融合。仿真试验结果表明,多特征融合的识别方法对油茶果果实的识别率在晴天时达到了90.15%,阴天时达到了93.90%。而时间复杂度基本不变,取得了较好的识别效果,该研究可为下一步油茶果采摘机器人智能采摘提供参考。  相似文献   

10.
为解决机器视觉对早期玉米苗带在多环境变量下导航线提取耗时长、准确率低的问题,该研究提出了一种基于中值点Hough变换作物行检测的导航线提取算法。首先,改进了传统的2G-R-B算法,再结合中值滤波、最大类间方差法和形态学操作实现土壤背景与玉米苗带的分割。其次,通过均值法提取玉米苗带特征点,然后采用中值点Hough变换拟合垄间两侧玉米苗列线,最后将检测出的双侧玉米苗列线为导航基准线,利用夹角正切公式提取导航线。试验结果表明:改进的灰度化算法能够正确分割玉米苗带与土壤,处理一幅640×480像素彩色图像平均耗时小于160 ms,基于中值点Hough变换检测玉米苗列再提取导航线的最大误差为0.53°,相比于传统Hough变换时间上平均快62.9 ms,比最小二乘法平均精确度提高了7.12°,在农田早期玉米苗带多环境变量影响因素下导航线提取准确率均达92%以上,具有较强的可靠性和准确性。  相似文献   

11.
为提高苹果采摘机器人的工作效率和环境适应性,使其能全天候的在不同光线环境下对遮挡、粘连和套袋等多种情况下的果实进行识别定位,该文提出了基于YOLOv3(you only look once)深度卷积神经网络的苹果定位方法。该方法通过单个卷积神经网络(one-stage)遍历整个图像,回归目标的类别和位置,实现了直接端到端的目标检测,在保证效率与准确率兼顾的情况下实现了复杂环境下苹果的检测。经过训练的模型在验证集下的m AP(meanaverageprecision)为87.71%,准确率为97%,召回率为90%,IOU(intersection over union)为83.61%。通过比较YOLOv3与Faster RCNN算法在不同数目、不同拍摄时间、不同生长阶段、不同光线下对苹果的实际检测效果,并以F1为评估值对比分析了4种算法的差异,试验结果表明YOLOv3在密集苹果的F1高于YOLOv2算法4.45个百分点,在其他环境下高于Faster RCNN将近5个百分点,高于HOG+SVM(histogram of oriented gradient+support vector machine)将近10个百分点。并且在不同硬件环境验证了该算法的可行性,一幅图像在GPU下的检测时间为16.69 ms,在CPU下的检测时间为105.21 ms,实际检测视频的帧率达到了60帧/s和15帧/s。该研究可为机器人快速长时间高效率在复杂环境下识别苹果提供理论基础。  相似文献   

12.
为减少采摘点定位不当导致末端碰撞损伤结果枝与果串,致使采摘失败及损伤率提高等问题,该研究提出了基于深度学习与葡萄关键结构多目标识别的采摘点定位方法。首先,通过改进YOLACT++模型对结果枝、果梗、果串等葡萄关键结构进行识别与分割;结合关键区域间的相交情况、相对位置,构建同串葡萄关键结构从属判断与合并方法。最后设计了基于结构约束与范围再选的果梗低碰撞感兴趣区域(region of interest, ROI)选择方法,并以该区域果梗质心为采摘点。试验结果表明,相比于原始的YOLACT++,G-YOLACT++边界框和掩膜平均精度均值分别提升了0.83与0.88个百分点;对单串果实、多串果实样本关键结构从属判断与合并的正确率分别为88%、90%,对关键结构不完整的果串剔除正确率为92.3%;相较于以ROI中果梗外接矩形的中心、以模型识别果梗的质心作为采摘点的定位方法,该研究采摘点定位方法的成功率分别提升了10.95、81.75个百分点。该研究为葡萄采摘机器人的优化提供了技术支持,为非结构化环境中的串类果实采摘机器人的低损收获奠定基础。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号