首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 265 毫秒
1.
基于模式识别的农田目标定位线检测   总被引:6,自引:3,他引:3  
根据农田图像的特点,采用K-means模式识别算法,实现农作物与背景的分离.通过对二值图像进行水平扫描.检测定位区域和定位点,利用定位点的坐标信息确定聚类判别函数,实现农田目标定位线的检测.多幅农田图像实验表明,定位线能够正确提取出来.该算法处理640×480像素的彩色图像蒂要0,12 s,在自动导航系统中是一种有效、快速的图像处理算法.  相似文献   

2.
针对光照不均、噪声大、拍摄质量不高的夜晚水下环境,为实现夜晚水下图像中鱼类目标的快速检测,利用计算机视觉技术,提出了一种基于改进Cascade R-CNN算法和具有色彩保护的MSRCP(Multi-scale Retinex with color restoration)图像增强算法的夜晚水下鱼类目标检测方法。首先针对夜晚水下环境的视频数据,根据时间间隔,截取出相应的夜晚水下鱼类图像,对截取的原始图像进行MSRCP图像增强。然后采用DetNASNet主干网络进行网络训练和水下鱼类特征信息的提取,将提取出的特征信息输入到Cascade R-CNN模型中,并使用Soft-NMS候选框优化算法对其中的RPN网络进行优化,最后对夜晚水下鱼类目标进行检测。实验结果表明,该方法解决了夜晚水下环境中的图像降质、鱼类目标重叠检测问题,实现了对夜晚水下鱼类目标的快速检测,对夜晚水下鱼类图像目标检测的查准率达到95.81%,比Cascade R-CNN方法提高了11.57个百分点。  相似文献   

3.
面向复杂背景环境目标的快速识别研究   总被引:1,自引:0,他引:1  
面向复杂背景环境的定位目标的快速识别是野外作业机器人的关键技术,以柑橘为例,研究了自然环境下基于彩色信息的目标定位的识别方法。首先,采用YCbCr颜色模型来分析柑橘彩色图像的颜色和灰度特征,并通过Otsu与FCM分割算法相结合对在不同光照条件下拍摄的彩色目标图像进行分割;然后,利用形态学数学和区域标记消除分割后产生的随机噪声;最后,用凸包算法提取果实形状特征,并通过凸包算法来判定是否为柑橘和是否可采。对500张彩色柑橘图像进行分割,结果表明采用Cr颜色分量和Otsu与FCM算法相结合有效地解决复杂自然光照下的分割问题;对963个柑橘进行了凸包算法识别试验,总体识别率达87.53%。凸包算法对遮挡图像也可进行高效识别,并能快速、准确地提取柑橘目标的质心坐标。  相似文献   

4.
现有车标定位技术大多研究正向、具有对称性特点的车辆图像,难以有效解决光线干扰、车辆图像扭曲等复杂应用场景下的车标定位问题。针对该问题,基于非限制场景ALPR系统并结合迁移学习的技术,研究车标定位问题:首先基于ALPR系统精确定位车牌的位置,其次根据车牌和车标的相对位置关系,对车牌位置的4个顶点进行线性变换,最后得到包含车标区域的4个顶点坐标,并依据坐标进行相应透视变换,提取包含车标的区域。在测试集上的测试结果表明:输入正向视角的车辆图像时,定位精度达到99.28%,输入倾斜视角的车辆图像时,定位包含车标区域的准确率为96.56%。  相似文献   

5.
基于改进投影法的车牌精确定位算法研究   总被引:1,自引:0,他引:1  
结合车辆牌照的结构特点及先验知识,通过对车牌特征和定位技术的深入研究,本文在对车牌图像进行灰度化、二值化等预处理操作的基础上,提出了基于水平投影和垂直投影的一种改进的车牌定位算法,并进行了仿真实验,实验结果表明:该算法对车牌定位具有精度高、速度快、鲁棒性好等优良特点,为本研究的后续工作车牌字符分割和识别打下了良好基础.  相似文献   

6.
基于改进凸壳理论的遮挡油茶果定位检测算法   总被引:3,自引:0,他引:3  
李立君  阳涵疆 《农业机械学报》2016,47(12):285-292,346
针对传统凸壳理论进行遮挡果实定位检测时由于过多剔除有效轮廓,造成目标果实定位误差较大,甚至无法识别目标果实的问题,提出了一种基于改进凸壳理论的遮挡油茶果定位检测算法。首先利用基于颜色特征的阈值分割法对油茶果遮挡图像进行目标分割,并通过预处理操作剔除图像中的背景噪声,获得目标果实的二值图像;然后采用凹点搜寻算法检测重叠目标的凹点,并根据凹点对重叠目标进行分离,获得相互独立的目标图像;再构建各独立目标的凸包,并提取凸壳,利用轮廓提取算法确定各独立目标凸壳上的有效轮廓;最后根据提取的有效轮廓求解目标果实形心坐标和半径,完成遮挡果实的定位检测。试验结果表明,改进算法平均耗时为0.491 s,比传统凸壳方法增加了24.07%,但其仅占油茶果采摘机器人单个果实采摘周期的2.46%,对于图像中的遮挡油茶果目标,改进方法的识别率达到93.21%,相比传统凸壳方法提升了7.47个百分点,改进算法的平均定位检测误差和平均重合度分别为5.53%和93.43%,比传统凸壳算法平均定位误差降低了6.22个百分点,平均重合度提高了6.79个百分点,表明文中所提出的方法能够较好地识别和定位自然环境中的遮挡油茶果。  相似文献   

7.
车牌自动识别系统是智能交通系统中的关键技术,而车牌的定位和分割是实现这一技术的首要环节。介绍了一种基于灰度跳变特征的汽车牌照图像定位、分割系统,利用预处理后的汽车图像的灰度特征完成车牌的定位,并结合车牌区域的投影特点完成字符分割,同时采用线性拟合的方法避免了车牌悬挂角度对字符分割过程的影响。该系统在MATLAB环境下实现,可以实现快速、准确的车牌字符定位。  相似文献   

8.
西红柿采摘机器人视觉系统的目标提取   总被引:21,自引:6,他引:15  
提出了基于色彩分通道法的果实目标提取方法。该方法是先将彩色图像在色彩空间中分解成多个单通道图像,再对每个通道图像进行分割,最后综合各通道结果得到彩色图像的整体分割结果。采用该方法对西红柿图像在Lab色彩空间下进行试验,结果表明此方法简单快速,得到的果实目标较清晰准确,可满足图像后续处理的需要。  相似文献   

9.
为了解决近色背景果实识别困难问题,针对果实近球形的形态特性,提出了一种利用深度图像从果实形态角度进行果实识别定位的算法。该算法使用深度摄像头获取果树的深度图像,通过深度图像计算出各像素点的梯度向量,将梯度向量看作运动矢量场,并计算出矢量场的散度,根据散度最大原则,从矢量场中搜索出辐散中心点;然后利用果实和叶片等深图像的差异从辐散中心点中筛选出果实中心点,以果实中心点为起点采用八方向搜索方法搜索出果实边界点,将果实边界点依次连接后形成的封闭区域内的果实图像导入点云;最后根据果实图像部分点云利用RANSAC算法求出目标果实的拟合球形,进而得出果实的尺寸以及三维空间位置。该算法无需传统算法需要利用的颜色特征,而仅利用了深度图像中的深度信息进行果实识别定位,能够克服传统算法受色彩、光照等因素影响的弊端,并且由于该算法完全没有利用到彩色图像信息,因此不仅可以实现绿色果实的识别定位,还可以实现采摘机器人在夜间环境下正常工作,为复杂环境下的果实识别定位算法研究提供了技术支撑。  相似文献   

10.
为了给设施番茄授粉机器人授粉提供可靠的定位技术,提出了一种基于3D视觉的番茄花朵定位方法。采用RGB-D结构光相机快速获取温室内番茄植株的彩色图和深度图信息,通过YOLO v4 (You only look once)神经网络对植株上番茄花束进行目标检测,并提取出授粉花束在图像中的二维区域;使用主动对齐方式结合PCL进行彩色图像和深度图像的粗对齐,利用区域内色系单视角线性遍历方法对提取的花束区域进行精配准,获得番茄花束的空间高精度点云信息;再使用统计滤波法剔除点云信息离群点后,结合双向均值法计算花束3D box的授粉质心坐标。定位试验结果表明,该方法在温室环境中能成功对花束进行识别定位,神经网络平均检测精度达97.67%,完成单幅图像花束提取时间为14.95ms,算法获取授粉质心坐标的平均时间约为300ms。后期在温室内验证,在花束被遮挡小于80%时,算法能够对番茄花朵进行精准定位,并成功执行授粉动作,为番茄授粉机器人提供了一种新的授粉点定位方法。  相似文献   

11.
为了准确、快速地定位行进中的车牌,基于车牌的颜色特征、车牌轮廓特征及车牌上字符特征等易于定位的图像融合特征,采用HSV空间色彩划分法,保持图像的色度不变,并对图像的饱和度和亮度分别做相应的同态滤波处理,从而对行进中的车牌进行定位检测。定位检测结果表明,该方法具有很高的准确性与鲁棒性,能满足实际定位要求。  相似文献   

12.
曹倩  王库 《农业机械学报》2009,40(Z1):187-189
研究了农田非结构环境下,通过机器视觉提取导航线的处理算法.首先,根据农作物的特点提出了使用聚类的方法检测作业区域终点;其次,为避免噪声干扰,利用移动窗口检测二值图像白色像素的个数,确定导航路径区域;最后,使用改进的Hough变换提取导航线.实验表明,该算法可以准确提取绿色植物的行信息,处理一帧分辨率为320×240像素的彩色图像平均需要57.404ms,正确识别率达99%.  相似文献   

13.
提出了一种基于人脸肤色信息结合Adaboost联级检测的人脸检测算法,对彩色图像中的人脸进行定位。首先,该方法在YCb Cr彩色空间下,利用肤色检测粗定位人脸,过滤掉一些非肤色区域,然后对肤色检测处理后的图像进行二值化,并以此作为模板,对原图像进行掩膜处理,再用Adaboost联级算法对掩膜后的图像进行检测。检测结果证明,所用的方法缩小了Adaboost联级算法的检测区域,提高了检测速度,并且减少了单一的Adaboost联级算法的误检率,可以在一定程度上避免Adaboost联级算法对大量非人脸样本的依赖性,从而减少训练时间。  相似文献   

14.
针对输送带场景中羊肉分体需要进一步分类检测问题,提出一种基于单阶段目标检测算法的羊肉多分体实时分类检测方法.在羊屠宰车间环境下采集包含多类、多个羊肉分体图像,经图像增广及归一化后建立羊肉多分体图像数据集,其中训练集7 200幅,测试集1400幅,验证集400幅.利用单阶段目标检测算法YOLO v3引入迁移学习对羊肉多分...  相似文献   

15.
目前猪群图像检测均为基于水平框的目标检测算法,对于图像中猪体粘连和相互遮挡情况检测率较低,针对图像中的猪只长宽比例较大和可能发生任意角度旋转的特点,提出了一种基于双扩张层和旋转框定位的群猪目标检测算法(Dual dilated layer and rotary box location network, DR-Net)。采集3个猪场的群猪图像,利用数据增强保留9 600幅图像制作数据集;基于膨胀卷积搭建提取图像全局信息的双扩张层,借鉴Res2Net模块改进CSP层融合多尺度特征,猪只目标以旋转框定位并采用五参数表示法在模型训练中利用Gaussian Wasserstein distance计算旋转框的回归损失。试验结果表明,DR-Net对猪只目标识别的精确率、召回率、平均精确率、MAE、RMSE分别为98.57%、97.27%、96.94%、0.21、0.54,其检测效果优于YOLO v5,提高了遮挡与粘连场景下的识别精度和计数精度。利用可视化特征图分析算法在遮挡和粘连场景下能够利用猪只头颈部、背部或尾部特征准确定位目标。该研究有助于智能化猪场建设,可为后续猪只行为识别研究提供参考。  相似文献   

16.
基于MMC与CV模型的苗期玉米图像分割算法   总被引:1,自引:0,他引:1  
程玉柱  陈勇  张浩 《农业机械学报》2013,44(11):266-270
针对苗期玉米田复杂土壤背景噪声,提出一种基于MMC(最大间隔准则)与CV(Chan-Vese)模型的玉米彩色图像分割算法。利用MMC对玉米彩色图像灰度化,用TV(全变分)滤波器对灰度图像进行去噪,用CV模型对去噪图像进行图像分割。试验结果表明,算法优于传统的颜色因子与Otsu组合算法,能有效去除图像中的小杂草和青苔,实现玉米目标提取,错分率为4.32%,漏分率为9.69%,相似度为86.57%。  相似文献   

17.
提出了一种改进的、基于小波多尺度和多分辨率特征的数字图像边缘检测算法,分别利用不同尺度的、小波变换后的、水平方向和垂直方向的高频信息,根据李氏指数与小波变换关系,采用小波模极大值在不同尺度下传播的特性,检测出图像在两个方向的极大值,然后利用模糊算法构造相应的隶属函数,提取弱边缘信息,最后得到不同尺度下的边缘图像.通过该算法对杂草图像仿真实验和经典的两种算子对比,证明该算法可以兼顾良好的边界定位、噪声抑制和弱边界检测等性能指标,能有效地解决传统边缘检测方法中存在的精确及强去噪能力之间的矛盾.  相似文献   

18.
为实现大规模养殖场内奶牛目标的自动提取,将相关滤波算法融入目标提取基本框架,提出一种相关滤波融合边缘检测的奶牛目标提取(Correlation filtering-edge detection based target extraction, CFED)算法。首先利用颜色名(Color names, CN)、方向梯度直方图 (Histogram of oriented gradient, HOG)设计的相关滤波器获取奶牛目标范围;再利用13个不同方向的边缘滤波模板卷积目标范围图像得到图像边缘,最后融合边缘信息和颜色特征提取出奶牛目标。对奶牛场不同环境下的9段视频进行目标提取试验,结果表明,算法提取的目标与真实结果平均重叠率达到92.93%,较Otsu、K-means聚类、帧间差分法和高斯混合模型(Gaussian mixture model,GMM)分别高35.63、32.84、20.28、14.35个百分点;平均假阳性率和假阴性率分别为5.07%和5.08%,处理每帧图像平均耗时0.70s。该结果表明,提出的CFED算法具有较好的目标检测能力,为奶牛目标准确快速提取提供了一个有效方法。  相似文献   

19.
车型识别是智能交通系统的重要组成部分。针对特定类车辆脸部特征相近,提取车头特征易导致模型辨别力差、识别精度低等问题。提出了一种基于车辆侧面特征的车型识别方法。采用卷积神经网络实现对不同类型车辆的检测,使用统计模型计算目标车辆的横向位置。建立双相机(触发相机和抓拍相机)协同跟踪模型,利用感知哈希算法,对目标车辆实现判别式跟踪。最后抓拍相机完成车辆正面抓拍,完成目标车辆的车牌识别。最终的检测实验结果取得了81.94%的平均正确均值(Mean Average Precision,mAP)。  相似文献   

20.
基于机器视觉的育苗穴盘定位与检测系统   总被引:1,自引:0,他引:1  
针对嫁接苗自动移栽机器人,提出了一种基于器视觉的育苗穴盘定位与检测系统.该系统不仅能够确定育苗穴盘在传送带上的位置,而且能够获得各穴孔内的基质深度和三维形状信息.其方法是利用彩色图像与深度图像的注册,从彩色图像中检测穴盘轮廓,结合穴盘规格,实现深度图像中穴盘各穴孔的分割;利用分割后的深度图像对每个穴孔生成三维点云,结合最近邻算法与主成分分析算法计算各点的法向量,基于该法向量实现穴孔侧壁与穴底基质的分割,进而获得基质的深度.试验表明,该系统能够有效定位穴盘并检测基质深度,平均定位误差为3.5 mm,深度检测误差为4.9 mm,满足嫁接苗自动移栽机器人的控制要求.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号