首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   5篇
  免费   0篇
  国内免费   2篇
基础科学   4篇
  2篇
综合类   1篇
  2023年   1篇
  2017年   1篇
  2010年   2篇
  2009年   1篇
  2008年   2篇
排序方式: 共有7条查询结果,搜索用时 15 毫秒
1
1.
基于垄线平行特征的视觉导航多垄线识别   总被引:11,自引:10,他引:1  
为有效快速地识别农田多条垄线以实现农业机器人视觉导航与定位,提出一种基于机器视觉的田间多垄线识别与定位方法。使用VC++ 6.0开发了农业机器人视觉导航定位图像处理软件。该方法通过图像预处理获得各垄行所在区域,使用垂直投影法提取出导航定位点。根据摄像机标定原理与透视变换原理,计算出各导航定位点世界坐标。然后结合垄线基本平行的特征,使用改进的基于Hough变换的农田多垄线识别算法,实现多垄线的识别与定位。使用多幅农田图像进行试验并在室内进行了模拟试验。处理一幅320×240的农田图像约耗时219.4 ms,室内试验各垄线导航距与导航角的平均误差分别为2.33 mm与0.3°。结果表明,该方法能有效识别与定位农田的多条垄线,同时算法的实时性也能满足 要求。  相似文献   
2.
基于图像特征点粒子群聚类算法的麦田作物行检测   总被引:8,自引:8,他引:0  
为了快速准确地提取麦田作物行中心线,提出了基于图像特征点粒子群聚类算法的麦田作物行检测。首先,对自然光照下获取的彩色图像运用"过绿颜色因子图像灰度化"、"Otsu图像二值化"、"左右边缘中间线检测提取作物行特征点算法"3步对图像进行预处理。然后,根据农田作物行中心线周围区域的特征点到该直线的距离均小于某一距离阈值的特征,运用粒子群优化算法对每一作物行的特征点分别进行聚类。最后,对每一类的特征点用最小二乘法进行直线拟合获取麦田作物行中心线。试验结果表明,该算法可以对作物断行、杂草、土块等复杂农田环境下的图像进行有效地作物行检测,识别率达95%,识别误差小于3°。与标准Hough算法相比,运行速率提升了一倍。该文可为实现农业机器人田间作业提供参考。  相似文献   
3.
机器视觉在农业机器人自主导航系统中的研究进展   总被引:1,自引:0,他引:1  
自主导航是移动机器人的关键技术.机器视觉由于信息量大和人性化特征,视觉导航已成为农业机器人获得导航信息的一种主要方式.为此,综合分析了目前国内外视觉导航技术的研究现状及其存在的问题;同时,探讨了研究中需要解决的关键技术.最后,展望了农业机器人视觉导航技术的发展趋势.  相似文献   
4.
基于最小二乘法的早期作物行中心线检测方法   总被引:11,自引:0,他引:11  
提出了一种基于最小二乘法的早期作物行中心线检测算法.利用G-R颜色特征因子分割作物与背景.根据作物与杂草的长度属性去除部分杂草噪声,应用垂直投影法动态检测作物行数,并提取作物行中点为特征点,获得特征点图像.利用特征点间的邻近关系对特征点进行分类,对归类后的特征点进行两次最小二乘法拟合,得到作物行中心线.对于有作物缺失的作物行,采用统计条形区域内特征点数量的方法判别检测结果的可信度.实验结果表明,算法能克服杂草和作物缺失的影响,实时地提取小麦、玉米和大豆作物行,平均每幅图像处理时间小于150 ms.  相似文献   
5.
基于最小二乘法的早期作物行中心线检测方法   总被引:1,自引:0,他引:1  
提出了一种基于最小二乘法的早期作物行中心线检测算法。利用G-R颜色特征因子分割作物与背景。根据作物与杂草的长度属性去除部分杂草噪声,应用垂直投影法动态检测作物行数,并提取作物行中点为特征点,获得特征点图像。利用特征点间的邻近关系对特征点进行分类,对归类后的特征点进行两次最小二乘法拟合,得到作物行中心线。对于有作物缺失的作物行,采用统计条形区域内特征点数量的方法判别检测结果的可信度。实验结果表明,算法能克服杂草和作物缺失的影响,实时地提取小麦、玉米和大豆作物行,平均每幅图像处理时间小于  相似文献   
6.
基于机器视觉和随机方法的作物行提取算法   总被引:6,自引:3,他引:3  
根据农田作物图像特点,采用基于垂直投影的窗口移动方法,得到代表作物行的定位点,提出了基于机器视觉和随机方法的作物行提取算法.该算法从定位点中随机选取2个不同点,决定一条候选直线,再根据阈值规则,进一步判断候选直线的真实性.实验结果表明,该算法可以提取不同作物的作物行,处理一幅640×480像素的彩色图像平均需要220 ms,正确识别率达98%.  相似文献   
7.
为了实现自然环境下疏果前苹果的快速识别和精确定位,满足果园智能化种植需求,提出了一种基于改进的YOLOv5深度学习的检测模型。首先,为了解决苹果的尺度大小不一带来的问题,改进目标检测层,在YOLOv5的第17层之后对特征图进行上采样,在第20层将网络提取到的特征图与Backbone网络中的第2层特征图进行融合操作,以生成不同尺寸的检测层。其次,为了克服复杂环境的影响,改进特征融合网络,使用BiFPN(Bidirectional Feature Pyramid Network))进行特征融合,来更有效地提取目标信息。最后,将采集到的苹果图像进行不同网络模型检测效果对比试验。试验表明,改进的模型经过8 274幅图像训练,在2 759幅测试集上的检测准确率为94.2%,召回率为95.2%,F1值为94.7%;相比YOLOv3、YOLOv4、原YOLOv5网络,准确率分别提高了4.4%、7.0%、2.3%,F1值分别提高6.1%、6.5%、2.6%;相比YOLOv3、YOLOv4网络,图像的检测速度分别提高了13.5、21.4 ms/幅。结果表明,在...  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号