首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 515 毫秒
1.
为了提高奶牛乳房炎的检测精度,利用热红外图像测量奶牛关键部位温度,提出了一种奶牛眼睛和乳房自动定位算法。首先对奶牛热红外图像的灰度直方图进行分析,然后提取阈值分割后图像中的HSV(Hue,Saturation,Value)颜色特征和骨架特征,并基于HSV自动检测奶牛眼睛位置,计算骨架特征向量,用支持向量机(Support vector machine,SVM)分类技术自动检测奶牛乳房位置。为了验证定位算法的有效性,对随机选取的40头自然行走的奶牛进行试验验证,结果表明,本文提出的定位算法可以有效定位奶牛眼睛、乳房位置,其定位误差在20像素以内的视频帧识别精度为68. 67%。根据定位算法所获取的奶牛眼睛和乳房的温度差值进行奶牛乳房炎检测试验,通过温度阈值对奶牛乳房炎发病程度进行评级,并与体细胞计数法(Somatic cell count,SCC)检测结果进行对比,结果表明,等级1检测准确率为33. 3%,等级2检测准确率为87. 5%。本文研究结果能较准确获取奶牛自然行走状况下眼睛和乳房的位置和温度。  相似文献   

2.
本文介绍了一种基于红外光源得到的明暗瞳孔图像做差的人眼检测及跟踪方法,应用于疲劳驾驶检测系统。利用DSP芯片来控制红外光源,获取实时图像。采用差分图像进行人眼瞳孔图像的定位检测,利用卡尔曼滤波法跟踪人眼,以适时检测眼睛的开闭状态。该方法具有准确、快速、全天候且对驾驶员无干扰等优点。  相似文献   

3.
为了快速定位玉米植株位置,以苗期4~6叶玉米为研究对象,提出了一种苗期玉米冠层识别与质心定位方法。首先,在大田环境下获取农田作物视频数据,基于Faster R-CNN对玉米冠层进行识别;其次,用差分内积线性特性改进质心检测算法,对玉米冠层和杂草进行分割,并对玉米冠层识别区域进行质心定位计算,得到玉米苗质心的像素坐标;最后,通过农田实验对本文冠层识别与质心定位方法进行验证。结果表明,苗期玉米冠层识别方法的平均识别率达92. 9%,检测一帧图像的平均时间为0. 17 s,玉米冠层质心定位误差不超过1像素。  相似文献   

4.
基于激光雷达的巡检机器人导航系统研究   总被引:1,自引:0,他引:1  
智能巡检机器人能够高效、可靠地完成巡检任务,降低工作人员的劳动强度,准确、稳定的导航定位是巡检机器人执行巡检任务的基础。本文研究了基于激光雷达的巡检机器人导航系统,可实现机器人在室内外环境下的地图建立、路径规划和导航定位。导航系统由远程监控平台与巡检机器人组成,远程监控平台发布巡检任务、监控机器人状态、查询与存储检测数据,巡检机器人可实现自主导航定位、遍历检测点、执行数据采集等巡检任务,二者通过无线网络实现远程数据交互。融合激光雷达与编码器信息,使用高鲁棒性Gmapping算法建立二维环境地图。根据地图与检测点信息,采用分支界定算法搜索最优巡检路线,以减少巡检时间和能源消耗。使用自适应蒙特卡罗定位(AMCL)算法估计机器人位置和姿态,结合巡检路线,进行导航定位。根据横向偏差与航向偏差,通过经典的PID算法完成机器人驱动控制。机器人搭载可见光相机与红外相机,可对目标进行可见光通道与红外通道的融合图像检测。对巡检机器人进行了室内导航定位试验,试验结果表明,在1 m/s的速度下,位置与航向偏差的平均绝对误差(MAE)分别小于5 cm和1.1°,标准差(SD)分别小于5 cm和1.5°,能够满足巡检导航定位的要求。  相似文献   

5.
为了及时发现问题幼苗状态和提高幼苗分拣效率,本文以水培生菜幼苗培育过程中出现的死亡和双株状态为研究对象,提出一种基于FCN网格定位和特征融合的水培生菜幼苗状态检测方法。本方法在原有研究的基础上,针对双株状态幼苗检测精度低的问题,引入FCN架构改变原有边框回归方式,利用其对位置信息敏感的特性,获取精确的网格点空间信息。同时,利用特征融合策略,充分获取不同网格点间的相关性,实现对水培生菜幼苗问题状态的精准定位。实验结果表明,该方法的平均检测精度达到了88.1%,检测精度优于原有方法、FSAF、YOLO V3、FoveaBox、ATSS和CornerNet,尤其对双株状态的幼苗检测精度得到明显提升。因此,本文提出的方法能够实现水培生菜幼苗问题状态的自动检测,为水培蔬菜育苗分拣智能化及种植自动化提供技术支持。  相似文献   

6.
山羊的脸部检测对羊场的智能化管理有着重要的意义。针对实际饲养环境中,羊群存在多角度、分布随机、灵活多变、羊脸检测难度大的问题,以YOLO v5s为基础目标检测网络,提出了一种结合坐标信息的山羊脸部检测模型。首先,通过移动设备获取舍内、舍外、单头以及多头山羊的图像并构建数据集。其次,在YOLO v5s的主干网络融入坐标注意力机制,以充分利用目标的位置信息,提高遮挡区域、小目标、多视角样本的检测精度。试验结果表明,改进YOLO v5s模型的检测精确率为95.6%,召回率为83.0%,mAP0.5为90.2%,帧速率为69 f/s,模型内存占用量为13.2 MB;与YOLO v5s模型相比,检测精度提高1.3个百分点,模型所占内存空间减少1.2 MB;且模型的整体性能远优于Faster R-CNN、YOLO v4、YOLO v5s模型。此外,本文构建了不同光照和相机抖动的数据集,来进一步验证本文方法的可行性。改进后的模型可快速有效地对复杂场景下山羊的脸部进行精准检测及定位,为动物精细化养殖时目标检测识别提供了检测思路和技术支持。  相似文献   

7.
刘超  陈锦明  刘慧  肖鑫桦  沈跃 《农业机械学报》2023,54(4):214-221,240
为提高果园喷雾机器人在果园行间行走的自主性和安全性,提出一种基于三维激光雷达与优化DBSCAN算法的果树定位方法。首先,采用三维激光雷达获取果园的环境信息,通过感兴趣区域提取、地面点云分割和体素滤波降采样对原始点云数据进行预处理;然后,对DBSCAN算法进行优化,构建KD树索引有序化实时点云数据,并使用KD树最近邻搜索替代传统DBSCAN算法的遍历搜索方式,最后根据数据点到激光雷达的距离自适应确定聚类密度阈值,实现行间不同距离的果树检测;最后,以果树聚类结果的冠层边缘点为果树的定位参考点,得到果树定位参考点的坐标,计算果园喷雾机器人与果树的相对位置。试验结果表明:优化的DBSCAN算法相较于传统DBSCAN算法检测的准确性和实时性均有明显提升,果树的横向定位平均误差为2.6%,纵向定位平均误差为1.6%。该方法能够满足果园喷雾机器人在行间果树定位的准确性和实时性要求,为精准农业装备在林果园环境下的自主导航和作业提供有效参考。  相似文献   

8.
方君院  陆玲 《湖南农机》2011,38(1):142-143
文章提出了一种基于灰度积分投影的眼睛定位方法.在垂直方向上使用灰度差值积分投影进行眼睛定位,水平方向上使用灰度积分投影定位眼睛.该方法不仅适用于正面人脸,而且适用于侧面人脸.抬头和低头人脸.当图像中的人脸是倾斜的情况时,我们可以利用分块积分投影,因此也适用于脸部旋转的情况.该方法计算量小,并且通过实验可知,定位的准确度...  相似文献   

9.
基于立体视觉技术的多种农田障碍物检测方法   总被引:2,自引:0,他引:2  
从摄像机标定、图像获取、双目校正、立体匹配、深度计算等方面研究多种农田障碍物检测方法,分别用Bouguet算法进行立体校正、用区域匹配方法获取视差图、用三角测量方法计算障碍物的深度,获取了不同环境下的5种障碍物及其位置信息,并使用计算机视觉函数库OpenCV,提高了算法的实时性。试验表明:障碍物与摄像机的距离小于2 000 mm时,准确识别率在96%以上,深度的绝对误差在±30 mm内(即相对误差在1.5%以下),且完成一次障碍物检测的时间小于100 ms。  相似文献   

10.
基于红外热成像的生猪耳温自动提取算法   总被引:2,自引:0,他引:2  
针对利用红外热成像进行生猪体温自动提取困难的问题,在设施猪场生猪体温红外巡检装置的基础上,提出将生猪耳部区域作为其体温的代表区域,探索一种基于红外热像图的生猪耳温自动提取算法(IT-PETE)。该算法通过高效而准确地识别生猪耳部区域并提取耳部区域的温度最大值和平均值,实现生猪体温非接触式自动监测。IT-PETE算法首先用拉普拉斯算子对生猪热红外图像进行预处理,然后基于YOLO v4和形态学对热红外图像中的生猪耳部进行提取,并结合耳部分割图像和温度矩阵自动获取耳部区域温度的最大值和平均值。采用5折交叉验证方法训练生猪耳部区域检测模型,训练集和验证集图像共2000幅,测试集400幅。试验表明,YOLO v4耳部区域检测准确率为97.6%,比Faster R-CNN和SSD分别提高了2.0个百分点和7.8个百分点,单帧图像的平均检测时间为12ms。同时对20头猪的人工统计耳温数据与算法提取体温进行相关性分析,得到两者在耳部区域温度最大值和平均值的决定系数分别为0.9849和0.9119,表明IT-PETE算法对体温数据的提取具有可靠性和可行性。因此,IT-PETE算法在一定程度上可为生猪体温自动化监测和预警系统提供技术支撑。  相似文献   

11.
传统粮食收获过程中收割作业和卸粮作业是分开的,为了提高粮食收获效率,采用收获机-运粮车协同作业的方式,以实现不停车卸粮,并利用视觉检测粮箱装载状态,提供相对位置调整策略。首先,建立了收获机-运粮车模型,根据模型分析收获机与运粮车的位置关系;其次,对相机的安装位置和安装方式进行设计,采用相机俯仰角度和垂直位置可调的固定支架,保证方法和装置的通用性;最后,采用具有低畸变广角的彩色数字相机获取图像后利用视觉算法进行处理,得到粮箱装载状态。实验结果表明:本方法能够通过视觉检测出粮箱装载状态,根据装载状态调节运粮车与收获机的相对位置。  相似文献   

12.
针对自动化育苗流程中的嫁接苗移栽环节,提出了一种基于机器视觉的嫁接苗移栽实时定位系统。该系统能根据点云信息定位每次移栽嫁接苗时穴孔的位置,并且在穴盘受迫移动后重新定位穴孔的位置。具体的方法是通过RGB传感器与红外传感器获取工作区域内的点云信息,利用点云信息,首先离线标定传送带平面方程,进而根据实时的位置信息完成穴盘与背景的在线分离;接着从分离出的穴盘点云得到对应的二维掩膜,从掩膜中的单连通区域推算出每个穴孔的位置;针对穴盘移动之后的重定位,使用了基于随机采样一致算法的单应矩阵计算方法,由历史单应矩阵从初次定位的穴孔坐标计算出当前的穴孔位置。实验表明,该定位系统能有效定位穴孔的位置,满足嫁接苗移栽要求。  相似文献   

13.
针对采用机器视觉技术检测奶牛跛行过程中不易准确、自动定位牛蹄位置的问题,提出一种奶牛牛蹄定位方法。通过对可见光视频中奶牛图像预处理,提取牛蹄二值化图像,研究奶牛行走时空特性,分析牛蹄在图像中的时空变化,提出一种时空差值算法,计算连通域最低点坐标,实现对奶牛牛蹄着地位置准确定位;通过分析奶牛行走时牛蹄的运动顺序,对同侧牛蹄位置数据进行提取分类,用于轨迹提取,检测跛行。进行了牛蹄定位试验和跛行检测试验,结果表明,牛蹄定位准确,阈值为20像素时精度达到73. 8%,着地位置平均误差达到11. 3像素;奶牛跛行检测准确率为93. 3%,跛行分类准确率为77. 8%。研究结果能较准确定位奶牛自然行走状况下牛蹄位置,可实现奶牛跛行的自动检测。  相似文献   

14.
驾驶人获取外界客观信号,主要是通过视觉来获得。当多种信息流同时出现在驾驶人视野中时,就要决定注意哪些有用信息而忽视其他信息。这是驾驶人处理信息的第一步。如果吸引驾驶人注意的目标或事件不是处于视区的中央,驾驶人下一步就要把眼睛转向这些事件或目标,  相似文献   

15.
为了给设施番茄授粉机器人授粉提供可靠的定位技术,提出了一种基于3D视觉的番茄花朵定位方法。采用RGB-D结构光相机快速获取温室内番茄植株的彩色图和深度图信息,通过YOLO v4 (You only look once)神经网络对植株上番茄花束进行目标检测,并提取出授粉花束在图像中的二维区域;使用主动对齐方式结合PCL进行彩色图像和深度图像的粗对齐,利用区域内色系单视角线性遍历方法对提取的花束区域进行精配准,获得番茄花束的空间高精度点云信息;再使用统计滤波法剔除点云信息离群点后,结合双向均值法计算花束3D box的授粉质心坐标。定位试验结果表明,该方法在温室环境中能成功对花束进行识别定位,神经网络平均检测精度达97.67%,完成单幅图像花束提取时间为14.95ms,算法获取授粉质心坐标的平均时间约为300ms。后期在温室内验证,在花束被遮挡小于80%时,算法能够对番茄花朵进行精准定位,并成功执行授粉动作,为番茄授粉机器人提供了一种新的授粉点定位方法。  相似文献   

16.
基于热红外遥感影像的作物冠层温度提取   总被引:1,自引:0,他引:1  
热红外影像较难直接提取作物冠层区域,因而无法获得较精准的作物冠层温度。本文以拔节期的玉米为研究对象,利用六旋翼无人机搭载热红外成像仪和大疆精灵四Pro无人机,获得热红外影像及正射影像。基于高分辨率正射影像,采用改进的Canny边缘检测算子、支持向量机(Support vector machine,SVM)和小波变换3种方法提取玉米冠层区域,将提取结果进行二值化处理后,在热红外影像中以此生成掩膜并提取玉米冠层温度。应用提取的矢量面分析提取效果并对3种提取算法的精度进行评价。实验结果表明,改进的Canny边缘检测算子提取效果最优、SVM算法次之、小波变换最差,提取精度分别为87. 3%、74. 5%、68. 2%。同时,将手持测温仪测得的玉米冠层温度与提取的冠层温度进行误差分析,结果表明,基于改进的Canny边缘检测算子提取的玉米冠层温度与地面实测值相关性最高,决定系数R~2=0. 929 5,SVM算法决定系数R~2=0. 895 7,小波变换决定系数R2=0. 876 0。改进的Canny边缘检测算子能够更好地提取玉米冠层区域,获取更加精确的玉米冠层温度,从而能够更有效地监测玉米生理状况,进行旱情预测,制定合理的灌溉、施肥措施以提高玉米产量。  相似文献   

17.
黄瓜采摘机器人远近景组合闭环定位方法   总被引:5,自引:0,他引:5  
针对黄瓜采摘机器人远景定位精度不高,以致切伤果实和茎蔓的问题,设计了一种基于机器视觉具有空间位置反馈功能的末端执行器。对温室环境下黄瓜果实采摘区域图像信息获取方法加以研究,综合HIS色彩空间H、S分量进行阈值分割,结合RGB色彩空间G通道边缘分布特征以及黄瓜形状特征,提取黄瓜采摘区域。基于摄像机线性透视模型,研究了采摘切割点空间定位方法,最终向采摘机械臂控制器反馈位置微调信息。采用远近景组合闭环定位方法,对采摘目标进行闭环定位,有效地解决了采摘机器人一次远景定位误差较大的问题。试验结果表明,排除温室复杂光照情况,机器人末端执行器定位精度达到2mm,满足采摘作业要求。  相似文献   

18.
基于双目相机与改进YOLOv3算法的果园行人检测与定位   总被引:2,自引:0,他引:2  
景亮  王瑞  刘慧  沈跃 《农业机械学报》2020,51(9):34-39,25
针对复杂果园环境中行人难以精确检测并定位的问题,提出了一种双目相机结合改进YOLOv3目标检测算法的行人障碍物检测和定位方法。该方法采用ZED双目相机采集左右视图,通过视差原理获取图像像素点的距离信息;将双目相机一侧的RGB图像作为用树形特征融合模块改进的YOLOv3算法的输入,得到行人障碍物在图像中的位置信息,结合双目相机获得的像素位置信息计算出相对于相机的三维坐标。用卡耐基梅隆大学国家机器人工程中心开放的果园行人检测数据集测试改进的YOLOv3算法,结果表明,准确率和召回率分别达到95.34%和91.52%,高于原模型的94.86%和90.19%,检测速度达到30.26 f/ms。行人检测与定位试验表明,行人障碍物的定位在深度距离方向平均相对误差为1.65%,最大相对误差为3.80%。该方法具有快速性和准确性,可以较好地实现果园环境中的行人检测与定位,为无人驾驶农机的避障决策提供依据。  相似文献   

19.
在无线传感器网络节点定位过程中,三边定位算法常结合测距算法获取未知节点的位置信息。本文针对现有的三边定位算法定位精度低、适用范围小和需要多次发送定位数据包导致节点能耗增大等问题,提出一种修正补偿测量距离的三边定位算法。相比常见发送多次定位数据包然后进行滤波计算降低定位误差的方法,本文采用对数常态-模型测量节点间距离,发送较少定位数据包,通过判断三锚节点圆的相对位置,对由于测距误差较大导致节点圆不相交的三种情况进行修正补偿,采用基于质心算法的三边定位算法计算未知节点坐标。通过搭建MATLAB仿真试验,验证算法可行性及定位精度,试验结果表明,本文提出的修正补偿的三边定位算法综合考虑了定位精度、算法复杂度以及节点功耗三者之间的关系,适用范围更广,定位误差小于15%。  相似文献   

20.
PERCLOS法能方便的对驾驶员进行实时、非接触式疲劳检测,在肤色检测的基础上结合眼睛的形状并利用梯度信息定位眼睛,通过计算眼睛的面积变化来确定眼睛的睁开、闭合状态,记录眼睛睁开闭合的次数及其开始、结束时刻,计算PEKCLOS值,当PERCLOS值大于40%,眼睛持续闭合时间大于3 S时,就认为驾驶员属于疲劳驾驶.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号