首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
基于热红外成像与骨架树模型的奶牛眼温自动检测   总被引:1,自引:0,他引:1  
针对现有方法无法实现奶牛热红外图像中眼温信息自动获取的问题,为实现奶牛眼温无接触、自动、高精确检测,提出了一种基于热红外成像技术与骨架树模型的奶牛眼温自动检测方法。首先,在获得奶牛侧面热红外图像的基础上,利用基于差距度量的阈值分割方法提取奶牛目标,对奶牛骨架进行精确提取,并构建了奶牛骨架树模型,在该模型上对奶牛头部区域进行准确定位;然后,根据头部轮廓的形状特征与眼睛几何位置特征,对奶牛眼睛区域中心点进行准确定位;最后,以眼睛中心点为圆心,以半径为20像素区域内的最高温度作为眼睛温度,对奶牛热红外图像中眼温进行自动检测。为验证本文方法的有效性,随机选取来自50头奶牛的100幅侧视热红外图像进行了试验,结果表明,采用本文方法检测结果的平均绝对误差为0.35℃、平均相对误差为0.38%,具有较高的精度。本研究可为奶牛体温非接触、自动化、高精度检测提供技术支撑。  相似文献   

2.
针对大豆机械化收获过程中缺少联合收获机作业质量(破碎含杂率)在线监测装置的问题,提出了基于机器视觉的大豆机械化收获图像采集系统、大豆成分分类识别算法和谷物联合收获机作业质量监测方法.采用改进分水岭算法对大豆图像进行有效分割,筛选RGB和HSV颜色空间特征值,基于颜色特征值对分割后大豆图像各闭合区域进行分类识别,构建了量...  相似文献   

3.
基于RGB-D相机的果树三维重构与果实识别定位   总被引:4,自引:0,他引:4  
为实现对果园果实机器人采摘提供科学可靠的技术指导,提出了一种基于RGB-D相机的苹果果树三维重构以及进行果实立体识别与定位的方法。使用RGB-D相机快速获取自然光照条件下果树的彩色图像和深度图像,通过融合果树图像彩色信息和深度信息实现了果树的三维重构;对果树的三维点云进行 R-G 的色差阈值分割和滤波去噪处理,获得果实区域的点云信息;基于随机采样一致性的点云分割方法对果实点云进行三维球体形状提取,得到每个果实质心的三维空间位置信息和果实半径。实验结果表明,提出的果树三维重构和果实立体识别与定位方法具有较强的实时性和鲁棒性,在0.8~2.0 m测量范围内,顺光和逆光环境中果实正确识别率分别达95.5%和88.5%;在果实拍摄面的点云区域被遮挡面积超过50%的情况下正确识别率达87.4%;果实平均深度定位偏差为8.1 mm;果实平均半径偏差为4.5 mm。  相似文献   

4.
基于多源图像融合的自然环境下番茄果实识别   总被引:1,自引:0,他引:1  
蔬果采摘机器人面对的自然场景复杂多变,为准确识别和分割目标果实,实现高成功率采收,提出基于多源图像融合的识别方法。首先,针对在不同自然场景下单图像通道信息不充分问题,提出融合RGB图像、深度图像和红外图像的多源信息融合方法,实现了机器人能够适应自然环境中不同光线条件的番茄果实。其次,针对传统机器学习训练样本标注低效问题,提出聚类方法对样本进行辅助快速标注,完成模型训练;最终,建立扩展Mask R-CNN深度学习算法模型,进行采摘机器人在线果实识别。实验结果表明,扩展Mask R-CNN算法模型在测试集中的检测准确率为98.3%、交并比为0.916,可以满足番茄果实识别要求;在不同光线条件下,与Otsu阈值分割算法相比,扩展Mask R-CNN算法模型能够区分粘连果实,分割结果清晰完整,具有更强的抗干扰能力。  相似文献   

5.
奶牛表型特征是评价奶牛成长状况的一项重要参数,为减少奶牛的应激性且能便捷地获取奶牛几何表型尺寸,运用图像处理技术提取奶牛表型特征参数,设计了一款针对深度图像和点云数据的奶牛几何表型特征获取系统。对奶牛深度图像采用背景减去法、阈值分割、滤波和空洞填充等方法获取奶牛目标区域,对目标采用边缘检测、角点检测和凸包运算等检测特征点,最后对应点云数据获得奶牛表型特征尺寸。系统现场试验结果表明,系统获取的体重准确性在98%以上,体尺准确性在96%以上,系统工作稳定、测量精度高,为实现数字化养殖打下了基础,具有很好的应用前景。  相似文献   

6.
基于融合显著图与GrabCut算法的水下海参图像分割   总被引:1,自引:0,他引:1  
为实现海参捕捞和海参疾病诊断的自动化,应先解决真实养殖环境下海参的图像目标分割问题。为此提出一种融合显著图模型和GrabCut算法的水下海参图像分割方法。该方法改进了传统的GrabCut算法,通过对单尺度Retinex算法分析,对水下图像进行增强,结合基于区域对比度的显著性区域检测方法和直方图均衡的方法,得到海参区域图像的部分前景和可能的背景,并以此初始化GrabCut算法的掩膜,最后进行GrabCut算法迭代,得到图像目标分割结果。通过与Otsu法、分水岭法、传统GrabCut算法对比分析表明:所提方法能够准确分割出图像中海参目标,并能克服背景噪声,保留目标图像细节,算法正确分割率达到90.13%,满足海参图像目标分割的 需要。  相似文献   

7.
奶牛表型特征是评价奶牛成长状况的一项重要参数,为减少奶牛的应激性且能便捷地获取奶牛几何表型尺寸,运用图像处理技术提取奶牛表型特征参数,设计了一款针对深度图像和点云数据的奶牛几何表型特征获取系统。对奶牛深度图像采用背景减去法、阈值分割、滤波和空洞填充等方法获取奶牛目标区域,对目标采用边缘检测、角点检测和凸包运算等检测特征点,最后对应点云数据获得奶牛表型特征尺寸。系统现场试验结果表明,系统获取的体重准确性在98%以上,体尺准确性在96%以上,系统工作稳定、测量精度高,为实现数字化养殖打下了基础,具有很好的应用前景。   相似文献   

8.
为实现射线图像复杂大背景下微小目标检测,研究强噪声、大灰度梯度下微小缺陷的分割方法。提出面向射线图像的视觉显著度模型,模拟人眼视觉注意机制,采用线扫描及自适应中央-周边差策略,以视觉显著度为尺度,通过特征图计算与融合、显著图获取等算法,从射线图像复杂背景中分割出注意区域;进一步通过显著度竞争标记排序各注意区域,并根据显著度阈值识别可疑缺陷区域,由此减少图像数据处理量,排除射线图像其他部分的干扰。提出以显著图上可疑区域的注意焦点为种子点,基于各点显著度的区域生长分割方法,实现了可疑区域图像中微小缺陷目标的准确提取。在复杂大背景X射线图像的实验中,准确提取出含有未知缺陷目标的区域,对微小目标的分割取得了较好效果,准确率达到96.1%,比传统方法高8%以上,证明了所提方法的有效性和适应性。  相似文献   

9.
赵毅 《现代农机》2023,(5):65-67
常规水果采摘机械目标识别方法多数采用特征阈值化法,对水果图像进行分割处理,不能根据水果图像中某些目标存在的共同特征将其分割为特定区域,无法为目标识别提供有力支持,降低了水果采摘机械目标识别的精确率。基于此,引入机器视觉技术原理,以类球状水果为例,提出了一种全新的水果采摘机械目标识别方法。利用高性能的拍摄相机,随机选取类球状水果进行图像采集与预处理,获取特征突出、不存在噪声点的图像,采用机器视觉技术设计图像分割算法,将图像划分为多个超像素块,对类球状水果图像边缘进行平滑处理,获取融合特征的类球状水果采摘机械目标识别显著图,完成机械目标识别。实验分析可知,通过这方法识别类球状水果采摘机械目标,其识别结果的精确率、召回率与调和平均值等三个评测指标均≥95.38%,识别效果优势显著。  相似文献   

10.
基于EfficientNet与点云凸包特征的奶牛体况自动评分   总被引:2,自引:0,他引:2  
赵凯旋  刘晓航  姬江涛 《农业机械学报》2021,52(5):192-201,73
为进一步提高奶牛体况自动评分精度,构建了一种基于点云凸包距离的三维结构特征图,将其作为EfficientNet深度学习网络的输入,可实现奶牛体况自动评分误差在0.25以内识别的准确率提升。首先,对获取的奶牛背部深度图像进行预处理,得到含有主要体况信息从奶牛腰角骨到臀骨区域的点云;其次,对点云进行体素化和凸包化,计算每个外围体素到最近凸包面之间的距离,并投影至X-Y平面上,得到结构特征图;构建EfficientNet网络分类模型,采用鲸鱼优化算法(Whale optimization algorithm, WOA)对其缩放系数进行优化;最后,利用77头奶牛的5119幅深度图像对模型进行训练、验证与测试,数据集比例为5∶3∶2。结果表明,奶牛体况评分(BCS)范围在2.25~4.00内,测试集中EfficientNet模型精准识别的图像达到73.12%,BCS识别误差在0.25和0.50以内的图像占比分别为98.6%和99.31%,平均识别速率为3.441s/f,识别效果优于MobileNet-V2、XceptionNet和LeNet-5等模型。该方法可实现规模化养殖场中奶牛个体体况的无接触评定,具有精度高、适用性强、成本低等特点。  相似文献   

11.
基于视频分析的奶牛呼吸频率与异常检测   总被引:7,自引:0,他引:7  
为实现奶牛呼吸状态信息获取的自动化、智能化,在构建奶牛视频实时采集系统的基础上,研究并提出了奶牛呼吸频率与异常检测方法。用光流法计算视频帧图像各像素点的相对运动速度,根据各点速度,对像素点进行循环Otsu处理筛选出呼吸运动点,动态计算速度方向曲线的周期即可检测牛只呼吸频率,并根据单次呼吸耗时检测呼吸是否异常。对72头奶牛共进行360 min检测试验,结果表明,呼吸频率计算准确率为95.68%,异常检测成功率为89.06%,平均异常误检次数为2.53次/min。  相似文献   

12.
介绍了农田蛾类图像的预处理方法,然后使用Otsu方法来对农田蛾类图像进行分割。对分割得到的目标区域采取旋转变换,使同一种蛾类的目标区域具有相同方向;对旋转变换得到的蛾类图像目标区域,以目标区域的边界点到目标区域的质心点距离作为目标区域的边界特征,获取各种蛾类图像的边界特征。从所获取的边界特征可知,不同种类的蛾类图像具有各不相同的边界特征,可以把这些边界特征作为各种蛾类昆虫分类识别的数据依据。  相似文献   

13.
基于机器视觉和支持向量机的温室黄瓜识别   总被引:2,自引:0,他引:2  
王海青  姬长英  顾宝兴  安秋 《农业机械学报》2012,43(3):163-167, 180
针对复杂温室环境中的成熟黄瓜,采用脉冲耦合神经网络分割黄瓜图像,利用数学形态学方法处理,把黄瓜从图像背景中分离出来;提取各连通区域的4个几何特征值和灰度共生矩阵基础上的3个纹理特征值,作为最小二乘支持向量机(LS-SVM)的输入特征向量;利用训练好的分类器判别图像中的黄瓜。试验结果表明:用于试验的70幅黄瓜图像,正确识别率达82.9%,基于脉冲耦合神经网络分割结合LS-SVM的方法,适合复杂背景的温室黄瓜识别。  相似文献   

14.
为准确提取步态特征、识别奶牛跛行,利用三维加速度传感器采集30头奶牛后趾加速度信号,针对奶牛步态人工分割的不足,提出基于改进的动态时间规整算法对奶牛步态进行分割,提取特征值并利用逻辑回归法建立跛行识别模型。采用本文方法得到的步态分割精确度、灵敏度、准确率平均值分别为89.53%、95.51%、87.49%,比常规动态时间规整算法分别提高了5.31、4.48、8.43个百分点,总体准确率达到90.57%,相较自相关函数法和峰值检测法分别提高了1.75、3.13个百分点。以支撑时间、步幅长度、平均强度、信号幅度面积、前进方向加速度均值和运动变化量为自变量的跛行识别模型识别率分别为83.44%、81.72%、86.15%、86.81%、89.45%和85.71%。本研究结果可为奶牛步态分割、跛行识别提供技术支持。  相似文献   

15.
基于注意力机制和可变形卷积的鸡只图像实例分割提取   总被引:2,自引:0,他引:2  
为提高鸡只个体轮廓分割提取的精度和准确度,实现基于机器视觉技术的鸡只行为、健康、福利状态监测等精准畜牧业管理,保证相关监测技术及决策的可靠性,针对叠层笼养环境下肉鸡图像的实例分割和轮廓提取问题,提出一种优化的基于Mask R-CNN框架的实例分割方法,构建了一种鸡只图像分割和轮廓提取网络,对鸡群图像进行分割,从而实现鸡只个体轮廓的提取。该网络以注意力机制、可变形卷积的41层深度残差网络(ResNet)和特征金字塔网络(Feature pyramid networks, FPN)相融合为主干网络,提取图像特征,并经区域生成网络(Region proposal networks, RPN)提取感兴趣区域(ROI),最后通过头部网络完成鸡只目标的分类、分割和边框回归。鸡只图像分割试验表明,与Mask R-CNN网络相比,优化后网络模型精确率和精度均值分别从78.23%、84.48%提高到88.60%、90.37%,模型召回率为77.48%,可以实现鸡只轮廓的像素级分割。本研究可为鸡只福利状态和鸡只健康状况的实时监测提供技术支撑。  相似文献   

16.
为实现对SAR遥感图像中农田种植区域的精确识别与检测,利用特征提取、多种分类器、图像融合、相关判决等方法,实现对SAR遥感图像中农田种植区域的精确识别与检测。通过分析合成雷达孔径背景,介绍合成孔径雷达图像农田种植区域的特征提取及识别检测方法,结合PCA融合方式证明SAR图像能有效实现对农田区域的精确识别与检测。最后提出一种基于多分类器集成学习的SAR图像农田区域识别与检测方法,试验验证了该方法的有效性。  相似文献   

17.
快速准确识别奶牛粪便形态,对于奶牛肠胃健康监测与精细管理具有重要意义。针对目前奶牛粪便识别人工依赖强、识别难度大等问题,提出了一种基于VGG-ST(VGG-Swin Transformer)模型的奶牛稀便、软便、硬便及正常粪便图像识别与分类方法。首先,以泌乳期荷斯坦奶牛粪便为研究对象,采集上述4种不同形态的粪便图像共879幅,利用翻转、旋转等图像增强操作扩充至5580幅作为本研究数据集;然后,分别选取Swin Transformer、AlexNet、ResNet-34、ShuffleNet和MobileNet 5种典型深度学习图像分类模型进行奶牛粪便形态分类研究,通过对比分析,确定Swin Transformer为最优基础分类模型;最后,融合VGG模型与Swin Transformer模型,构建了VGG-ST模型,其中,VGG模型获取奶牛粪便局部特征,同时Swin Transformer模型提取全局自注意力特征,特征融合后实〖JP3〗现奶牛粪便图像分类。实验结果表明,Swin Transformer模型在测试集中分类准确率达859%,与ShuffleNet、ResNet-34、MobileNet、AlexNet模型相比分别提高1.8、4.0、12.8、23.4个百分点;VGG-ST模型分类准确率达89.5%,与原Swin Transformer模型相比提高3.6个百分点。该研究可为奶牛粪便形态自动筛查机器人研发提供方法参考。  相似文献   

18.
采用0.57R-0.18G-0.2B色差分量法对刺梨图像进行处理,通过Ostu自适应阈值分割、形态学滤波和二值图像白色色素面积阈值等方法对图像进行一次分割。根据刺梨果实图像的颜色和纹理特征,再采用YCbCr颜色空间模型中各分量的阈值对图像进行二次分割。通过标记分水岭分割算法对粘连果实连通区域进行分割,利用Hough圆变换对独立、遮挡和重叠情况下的果实外圆进行拟合和修复,最终获取果实质心坐标及其半径。试验结果表明:刺梨果实识别正确率均高于92%,说明本算法能够对刺梨果实进行有效地识别。  相似文献   

19.
淡水鱼头、腹、鳍的各部分快速识别与精准定位是机器人实现淡水鱼快速抓取,精确切割、提升作业效率关键技术的前提。针对深度学习的淡水鱼体语义分割算法在编码特征提取阶段产生大量无效的特征通道,以及网络不断下采样和池化操作使得鱼体某些细节信息被丢失,网络性能下降、边缘分割效果不佳的问题,提出了一种基于SENet优化后的Deeplabv3+淡水鱼头、腹、鳍的语义分割算法。利用空洞/带孔卷积(dilated/atrous convolutions)实现扩展感受野,克服细节信息丢失,达到准确定位的目的,同时SENet的优化使得Deeplabv3+通过学习的方式提升淡水鱼有用的特征并抑制对当前任务用处不大的特征,最终淡水鱼各部分的语义分割平均交并比(MIoU)在自建的淡水鱼数据集上达到了93%左右,性能得到了明显提升并达到了目前先进分割水平。  相似文献   

20.
基于决策树和SVM的Sentinel-2A影像作物提取方法   总被引:2,自引:0,他引:2  
以河南省濮阳县为研究区,以2017年8月6日遥感影像为基础数据源,基于地面样方和样本点数据分析构建植被指数阈值分割分类决策树,结合支持向量机(Support vector machine,SVM)分类方法实现了秋季主要作物种植面积遥感识别,并与其他方法分类结果进行了精度验证与对比。结果表明,与最大似然法(Maximum likelihood,ML)和SVM法相比较,决策树和SVM相结合能较好地解决线状地物和小地块作物提取不全以及"椒盐"现象等问题,可以对秋季复杂作物进行有效识别,作物分类提取总体精度和Kappa系数分别为92.3%和0.886。利用中分辨率单时相遥感影像,结合波谱特征和植被指数能有效提高复杂作物分类精度,为区域复杂作物分类提取提供技术参考和借鉴价值。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号