排序方式: 共有64条查询结果,搜索用时 0 毫秒
11.
基于SVM的小麦叶部病害识别方法研究 总被引:2,自引:0,他引:2
为了准确识别小麦叶部常见病害,为小麦病情诊断和发展状况判断提供科学依据,设计并实现了一种基于SVM(Support Vector Machine)的小麦叶部常见病害识别方法。该方法可以实现对小麦白粉病、条锈病和叶锈病的准确识别。首先,基于中值滤波法和K均值聚类算法,实现了图像的去噪及病斑分割;然后,提取了病斑区域形状特征和纹理特征;最后,利用SVM算法对小麦叶部病害进行了分类识别。随机试验结果表明,利用所提取的特征可以有效地实现小麦叶部常见病害的识别,基于形状特征的综合识别率可达99.33%;利用SVM算法进行小麦病害叶片识别是有效的、可行的。该方法对于农作物病害智能识别的推广具有较好的借鉴意义。 相似文献
12.
基于部分亲和场的行走奶牛骨架提取模型 总被引:3,自引:0,他引:3
在奶牛关键点预测的基础上,通过点、线重构奶牛骨架结构,可为奶牛跛行检测、发情行为分析、运动量估测等提供重要参考。本研究基于部分亲和场,以养殖场监控摄像头拍摄的视频为原始数据,使用1 600幅图像训练了奶牛骨架提取模型,实现了奶牛站立、行走状态下关键点信息和部分亲和场信息的预测,并通过最优匹配连接对奶牛骨架结构进行准确提取。为了验证该模型的性能,采用包含干扰因素的100幅单目标奶牛和100幅双目标奶牛图像进行了测试。结果表明,该模型对单目标行走奶牛骨架提取的置信度为78.90%,双目标行走奶牛骨架提取的置信度较单目标下降了10.96个百分点。计算了不同关键点相似性(Object keypoint similarity,OKS)下的模型准确率,当OKS为0.75时,骨架提取准确率为93.40%,召回率为94.20%,说明该模型具有较高的准确率。该方法可以提取视频中奶牛骨架,在无遮挡时具有高置信度和低漏检率,当遮挡严重时置信度有所下降。该模型的单目标和双目标图像帧处理速度分别为3.30、3.20 f/s,基本相同。本研究可为多目标奶牛骨架提取提供参考。 相似文献
13.
苹果采摘机器人视觉系统研究进展 总被引:4,自引:10,他引:4
视觉系统是苹果采摘机器人最重要的组成部分之一,它在一定程度上决定了苹果采摘机器人完成采摘任务的质量及速度。为明确苹果采摘机器人视觉系统所面临的挑战及未来研究方向,该文首先对世界各国现有苹果采摘机器人的研究情况从视觉传感器类型、视觉系统硬件组成、采摘成功率及作业时间等方面进行了概述,然后分别对现有苹果采摘机器人视觉系统中苹果图像分割方法、受着色度、光照、表面阴影、振荡、重叠及遮挡等影响下的苹果目标的识别与定位方法、苹果采摘机器人视觉系统对枝干等障碍物的识别方法以及视觉系统中双目视觉技术立体匹配问题进行了综述,进一步分析了苹果采摘机器人视觉系统中存在的问题,指出视觉系统结构的优化、视觉系统中智能算法的优化、提高视觉系统的实时性、振荡苹果目标的识别与定位、视觉系统受振动影响时苹果目标的识别与定位及提高视觉系统的性价比等方面将成为未来重点研究方向,为深入研究苹果采摘机器人视觉系统提供参考。 相似文献
14.
【目的】构建融合高级与低级视觉特征的农业图像(果实、农作物及畜禽目标)显著性区域预测算法,为农作物生长状态的监测、动物的体况评估提供支持。【方法】提出一种整合高级和低级视觉特征的农业图像显著性区域预测深度学习框架及其预训练方案。在MSRA10k数据集上按照6∶2∶2的比例进行训练、验证和测试,并采用F-Measure作为评价指标,在6种公共数据集(SOD、ASD、SED2、ECSSD、HKU-IS和THUR)及农业图像典型数据集上,将预测算法与4种显著性预测算法(MWS、IMS、FSN、P-Net)进行对比。【结果】所建立的预测算法在6种公共数据集上的平均F-Measure分数最高,为0.823,平均MAE分数最低,为0.099,显著性可视化结果边界完整,与人工标记的基准图像更接近。在农业图像典型数据集上的平均F-Measure为0.826,表明该算法可有效应对复杂农业场景的干扰,实现更为准确的目标轮廓信息提取。【结论】融合高级与低级视觉特征的图像显著性区域预测算法,可以实现对复杂农业场景下农作物及畜禽图像显著性区域的快速、准确预测。 相似文献
15.
奶牛身体部位的精准分割广泛应用于奶牛体况评分、姿态检测、行为分析及体尺测量等领域。受奶牛表面污渍和遮挡等因素的影响,现有奶牛部位精准分割方法实用性较差。本研究在YOLO v8n-seg模型的基础上,加入多尺度融合模块与双向跨尺度加权特征金字塔结构,提出了YOLO v8n-seg-FCA-BiFPN奶牛身体部位分割模型。其中,多尺度融合模块使模型更好地提取小目标几何特征信息,双向跨尺度加权特征金字塔结构实现了更高层次的特征融合。首先在奶牛运动通道处采集奶牛侧面图像作为数据集,为保证数据集质量,采用结构相似性算法剔除相似图像,共得到1452幅图像。然后对目标奶牛的前肢、后肢、乳房、尾部、腹部、头部、颈部和躯干8个部位进行标注并输入模型训练。测试结果表明,模型精确率为96.6%,召回率为94.6%,平均精度均值为97.1%,参数量为3.3×106,检测速度为6.2f/s。各部位精确率在90.3%~98.2%之间,平均精度均值为96.3%。与原始YOLO v8n-seg相比,YOLO v8n-seg-FCA-BiFPN的精确率提高3.2个百分点,召回率提高2.6个百分点,平均精度均值提高3.1个百分点,改进后的模型在参数量基本保持不变的情况下具有更强的鲁棒性。遮挡情况下该模型检测结果表明,精确率为93.8%,召回率为91.67%,平均精度均值为93.15%。结果表明,YOLO v8n-seg-FCA-BiFPN网络可以准确、快速地实现奶牛身体部位精准分割。 相似文献
16.
17.
18.
奶牛反刍行为的智能监测对于奶牛健康及提升现代养殖业的水平具有重要意义。奶牛嘴部区域的自动检测是奶牛反刍行为智能监测的关键,该文提出一种基于Horn-Schunck光流法的多目标奶牛嘴部区域自动检测方法。利用Horn-Schunck光流法模型求取奶牛反刍视频中各时间序列图像的光流场,将各帧序列图像中运动较大的光流数据进行叠加,获取奶牛反刍时的候选嘴部区域,最后运用奶牛嘴部区域检测模型实现反刍奶牛嘴部区域的检测。为了验证算法的有效性,利用不同环境下获取的12段视频进行验证,选取的12段视频的每段时长10 s,每段视频帧数在250~280帧之间,结果表明,对于多目标奶牛,12段视频中有8段视频可以成功检测到反刍奶牛的嘴部区域;根据所定义的真实充盈率指标与检测充盈率指标,分别统计了8段成功检测反刍奶牛嘴部区域的视频检测结果,试验表明,8段视频中最大真实充盈率为96.76%,最小真实充盈率为25.36%,总体平均真实充盈率为63.91%;最大检测充盈率为98.51%,最小检测充盈率为43.80%,总体平均检测充盈率为70.06%。研究结果表明,将Horn-Schunck光流法应用于多目标奶牛嘴部区域的自动检测是可行的,该研究可为奶牛反刍行为的智能监测提供参考。 相似文献
19.
奶牛呼吸行为的智能检测对于奶牛疾病的自动诊断及奶牛精准养殖具有重要意义。该研究基于Lucas-Kanade稀疏光流算法,提出了一种适合于非结构化养殖环境的无接触式单目标奶牛呼吸行为检测方法。通过在HSV颜色空间完成奶牛目标的提取,然后通过Canny算子和掩模操作完成奶牛所有花斑边界的检测,再利用Lucas-Kanade稀疏光流算法计算提取奶牛花斑边界光流,最后根据视频序列帧中花斑边界平均光流的方向变化规律实现奶牛呼吸行为的检测。为了验证本研究算法的有效性,利用不同环境下获取的105段共计25 200帧数据进行了测试,并与基于整体Lucas-Kanade光流法、整体Horn-Schunck光流法和基于花斑边界的Horn-Schunck光流法进行了对比验证。试验结果表明,该研究算法的帧处理耗时在0.10~0.13 s之间,在试验视频上的平均运行时间为14.14 s。奶牛呼吸行为检测的准确率为83.33%~100%之间,平均准确率为98.58%。平均运行时间较基于整体Lucas-Kanade光流法的呼吸行为检测方法慢1.60 s,较Horn-Schunck整体光流的呼吸行为检测方法快7.30 s,较基于花斑边界的Horn-Schunck光流法快9.16 s。呼吸行为检测的平均准确率分别高于3种方法 1.91、2.36、1.26个百分点。研究结果表明,通过Lucas-Kanade光流法检测奶牛花斑边界平均光流方向变化实现奶牛呼吸行为检测是可行的,该研究可为奶牛热应激行为的自动监测及其他与呼吸相关疾病的远程诊断提供参考。 相似文献
20.
果实目标深度学习识别技术研究进展 总被引:1,自引:0,他引:1
机器视觉技术是果实目标识别与定位研究的关键。传统的目标识别算法准确率较低、检测速度较慢,难以满足实际生产的需求。近年来,深度学习方法在果实目标识别与定位任务中表现出了优良的性能。本文从数据集制备与果实目标识别模型两方面进行综述,总结了数据集制备相关的有监督、半监督和无监督3种方法的特点,按照深度学习算法的发展历程,归纳了基于深度学习的果实目标检测和分割技术的常用方法及其实际应用,轻量化模型的研究进展及其应用情况,基于深度学习的果实目标识别技术面临的问题和挑战。最后指出基于深度学习的果实目标识别方法未来发展趋势为:通过弱监督学习来降低模型对数据标签的依赖性,提高轻量化模型的检测速度以实现果实目标的实时准确检测。 相似文献