首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 500 毫秒
1.
为了在复杂环境下对视频目标生猪进行精确、快速检测,提出一种基于改进卷积神经网络(CNN)的多目标生猪检测算法。利用生猪图像的二值化规范梯度(BING)训练两级线性SVM,以生成高质量的候选区域,利用改进的CNN模型对候选区域进行分类识别,最后利用非极大值抑制算法剔除冗余窗口,减少训练样本和训练参数的数量。对CNN网络结构和参数进行优化实验,分析网络训练效率和目标检测效果。实验结果表明,与传统CNN模型相比,本文算法训练时间更短,且具有更快的收敛速度和更强的鲁棒性,对生猪图像前景和背景的分类正确率为96%,高于传统CNN模型的72. 29%。对误检率、漏检率和平均检测时间的分析表明,本文算法的检测性能优于Faster RCNN和Yolo算法;本文算法目标跟踪成功率平均值为89. 17%,中心点平均误差为6. 94像素,表明该检测算法在生猪跟踪上的有效性和稳定性。  相似文献   

2.
目前猪群图像检测均为基于水平框的目标检测算法,对于图像中猪体粘连和相互遮挡情况检测率较低,针对图像中的猪只长宽比例较大和可能发生任意角度旋转的特点,提出了一种基于双扩张层和旋转框定位的群猪目标检测算法(Dual dilated layer and rotary box location network, DR-Net)。采集3个猪场的群猪图像,利用数据增强保留9 600幅图像制作数据集;基于膨胀卷积搭建提取图像全局信息的双扩张层,借鉴Res2Net模块改进CSP层融合多尺度特征,猪只目标以旋转框定位并采用五参数表示法在模型训练中利用Gaussian Wasserstein distance计算旋转框的回归损失。试验结果表明,DR-Net对猪只目标识别的精确率、召回率、平均精确率、MAE、RMSE分别为98.57%、97.27%、96.94%、0.21、0.54,其检测效果优于YOLO v5,提高了遮挡与粘连场景下的识别精度和计数精度。利用可视化特征图分析算法在遮挡和粘连场景下能够利用猪只头颈部、背部或尾部特征准确定位目标。该研究有助于智能化猪场建设,可为后续猪只行为识别研究提供参考。  相似文献   

3.
基于改进YOLOv3网络模型的茶草位置检测算法   总被引:1,自引:0,他引:1  
精准高效的茶草识别是智能茶园植保机械进行除草工作的关键。针对目前茶园除草智能化程度较低等问题,提出改进YOLOv3网络模型的茶草检测算法。首先,分季节和时间段,在多个茶叶品种的种植园中以自适应的距离和角度采集茶草混合图像并建立试验数据集。接着,使用K均值聚类算法重新设计先验锚框尺度。然后,以YOLOv3网络模型为基础,选取17×17的网格划分图像区域;采用残差网络(ResNet)作为主干网;加入过程提取层,增强草株检测性能。最后在原损失函数中引入广义交并比损失。通过消融试验和不同目标检测算法对比试验验证此改进算法对茶树与杂草的检测效果。试验结果表明,改进 YOLOv3网络模型对杂草的检测精确率和召回率分别为85.34%和91.38%,对茶树的检测精确率和召回率最高达到82.56%和90.12%;与原YOLOv3网络模型相比,检测精确率提高8.05%,并且每秒传输帧数达到52.83 Hz,是Faster R-CNN网络模型的16倍。这些数据说明所提算法在茶园复杂环境下,不仅对于茶树和杂草具有更好的识别效果,而且满足实时检测的要求,可以为智能茶园植保机械提供技术支持。  相似文献   

4.
针对水稻稻纵卷叶螟和二化螟成虫图像识别中自动化程度较低的问题,引入目标检测算法YOLO v5对监测设备和诱捕器上的稻纵卷叶螟和二化螟成虫进行识别与计数。依据稻纵卷叶螟和二化螟的生物习性,采用自主研发的水稻害虫诱集与拍摄监测装置,自动获取稻纵卷叶螟和二化螟成虫图像,并与三角形诱捕器和虫情测报灯诱捕拍摄的稻纵卷叶螟和二化螟成虫图像共同构建水稻害虫图像数据集;采用左右翻转、增加对比度、上下翻转的方式增强图像数据集;对比了不同训练模型对三角形诱捕器和监测设备诱捕拍摄的水稻害虫图像的检测性能,并对比稻纵卷叶螟成虫不同训练样本量对识别结果的影响,用精确率、召回率、F1值、平均精度评估各模型的差异。测试结果表明,测试集图像为三角形诱捕器和监测设备诱捕拍摄虫害图像时,稻纵卷叶螟识别的精确率和召回率分别达到91.67%和98.30%,F1值达到94.87%,二化螟识别的精确率和召回率分别达到93.39%和98.48%,F1值达到95.87%。不同采样背景、设备构建的多源水稻害虫图像数据集可以提高模型对水稻害虫识别的准确性。基于YOLO v5算法设计的水稻害虫识别计数模型能够达到较高的识别准确率,可以用于...  相似文献   

5.
针对传统的目标检测方法依赖人工提取特征,存在检测效率低、鲁棒性差和实时性差等缺陷。本文根据刺梨果实在自然环境中的生长特点,采用带有残差模块的YOLO v3神经网络进行刺梨果实识别模型的训练,该网络通过提取不同卷积层的特征图,将深层特征图进行上采样后与浅层特征图进行多次融合,以提取图像的更深层次的特征信息。通过对该网络的相关参数进行优化和改进,并对未参与模型训练的70幅刺梨图像进行检测,实验表明,本文算法能够有效地对自然环境下的11类刺梨果实进行识别,各类识别平均准确率为88.5%,平均召回率为91.5%,F_1平均值为89.9%,识别速率约为20 f/s。本文算法在刺梨果实的识别上取得了理想的识别效果。  相似文献   

6.
为实现自然环境下疏果前期毛桃目标的识别,提出了基于Faster R-CNN的毛桃目标识别方法,设计的网络由ResNet-50特征提取网络、区域生成网络和感兴趣区域子网组成,并以ResNet-50为基础网络,用来提取目标特征。工作时,区域生成网络依据ResNet-50提取的特征生成感兴趣区域,感兴趣区域子网依据目标特征和感兴趣区域进行毛桃的识别与定位;对图像进行扩增后,随机选取1920幅作为训练集、240幅作为验证集。用测试集中的240幅图像对模型进行测试,结果表明:目标识别方法能有效识别出自然环境下的毛桃目标,准确度为92.97%,误识率为7.03%,召回率为84.62%,平均检测速度为0.189s/幅,可实现疏果前期毛桃目标的识别,模型具有较好的鲁棒性和泛化能力。  相似文献   

7.
赵毅 《现代农机》2023,(5):65-67
常规水果采摘机械目标识别方法多数采用特征阈值化法,对水果图像进行分割处理,不能根据水果图像中某些目标存在的共同特征将其分割为特定区域,无法为目标识别提供有力支持,降低了水果采摘机械目标识别的精确率。基于此,引入机器视觉技术原理,以类球状水果为例,提出了一种全新的水果采摘机械目标识别方法。利用高性能的拍摄相机,随机选取类球状水果进行图像采集与预处理,获取特征突出、不存在噪声点的图像,采用机器视觉技术设计图像分割算法,将图像划分为多个超像素块,对类球状水果图像边缘进行平滑处理,获取融合特征的类球状水果采摘机械目标识别显著图,完成机械目标识别。实验分析可知,通过这方法识别类球状水果采摘机械目标,其识别结果的精确率、召回率与调和平均值等三个评测指标均≥95.38%,识别效果优势显著。  相似文献   

8.
奶牛身体部位的精准分割广泛应用于奶牛体况评分、姿态检测、行为分析及体尺测量等领域。受奶牛表面污渍和遮挡等因素的影响,现有奶牛部位精准分割方法实用性较差。本研究在YOLO v8n-seg模型的基础上,加入多尺度融合模块与双向跨尺度加权特征金字塔结构,提出了YOLO v8n-seg-FCA-BiFPN奶牛身体部位分割模型。其中,多尺度融合模块使模型更好地提取小目标几何特征信息,双向跨尺度加权特征金字塔结构实现了更高层次的特征融合。首先在奶牛运动通道处采集奶牛侧面图像作为数据集,为保证数据集质量,采用结构相似性算法剔除相似图像,共得到1452幅图像。然后对目标奶牛的前肢、后肢、乳房、尾部、腹部、头部、颈部和躯干8个部位进行标注并输入模型训练。测试结果表明,模型精确率为96.6%,召回率为94.6%,平均精度均值为97.1%,参数量为3.3×106,检测速度为6.2f/s。各部位精确率在90.3%~98.2%之间,平均精度均值为96.3%。与原始YOLO v8n-seg相比,YOLO v8n-seg-FCA-BiFPN的精确率提高3.2个百分点,召回率提高2.6个百分点,平均精度均值提高3.1个百分点,改进后的模型在参数量基本保持不变的情况下具有更强的鲁棒性。遮挡情况下该模型检测结果表明,精确率为93.8%,召回率为91.67%,平均精度均值为93.15%。结果表明,YOLO v8n-seg-FCA-BiFPN网络可以准确、快速地实现奶牛身体部位精准分割。  相似文献   

9.
提出了一种适用于夜晚环境下多个车牌的定位算法。该算法首先利用Retinex图像增强算法,突出在夜晚环境下获取的车辆彩色图像中的车牌目标,然后用提出的图像背景消除算法粗略地提取目标车牌,进而利用K-means聚类算法精确地提取目标车牌区域,并用数学形态学算法消除目标车牌二值图像中的噪声,最后利用Canny算法检测车牌边缘,检测结果叠加在原始车辆彩色图像上完成车牌的定位。实验结果表明,该算法对夜晚环境下的多个车牌定位准确度可达86.5%,证明该算法在此环境下可行、有效。  相似文献   

10.
本文阐述了在图像检测系统设计中运用模式识别的检测算法研究,主要检测零件加工质量,获取图像检测结果,以提高识别效率。关键技术是零件图像参数的精确提取和识别。通过阈值对灰度图像进行二值化,再对处理后的图像进行平滑与增强,采用Canny算子进行图像边缘检测,借助特定模式识别方法,进行智能判别。软件调试结果说明,上述算法在零件加工质量检测中可以获取高效、精确的结果。  相似文献   

11.
为了能准确检测、跟踪加州鲈鱼因水中溶解氧含量低产生的胁迫行为,本文构建了一种改进的YOLO v5与DeepSORT组合网络算法。在算法方面提出2个改进方案:在原YOLO v5的Backbone和Neck中分别加入2个基于移位窗口的自注意力Swin Transformer模块,提升了网络对目标特征信息的提取能力,以此提升原模型的检测效果;采用Warmup和Cosine Annealing结合的学习率策略,使多目标跟踪算法DeepSORT前期收敛速度更快、更稳定。实验结果表明,在目标检测方面,相对于原YOLO v5,改进的YOLO v5的mAP@0.5、mAP@0.5:0.95和召回率分别提升1.9、1.3、0.8个百分点,在不完全遮挡情况下,改进的算法表现出更好的检测效果。在目标跟踪方面,DeepSORT算法的MOTA、MOTP和IDF1分别提升4.0、0.7、10.7个百分点,并且加州鲈鱼在遮挡前后的ID切换频率得到明显抑制。改进的YOLO v5与DeepSORT跟踪算法更适合于检测、跟踪加州鲈鱼的低氧胁迫行为,能够为加州鲈鱼的养殖提供技术支持。  相似文献   

12.
农业生产环境中的目标识别对象常具有分布密集、体积小、密度大的特点,加之农田环境光照多变、背景复杂,导致已有目标检测模型无法取得令人满意的效果。本研究以提高小目标的识别性能为目标,以蜜蜂识别为例,提出了一种农业复杂环境下尺度自适应小目标识别算法。算法克服了复杂多变的背景环境的影响及目标体积较小导致的特征提取困难,实现目标尺度无关的小目标识别。首先将原图拆分为一些较小尺寸的子图以提高目标尺度,将已标注的目标分配到拆分后的子图中,形成新的数据集,然后采用迁移学习的方法重新训练并生成新的目标识别模型。在模型的使用中,为使子图识别结果能正常还原,拆分的子图之间需具有一定的重叠率。收集所有子图的目标识别结果,采用非极大抑制(Non-Maximum Suppression,NMS)去除由于模型本身产生的冗余框,提出一种交小比非极大抑制(Intersection over Small NMS,IOS-NMS)进一步去除子图重叠区域中的冗余框。在子图像素尺寸分别为300×300、500×500和700×700,子图重叠率分别为0.2和0.05的情况下进行验证试验,结果表明:采用SSD(Single Shot MultiBox Detector)作为框架中的目标检测模型,新提出的尺度自适应算法的召回率和精度普遍高于SSD模型,最高分别提高了3.8%和2.6%,较原尺度的YOLOv3模型也有一定的提升。为进一步验证算法在复杂背景中小目标识别的优越性,从网上爬取了不同尺度、不同场景的农田复杂环境下的蜜蜂图像,并采用本算法和SSD模型进行了对比测试,结果表明:本算法能提高目标识别性能,具有较强的尺度适应性和泛化性。由于本算法对于单张图像需要多次向前推理,时效性不高,不适用于边缘计算。  相似文献   

13.
连栋塑料温室气动天窗机构的参数优化   总被引:1,自引:0,他引:1  
在调查温室所处地区风速分布的基础上 ,研究风载与天窗位置角及风向的关系 ,以及风载、均布结构重量和集中力 3种天窗荷载的作用。建立多目标非线性优化模型 ,合理快捷地确定了气动天窗机构的各个参数 ,给出优化后气缸负载的动态曲线。  相似文献   

14.
针对光照不均、噪声大、拍摄质量不高的夜晚水下环境,为实现夜晚水下图像中鱼类目标的快速检测,利用计算机视觉技术,提出了一种基于改进Cascade R-CNN算法和具有色彩保护的MSRCP(Multi-scale Retinex with color restoration)图像增强算法的夜晚水下鱼类目标检测方法。首先针对夜晚水下环境的视频数据,根据时间间隔,截取出相应的夜晚水下鱼类图像,对截取的原始图像进行MSRCP图像增强。然后采用DetNASNet主干网络进行网络训练和水下鱼类特征信息的提取,将提取出的特征信息输入到Cascade R-CNN模型中,并使用Soft-NMS候选框优化算法对其中的RPN网络进行优化,最后对夜晚水下鱼类目标进行检测。实验结果表明,该方法解决了夜晚水下环境中的图像降质、鱼类目标重叠检测问题,实现了对夜晚水下鱼类目标的快速检测,对夜晚水下鱼类图像目标检测的查准率达到95.81%,比Cascade R-CNN方法提高了11.57个百分点。  相似文献   

15.
山羊的脸部检测对羊场的智能化管理有着重要的意义。针对实际饲养环境中,羊群存在多角度、分布随机、灵活多变、羊脸检测难度大的问题,以YOLO v5s为基础目标检测网络,提出了一种结合坐标信息的山羊脸部检测模型。首先,通过移动设备获取舍内、舍外、单头以及多头山羊的图像并构建数据集。其次,在YOLO v5s的主干网络融入坐标注意力机制,以充分利用目标的位置信息,提高遮挡区域、小目标、多视角样本的检测精度。试验结果表明,改进YOLO v5s模型的检测精确率为95.6%,召回率为83.0%,mAP0.5为90.2%,帧速率为69 f/s,模型内存占用量为13.2 MB;与YOLO v5s模型相比,检测精度提高1.3个百分点,模型所占内存空间减少1.2 MB;且模型的整体性能远优于Faster R-CNN、YOLO v4、YOLO v5s模型。此外,本文构建了不同光照和相机抖动的数据集,来进一步验证本文方法的可行性。改进后的模型可快速有效地对复杂场景下山羊的脸部进行精准检测及定位,为动物精细化养殖时目标检测识别提供了检测思路和技术支持。  相似文献   

16.
针对目前群养生猪智能化养殖中复杂环境下猪只目标检测精度低的问题,提出了一种基于改进YOLOX的群养生猪轻量化目标检测模型Ghost-YOLOX-BiFPN。该模型采用Ghost卷积替换普通卷积,在减少主干网络参数的情况下,提高了模型的特征提取能力。使用加入CBAM注意力机制的BiFPN作为模型的Neck部分,使得模型充分融合不同体型猪只的特征图,并使用Focal Loss损失函数解决猪圈环境下猪只与背景难以区分的问题,增强模型对正样本的学习。实验结果表明,改进后模型对群养生猪检测精度为95.80%,相比于原始YOLOX算法,检测精度提升2.84个百分点,参数量降低63%。最后将本文轻量化模型部署到Nvidia Jetson Nano移动端开发板,通过在开发板上实际运行表明,本文所提模型实现了对不同大小、不同品种猪只的准确识别,为后续智能化生猪养殖提供支持。  相似文献   

17.
围绕水产养殖水下目标精准识别的产业发展需求,针对小样本目标识别精度低、模型算法场景适应能力差等问题,提出一种基于改进循环对抗网络(Cycle constraint adversarial network, CycleGAN)样本扩增和注意力增强迁移学习的小样本养殖鱼类识别方法。利用水下采样装备收集实际养殖场景和可控养殖场景大黄鱼图像,并以可控场景图像作为辅助样本集。利用CycleGAN为基础框架实现辅助样本到实际养殖场景图像的迁移,并提出一种基于最大平均差异(Maximum mean discrepancy, MMD)的迁移模型损失函数优化方法。在迁移学习阶段使用ResNet50为基础框架,并引入SK-Net(Selective kernel network)注意力机制优化模型对不同感受野目标的感知能力,提升模型对无约束鱼类目标的识别精度。试验结果表明,本文方法有效提升了小样本鱼类目标的识别能力,鱼类识别召回率达到94.33%,平均精度均值达到96.67%,为鱼类行为跟踪和表型测量提供了有效的技术支撑。  相似文献   

18.
奶牛体况评分是评价奶牛产能与体态健康的重要指标。目前,随着现代化牧场的发展,智能检测技术已被应用于奶牛精准养殖中。针对目前检测算法的参数量多、计算量大等问题,以YOLO v5s为基础,提出了一种改进的轻量级奶牛体况评分模型(YOLO-MCE)。首先,通过2D摄像机在奶牛挤奶通道处采集奶牛尾部图像并构建奶牛BCS数据集。其次,在MobileNetV3网络中融入坐标注意力机制(Coordinate attention, CA)构建M3CA网络。将YOLO v5s的主干网络替换为M3CA网络,在降低模型复杂度的同时,使得网络特征提取时更关注于牛尾区域的位置和空间信息,从而提高了运动模糊场景下的检测精度。YOLO v5s预测层采用EIoU Loss损失函数,优化了目标边界框回归收敛速度,生成定位精准的预测边界框,进而提高了模型检测精度。试验结果表明,改进的YOLO v5s模型的检测精度为93.4%,召回率为85.5%,mAP@0.5为91.4%,计算量为2.0×109,模型内存占用量仅为2.28 MB。相较原始YOLO v5s模型,其计算量降低87.3%,模型内存占用量减...  相似文献   

19.
针对图像处理与计算机视觉技术中低对比度、边缘模糊图像的边缘检测问题,参考局部极值与梯度方向两种因素,并结合图像边缘方向趋势,提出了一种单像素边缘跟踪策略。相较于应用广泛的Canny算法,该跟踪策略无需设置全局阈值,实现方式更为简洁、高效;提取的图像边缘连续、平滑、完整,并有效地减少了图像边缘的冗余像素,进而提升了图像后续处理的效率;边缘跟踪方向抗干扰性强,具有较强的鲁棒性。为了减小检测的图像边缘与真实图像边缘之间的偏差、提高图像边缘检测的精度,参考边缘像素点的相邻区域灰度,以边缘像素点的梯度分布为依据对该像素点进行亚像素定位。经实验验证,经过亚像素优化的图像边缘检测策略可用于检测边缘模糊、对比度低的图像,检测的图像边缘完整、连续且平滑。该策略有效地消除了程序运算中引入的截断误差,提升了图像边缘检测精度,且适用于亮度5~100000lx的高动态成像场景中。  相似文献   

20.
为了快速而准确地统计视频监测区域内的水稻穗数,提出了一种基于改进Faster R-CNN的稻穗检测方法。针对稻穗目标较小的问题,在Inception_ResNet-v2的基础上引入空洞卷积进行优化;对于不同生长期稻穗差别大的问题,设计了针对标注框尺度的K-means聚类,为候选区域生成网络提供先验知识,从而提高了检测精度。鉴于小尺寸稻穗目标的特殊性,用ROIAlign替代ROIPooling,提高了感兴趣区域的提取精度。试验测试时,根据水稻不同发育期稻穗的表型特征差异自制了3类数据集,并选取最佳聚类数为10。模型对比试验表明,本文方法的稻穗检测平均精度均值达到80.3%,较Faster R-CNN模型提升了2.4个百分点,且比SSD和YOLO系列模型有较大幅度的提升。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号