排序方式: 共有49条查询结果,搜索用时 265 毫秒
11.
马岗鹅的行为与其生长状况和福利状况密切相关,马岗鹅关键行为监测对评估其生长性能具有重要的现实意义。为了实现对群养栏马岗鹅关键行为高效率精准监测,该研究探索一种基于YoloX的群养马岗鹅关键行为监测算法(Magang geese behavior monitoring of based on Double Head-YoloX,MGBM-DH-YoloX),该算法通过减少YoloX的头部数量提升检测效率、使用损失函数减少前景背景干扰、使用迁移训练方式提高网络训练效率等技术对马岗鹅采食、饮水、休息和应激等关键行为及其规律进行分析。MGBM-DH-YoloX首先用Mosaic和Mixup对马岗鹅图像进行数据增强,然后使用增强后的数据集训练模型,并且利用模型检测马岗鹅的关键行为,最后累计得出马岗鹅关键行为的发生时长和行为节律;试验训练集为1 400幅、验证集200幅和测试集为400幅,连续活动视频10 d。结果表明,MGBM-DH-YoloX算法的平均精度为98.98%、检测速度达到81帧/s、内存消耗为2 520.04 MB。对马岗鹅的10 d养殖数据分析发现,MGBM-DH-YoloX能有... 相似文献
12.
基于改进Faster R-CNN的田间黄板害虫检测算法 总被引:2,自引:0,他引:2
针对黄板诱捕的害虫体积小、数量多和分布不均匀,难以进行害虫识别的问题,引入当前主流目标检测模型Faster R-CNN对黄板上的小菜蛾、黄曲条跳甲和烟粉虱等主要害虫进行识别与计数,提出一种基于改进Faster R-CNN的田间黄板害虫检测算法(Mobile terminal pest Faster R-CNN,MPF R-CNN)。该算法将ResNet101网络与FPN网络相结合作为特征提取网络,并在RPN网络设计多种不同尺寸锚点对特征图像进行前景和背景判断,使用ROIAlign替代ROIPooling进行特征映射,以及使用双损失函数进行算法参数控制。对2440幅样本图像的实验分析表明,在真实复杂的自然环境下,MPF R-CNN对烟粉虱、黄曲条跳甲、小菜蛾和其他大型害虫(体长大于5mm)检测的平均精度分别为87.84%、86.94%、87.42%和86.38%;在35cm×25cm黄板上不超过480只的低密度下平均精度均值为93.41%,在480~960只害虫的中等密度下平均精度均值为89.76%。同时实验显示,在中低等密度下晴天和雨天的检测精度无明显差异,本算法计数结果与害虫计数决定系数为0.9255。将该算法置入以“微信小程序+云存储服务器+算法服务器”为架构的小米7手机终端系统中进行应用测试,平均识别时间为1.7s。研究表明,该算法在精度和速度上均可支持当前便携式应用,为利用手机对蔬菜害虫进行快速监测与识别提供了技术支撑。 相似文献
13.
为解决传统小肠绒毛需要专业人员手动检测耗时耗力且存在主观性和不稳定性等问题,同时提高在复杂病理学图像中小肠绒毛检测的准确率和效率,该研究提出基于改进YOLOv5s检测复杂病理学图像下猪只小肠绒毛的方法。首先,采用串联形式的混合池化对空间金字塔进行优化,增强特征提取与特征表达,提升检测精度;然后引入一种基于注意力机制的网络模块(simpleattentionmechanism,SimAM)与Bottleneck中的残差连接相结合,使用SimAM对Bottleneck中的特征图进行加权,得到加权后的特征表示,利用注意力机制加强模型对目标的感知。试验结果表明,该研究算法的平均精度(average precision)和每秒传输帧数(frame per second,FPS)达到92.43%和40帧/s。改进后的YOLOv5s在召回率和平均精度上相较改进前提高2.49和4.62个百分点,在不增加模型参数量的情况下,每帧图片的推理时间缩短1.04 ms。与经典的目标检测算法SSD、Faster R-CNN、YOLOv6s、YOLOX相比,平均精度分别提高15.16、10.56、2.03和4.07... 相似文献
14.
融合Harris与SIFT算法的荔枝采摘点计算与立体匹配 总被引:5,自引:0,他引:5
为了满足荔枝收获机器人对整串果实采摘作业的需求,提出一种融合Harris与SIFT算法的荔枝采摘点计算与立体匹配方案。首先在已识别的荔枝结果母枝部位进行Harris角点检测,结合提取已识别荔枝果实区域质心与最小外接矩形等特征信息,进行采摘点二维像素坐标的计算。然后通过对比分析,提出对计算采摘点采用带约束条件基于余弦相似度的SIFT双目立体匹配,最后进行采摘点计算与双目立体匹配实验验证。结果表明,计算采摘点的匹配成功率可达89.55%,且该方法更能满足在结构复杂的结果母枝上采摘点计算的精度需求。 相似文献
15.
基于红外热成像的生猪耳温自动提取算法 总被引:2,自引:0,他引:2
针对利用红外热成像进行生猪体温自动提取困难的问题,在设施猪场生猪体温红外巡检装置的基础上,提出将生猪耳部区域作为其体温的代表区域,探索一种基于红外热像图的生猪耳温自动提取算法(IT-PETE)。该算法通过高效而准确地识别生猪耳部区域并提取耳部区域的温度最大值和平均值,实现生猪体温非接触式自动监测。IT-PETE算法首先用拉普拉斯算子对生猪热红外图像进行预处理,然后基于YOLO v4和形态学对热红外图像中的生猪耳部进行提取,并结合耳部分割图像和温度矩阵自动获取耳部区域温度的最大值和平均值。采用5折交叉验证方法训练生猪耳部区域检测模型,训练集和验证集图像共2000幅,测试集400幅。试验表明,YOLO v4耳部区域检测准确率为97.6%,比Faster R-CNN和SSD分别提高了2.0个百分点和7.8个百分点,单帧图像的平均检测时间为12ms。同时对20头猪的人工统计耳温数据与算法提取体温进行相关性分析,得到两者在耳部区域温度最大值和平均值的决定系数分别为0.9849和0.9119,表明IT-PETE算法对体温数据的提取具有可靠性和可行性。因此,IT-PETE算法在一定程度上可为生猪体温自动化监测和预警系统提供技术支撑。 相似文献
16.
采用无线图像传感器网络采集作物图像可以充分应用其大范围、实时的特点获得丰富的作物状态信息,并为科学决策提供依据.然而由于大田环境下易受到各种因素的干扰,无线图像传感器网络不能稳定地传输图像.通过试验发现,数据在大田环境下的无线信道传输过程中由于受到干扰而出现不同程度的错误特点,在此基础上提出了基于纠错码和重传机制的无线图像传输方法FEC-ARQ.FEC-ARQ先根据无线传输模块的数据包长度限制和无线传感器节点运算能力设定纠错码的码长,再根据传输过程中检测的传输错误率,设定纠错码.在传输的过程中,由于错误率并不稳定而出现纠错码无法纠正数据包错误数据的情况,在检测到纠错码不能纠错时,采取重传机制.仿真结果表明:采用的纠错码和重传机制达到了比较理想的图像传输效果,能够满足大田环境下传输作物图像的质量要求. 相似文献
17.
为减少因节点失效和外界干扰带来的数据完整性问题,在无线水分传感器节点软硬件配置、网络周期性工作机制以及方向性网络拓扑的基础上,讨论适用于土壤水分周期性实时监测应用的无线水分传感器网络路由协议。传感器节点在农田中呈二维矩阵结构的网格分布,以两字节行列编号对节点进行二维行列地址编码。将网络按照不同数量的列划分为分路,数据在分路内部定点传输,分路之间顺序传输。对单路、双路和三路路由策略进行了描述,从网络传输数据量、节点超时时间以及数据完整性等方面对分路定点路由策略进行分析和仿真。结果显示,分路定点路由比AODV协议有更好的能耗和数据完整性表现,满足土壤水分周期性监测需要。 相似文献
18.
针对鸭蛋裂纹人工检测受主观性影响造成精度波动大等问题,利用ResNet34网络模型,提出1种基于梅尔谱图的鸭蛋裂纹识别算法。首先利用敲蛋装置收集敲蛋声音数据,再将音频转化成梅尔谱图,构建梅尔谱图数据集,然后搭建ResNet34模型,引入迁移学习机制训练模型,再通过Adam优化算法更新梯度,增加注意力机制模块并将卷积结构替换为深度可分离卷积以对网络模型进行改进,并调整参数进行优化,最后利用模型对鸭蛋裂纹进行识别。结果显示:改进的ResNet34DP_CA网络模型检测的平均准确率为92.4%,对比原始ResNet34网络模型,平均准确率提高5.5个百分点,参数量减少32%;对比其他网络模型VGG16、MobileNetv2和EfficientNet,平均准确率分别提高10.9、13.7、16.3个百分点,识别时间为21.5 ms。结果表明,所提出的基于梅尔谱图和改进ResNet34模型的鸭蛋裂纹识别算法,能够有效地对鸭蛋裂纹进行检测识别。 相似文献
19.
猪只饮水行为机器视觉自动识别 总被引:6,自引:0,他引:6
猪只饮水行为往往与猪舍环境的舒适度以及猪只的健康水平密切相关,实时地监控猪栏中猪只饮水状况对猪舍管理和提高养殖福利具有重要意义。目前,主要采用RFID和机器视觉两种技术自动识别饮水行为,RFID方式需要给猪只佩戴耳标,存在对猪身有侵入和不便操作的缺点,机器视觉方法能非接触式监测和提取猪只饮水行为,具有低成本易实施的优点。本文实现了基于机器视觉的猪只饮水行为自动识别,首先通过传统的阈值分割方法得到二值化图像来实现猪只从背景中的提取,接着引入图像占领指数对猪只饮水行为进行预判,最后利用深度学习方法构造猪只头部检测器,更精准地判定饮水行为的发生。试验表明,该方法在本文构建的饮水视频数据集中识别正确率为92.11%,且能识别饮水猪只的身份,可应用到实际的猪只生产过程中辅助管理决策。 相似文献
20.
智能视觉传感器技术因其低成本和图像高效采集优势成为当今无线视觉传感器网络(wireless vision sensor network,WVSN)的研究热点。该文在之前基于ARM平台S3C6410设计的低成本高分辨率农业视觉传感器(agricultural high resolution vision sensor,HRAVS)设计基础上,进行了网络和远程控制扩展,设计了一种基于WCDMA和Wi-Fi的高分辨率视觉传感器远程传输控制方案(vision sensor remote transmission control schema for the HRAVS,VSRTC)。使新型HRAVS节点可以利用有线、Wi-Fi、3G和4G等支持WVSN和农业物联网的应用。该文详细设计了VSRTC的应用体系结构、传输控制协议、应用软件。利用扩展的网络化视觉感知传感器,在华南农业农业大学试验农场部署了10个图像采集节点构成的WVSN,并开展了25d的运行测试,测试了新型节点的稳定性、图像采集与编码的性能,采集图像的平均耗时,以及在不同分辨率下的视频帧速率等。结果表明,该节点能够有效地支持命令响应式、周期响应式、视频流3种采集模式;在重传方案支持下所有节点指令丢失率在1%以内;在非联网状态下节点本地工作模式下,节点在1.3、2.0和3.2 Mpixel下采集图像的最短节点平均耗时分别约为6.2、8.2和11.1 s,最大视频帧速率分别为58.7、34.6、16.4帧/s;在全网络环境中,节点在1.3、2.0和3.2 Mpixel下采集图像的最短节点平均耗时分别约为17.6、26.9和49.6 s,最大视频帧速率分别为20.2、16.1、9.3帧/s。该方案对实时性要求不太高的农业领域来说,基本能满足其高分辨率图像和视频传输的需要。 相似文献