首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 203 毫秒
1.
基于深层神经网络的猪声音分类   总被引:1,自引:4,他引:1  
猪的声音能够反映生猪的应激状态以及健康状况,同时声音信号也是最容易通过非接触方式采集到的生物特征之一。深层神经网络在图像分类研究中显示了巨大优势。谱图作为一种可视化声音时频特征显示方式,结合深层神经网络分类模型,可以提高声音信号分类的精度。现场采集不同状态的猪只声音,研究适用于深层神经网络结构的最优谱图生成方法,构建了猪只声音谱图的数据集,利用Mobile Net V2网络对3种状态猪只声音进行分类识别。通过分析对比不同谱图参数以及网络宽度因子和分辨率因子,得出适用于猪只声音分类的最优模型。识别精度方面,通过与支持向量机,随机森林,梯度提升决策树、极端随机树4种模型进行对比,验证了算法的有效性,异常声音分类识别精度达到97.3%。该研究表明,猪只的异常发声与其异常行为相关,因此,对猪只的声音进行识别有助于对其进行行为监测,对建设现代化猪场具有重要意思。  相似文献   

2.
融合注意力机制的个体猪脸识别   总被引:1,自引:1,他引:0  
随着机器视觉技术的发展,猪脸识别作为猪只个体识别方法之一受到广泛关注。为了探索非接触式的猪只个体精准识别,该研究通过深度学习模型DenseNet融合CBAM(Convolutional Block Attention Module),建立改进的DenseNet-CBAM模型对猪脸进行识别。将DenseNet121模型进行精简,然后将CBAM注意力模块嵌入到精简的DenseNet121分类网络之前,以加强对关键特征的提取,实现猪脸图像的分类。以随机采集的1 195张猪脸图像作为数据集对本文模型进行测试。结果表明,DenseNet-CBAM模型对个体猪脸识别的准确率达到99.25%,模型参数量仅为DenseNet121的1/10;与ResNet50、GoogLetNet和MobileNet模型相比,DenseNet-CBAM的识别准确率分别提高了2.18、3.60和23.94个百分点。研究结果可为智能化养殖过程非接触式个体识别提供参考。  相似文献   

3.
基于特征融合的棉花幼苗计数算法   总被引:3,自引:3,他引:0       下载免费PDF全文
为了获取棉花幼苗数量,掌握播种成活率和出苗率等关键苗情信息,该研究提出一种基于特征融合的棉花幼苗计数算法。首先,该算法采用VGG-16作为基础模块提取图像特征,使用注意力模块(Convolutional Block Attention Module,CBAM)在通道和空间维度上进行特征增强,然后将增强后的特征与基础模块中的特征进行融合,进一步强化幼苗特征表达,最后通过去冗余和归一化操作得到计数结果。此外,还构建了一个包含399张棉花幼苗图像的数据集,其中包含了对212 572株幼苗的精准手工标注点标签。在该数据集上的测试结果表明,所提出的棉花幼苗计数算法取得了较好的计数效果,平均计数误差(Mean Absolute Error,MAE)和均方根误差(Root Mean Square Error,RMSE)分别为63.46和81.33,对比多列卷积神经网络(Multi-column Convolutional Neural Network, MCNN)、拥挤场景识别网络(Congested Scene Recognition Network, CSRNet)、TasselNet、MobileCount等方法,MAE平均下降了48.8%,RMSE平均下降了45.3%。  相似文献   

4.
针对羊肉精和染色剂作用下的猪肉掺假羊肉分类检测问题,该研究提出并建立了一种检测速度较快、精度较高的注意力机制结合倒置残差网络模型,同时基于智能手机开发了对应的快速、准确检测应用软件。首先,对羊肉、不同部位猪肉、不同掺假比例下的猪肉掺假羊肉的原始手机图像,使用数据增强方式进行数据扩充;其次,用倒置残差结构替换残差网络框架中的原有残差结构,以减少网络参数量并加快模型收敛速度,同时,引入注意力机制(Convolutional Block Attention Module,CBAM),利用空间和通道特征对特征权重再分配,以强化掺假羊肉和羊肉之间的特征差异;然后,利用提出的注意力机制结合倒置残差网络(CBAM-Invert-ResNet)对样本进行训练并确定模型参数;最后,将训练好的网络模型移植到智能手机,以实现掺假羊肉的移动端检测。研究结果表明:与ResNet50和CBAM-ResNet50相比,Invert-ResNet50、CBAM-Invert-ResNet50模型的参数量分别减少了58.25%和61.64%,模型大小分别减小了58.43%和61.59%;针对背脊、前腿、后腿和混合部位数...  相似文献   

5.
改进Faster R-CNN的群养猪只圈内位置识别与应用   总被引:4,自引:3,他引:1  
群养圈栏内猪只的位置分布是反映其健康福利的重要指标。为解决传统人工观察方式存在的人力耗费大、观察时间长和主观性强等问题,实现群养猪只圈内位置的高效准确获取,该研究以三原色(Red Green Blue,RGB)图像为数据源,提出了改进的快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)的群养猪只圈内位置识别算法,将时间序列引入候选框区域算法,设计Faster R-CNN和轻量化CNN网络的混合体,将残差网络(Residual Network,ResNet)作为特征提取卷积层,引入PNPoly算法判断猪只在圈内的所处区域。对育成和育肥2个饲养阶段的3个猪圈进行24 h连续98 d的视频录像,从中随机提取图像25 000张作为训练集、验证集和测试集,经测试该算法识别准确率可达96.7%,识别速度为每帧0.064 s。通过该算法获得了不同猪圈和日龄的猪群位置分布热力图、分布比例和昼夜节律,猪圈饲养面积的增加可使猪群在实体地面的分布比例显著提高(P<0.05)。该方法可为猪只群体行为实时监测提供技术参考。  相似文献   

6.
采用双重注意力特征金字塔网络检测群养生猪   总被引:4,自引:4,他引:0  
为解决复杂环境下,猪只粘连和猪栏遮挡等因素给生猪个体多目标实例检测带来的困难,该研究以群养猪圈场景下8栏(日龄20~105 d)共计45头生猪为研究对象,以视频为数据源,采用平视视角、镜头位置不固定的数据采集方式,共获得标注图像3 834张,并将其划分为训练集2 490张、验证集480张、测试集864张。引入一种融合通道注意力(Channel Attention Unit,CAU)与空间注意力(Position Attention Unit,PAU)的双重注意力单元(Dual Attention Unit,DAU),并将DAU用于特征金字塔网络(Feature Pyramid Network,FPN)结构中,研究基于两大骨干网络ResNet50、ResNet101与4个任务网络Mask R-CNN、Cascade Mask R-CNN、MS R-CNN及HTC(Hybrid Task Cascade)交叉结合模型对群养生猪实例检测性能。结果表明:与CBAM、BAM、SCSE等注意力模块相比,HTC-R101-DAU比HTC-R101-CBAM在IOU阈值为0.5、0.75、0.5~0.95(所有目标)、0.5~0.95(大目标)条件下的4种AP(Average Precision)指标分别提升1.7%、1.7%、2.1%与1.8%;单独加入CAU与PAU以分别探究通道与空间注意力单元对任务网络检测性能影响,试验结果表明,DAU与CAU及PAU相比性能更佳,且加入特定串联数量的PAU效果优于CAU;为获取更为丰富的上下文信息,分别串联1~4个PAU单元以构建不同空间注意力模块,试验结果表明,随着串联PAU单元数量的增加,相同任务网络其预测AP指标值先增加后减小。综合分析,HTC-R101-DAU模型可更为精确、有效地对不同场景生猪进行实例检测,可为后续生猪个体深度研究奠定基础。  相似文献   

7.
用BERT和改进PCNN模型抽取食品安全领域关系   总被引:1,自引:1,他引:0  
为了提高食品安全领域关系抽取的效率和准确性,该研究在收集食品安全领域语料的基础上,对语料中相应的实体和关系进行标注,构建可用于食品安全领域关系抽取的专业数据集。同时,提出面向食品安全领域的基于BERT-PCNN-ATT-Jieba的关系抽取模型,该模型使用基于转换器的双向编码器表征量(Bidirectional Encoder Representations from Transformers,BERT)预训练模型生成输入词向量,并结合分段卷积神经网络(Piecewise Convolutional Neural Network,PCNN)模型的分段最大池化层能极大程度捕获句子局部信息的特点,在分段最大池化层与分类层之间添加了注意力机制,以进一步提取高层语义。此外,考虑中文语料的特性,在BERT模型进行随机掩码切分之前,采用Jieba分词技术对中文语料进行分词,PCNN模型在执行掩码语言模型(Masked Language Model,MLM)时以词为单位进行掩码,使得输入到训练模型中的句子尽可能减少语义损失,以实现更高效的关系抽取。在该研究构建的数据集基础上,将BERT-PCNN-ATT-Jieba模型与经典的卷积神经网络(Convolutional Neural Network,CNN)、PCNN模型、以及结合BERT的CNN、PCNN、PCNN-ATT、PCNN-Jieba等6个模型进行比较,该研究提出的BERT-PCNN-ATT-Jieba模型取得更优的性能,其准确率达到84.72%,召回率达到81.78%,F1值达到83.22%。该模型为食品安全领域的知识抽取提供参考,为该领域知识图谱的自动化构建节约了成本,同时为基于该领域知识图谱的知识问答、知识检索、数据共享及食品安全智慧监管等应用提供依据。  相似文献   

8.
为解决复杂跨域场景下猪个体的目标检测与计数准确率低下的问题,该研究提出了面向复杂跨域场景的基于改进YOLOv5(You Only Look Once version 5)的猪个体检测与计数模型。该研究在骨干网络中分别集成了CBAM(Convolutional Block Attention Module)即融合通道和空间注意力的模块和Transformer自注意力模块,并将CIoU(Complete Intersection over Union)Loss替换为EIoU(Efficient Intersection over Union)Loss,以及引入了SAM (Sharpness-Aware Minimization)优化器并引入了多尺度训练、伪标签半监督学习和测试集增强的训练策略。试验结果表明,这些改进使模型能够更好地关注图像中的重要区域,突破传统卷积只能提取卷积核内相邻信息的能力,增强了模型的特征提取能力,并提升了模型的定位准确性以及模型对不同目标大小和不同猪舍环境的适应性,因此提升了模型在跨域场景下的表现。经过改进后的模型的mAP@0.5值从87.67%提升到98.76%,mAP@0.5:0.95值从58.35%提升到68.70%,均方误差从13.26降低到1.44。以上研究结果说明该文的改进方法可以大幅度改善现有模型在复杂跨域场景下的目标检测效果,提高了目标检测和计数的准确率,从而为大规模生猪养殖业生产效率的提高和生产成本的降低提供技术支持。  相似文献   

9.
基于CNN-BiLSTM的棉花产量预测方法   总被引:1,自引:1,他引:0  
针对传统的作物产量估算方法在模型泛化方面的不足及缺少时序特征和空间特征的问题,该研究以机采棉为研究对象,结合无人机遥感平台与深度学习技术对棉花进行多期遥感观测与估产。以棉花苗期、蕾期和花期的影像为时间序列数据集,构建基于卷积神经网络(Convolutional Neural Network,CNN)和双向长短期记忆(Bidirectional Long Short-Term Memory,BiLSTM)的混合模型(CNN-BiLSTM)进行棉花产量预估,提高时间维度和空间维度方面的特征提取能力,并分别验证CNN和BiLSTM的性能以及不同网络深度对估产的影响。研究结果表明,CNN和BiLSTM深度分别为14和1的CNN14-BiLSTM模型准确率最高,对比单一结构的BiLSTM该模型决定系数从0.851提升至0.885,其均方根误差和平均绝对百分比误差也均明显下降,在2.3 m×2.3 m的样方内,结果分别为147.167 g和6.711%。该研究实现了基于时间序列的棉花产量估算,可为类似的作物产量估算提供参考。  相似文献   

10.
为实现对苹果果实病害的快速准确识别,提出了一种基于改进YOLOv5s的果实病害识别模型:GHTR2-YOLOv5s (YOLOv5s with Ghost structure and TR2 module),并通过迁移学习策略对其进行优化。在YOLOv5s基础上通过加入幻影结构和调整特征图整体宽度得到小型基线模型,通过卷积块注意力模块(Convolutional Block Attention Module, CBAM)和加权双向特征金字塔网络(Bidirectional Feature Pyramid Network, BIFPN)提高模型精度,使用TR2(Two Transformer)作为检测头增强模型对全局信息的获取能力。改进后模型大小和识别速度为2.06 MB和0.065 s/张,分别为YOLOv5s模型的1/6和2.5倍;IoU阈值为0.5下的平均精度均值(mAP0.5)达到0.909,能快速准确地识别苹果果实病害。研究通过在线图像增强与迁移学习相结合的方式提高模型收敛速度,进一步提高模型精度,其mAP0.5达到0.916,较原始模型提升8.5%。试验结果表明,该研究提出的基于GHTR2-YOLOv5s和迁移学习的苹果病害识别方法有效优化了模型训练过程,实现了占用较少计算资源的情况下对苹果病害进行快速准确地识别。  相似文献   

11.
基于连续语音识别技术的猪连续咳嗽声识别   总被引:5,自引:2,他引:3  
针对现有基于孤立词识别技术的猪咳嗽声识别存在识别声音种类有限,无法反映实际患病猪连续咳嗽的问题,该文提出了基于双向长短时记忆网络-连接时序分类模型(birectional long short-termmemory-connectionist temporal classification,BLSTM-CTC)构建猪声音声学模型,进行猪场环境猪连续咳嗽声识别的方法,以此进行猪早期呼吸道疾病的预警和判断。研究了体质量为75 kg左右长白猪单个咳嗽声样本的持续时间长度和能量大小的时域特征,构建了声音样本持续时间在0.24~0.74 s和能量大于40.15 V~2·s的阈值范围。在此阈值范围内,利用单参数双门限端点检测算法对基于多窗谱的心理声学语音增强算法处理后的30 h猪场声音进行检测,得到222段试验语料。将猪场环境下的声音分为猪咳嗽声和非猪咳嗽声,并以此作为声学模型建模单元,进行语料的标注。提取26维梅尔频率倒谱系数(Mel frequency cepstral coefficients,MFCC)作为试验语段特征参数。通过BLSTM网络学习猪连续声音的变化规律,并利用CTC实现了端到端的猪连续声音识别系统。5折交叉验证试验平均猪咳嗽声识别率达到92.40%,误识别率为3.55%,总识别率达到93.77%。同时,以数据集外1 h语料进行了算法应用测试,得到猪咳嗽声识别率为94.23%,误识别率为9.09%,总识别率为93.24%。表明基于连续语音识别技术的BLSTM-CTC猪咳嗽声识别模型是稳定可靠的。该研究可为生猪健康养殖过程中猪连续咳嗽声的识别和疾病判断提参考。  相似文献   

12.
随着人工智能技术的兴起,深度学习技术发展迅猛,在图像及音频识别、自然语言处理、机器人技术、生物信息学、化学和金融等领域中应用广泛,也是目前发展精细畜牧业重要工具。养猪业是中国的重要农业产业,生猪的体况、行为及健康状况直接影响猪场的收入水平,通过深度学习技术可以快速、准确地了解猪只的相关信息并进行精确管理,提高猪只饲养效率及动物福利水平。该研究阐述了深度学习在目标猪只检测、猪只图像分割、猪只体况及异常监测、猪只行为识别上的应用现状,提出了深度学习技术在猪只饲养过程中的改进策略,以方便研究人员快速了解其研究进展。同时总结和分析了深度学习技术在猪只饲养过程中关于数据来源及数据集、应用范围、模型优化的不足与展望,提出应建立适用于猪只领域的公共数据集和统一的数据集标准,扩大深度学习的应用范围,优化DL模型以满足实际任务需求,将深度学习应用于猪场生产实践中。该研究旨为提高猪只福利化养殖和猪场经济效益提供依据,以推动深度学习在猪只饲养过程中应用的进一步发展。  相似文献   

13.
基于声信号特征加权的设施养殖羊行为分类识别   总被引:1,自引:2,他引:1  
中国西部地区正在发展集约化和规模化的设施养羊业,通过监测羊舍内的声信号可以判别羊只的行为状态,从而为设施养羊的福利化水平评估提取基础依据。梅尔频率倒谱系数(mel frequency cepstrum coefficient,MFCC)模拟了人耳对语音的处理特点且抗噪音性强,被广泛用于畜禽发声信号的特征提取,但其没有考虑各个特征分量表征声信号的能力。该研究构建羊舍无线声音数据采集系统,采集20只羊在设施羊舍内的打斗、饥饿、咳嗽、啃咬和寻伴共5种行为下的声信号,并通过Audacity音频处理软件选出720个清晰且不重叠的声音样本数据。根据MFCC各分量对羊舍声信号表征能力,特征参数提取采用一种熵值加权的MFCC参数,再求其一、二阶差分并进行主成分分析降维,得到优化的19维特征参数。通过对羊舍声信号的声谱图分析,设计了支持向量机二叉树识别模型,并对模型内的4个分类器参数进行网格化寻优测试,该识别模型对羊只5种行为下的声信号进行分类识别,用改进的特征参数与传统MFCC和线性预测倒谱系数(linear predictive cepstrum coefficient,LPCC)进行对比分析。结果表明,该特征参数对5种行为的识别率平均可达83.6%,分别高于MFCC和LPCC参数14.1%和26.8%,羊只打斗和咳嗽行为的声信号属于相似的短时爆发类声音,其识别率分别仅为80.6%和79.5%,啃咬声特征显著不易混淆,其查全率可达到为92.5%,改进特征参数更好的表征了羊舍声信号的特征,提高了羊只不同行为的识别率,为羊只健康和福利状况的监测提供理论依据。  相似文献   

14.
基于行为监测的疑似病猪自动化识别系统   总被引:13,自引:7,他引:6  
针对传统的群养猪行为观察方法的缺点,提出了1种疑似病猪行为自动监测系统。系统基于ARM平台,利用安装于猪舍排泄区的嵌入式监控设备对群养猪的排泄行为进行24 h监控,通过1种改进的运动目标检测算法和基于像素块对称特征的图像识别算法定位具有异常行为的疑似病猪,并将报警图像通过通用分组无线服务(general packet radio service)网络传送至监控中心。对一栏10头大约克夏猪的试验结果表明,病猪检测正确率为78.38%,基本达到了预期的目标。因此,该文设计的方法对我国的养殖业实施自动化监测具有一定的借鉴意义。  相似文献   

15.
基于机器视觉的育肥猪分群系统设计与试验   总被引:3,自引:1,他引:2  
为控制育肥猪出栏时的体质量差异,该研究开发了一套基于机器视觉技术的育肥猪分群系统,该系统通过机器视觉技术和卷积神经网络模型代替传统地磅对猪只体质量进行估测,可有效避免粪污对设备精度的影响及腐蚀;以前一天全部猪只体质量数据从小到大排列的第30%个数据作为当日的分群基准质量,将大于等于基准质量的视为长势较快的猪只,小于基准质量的视为长势较慢的猪只,每次采食按照猪只长势快慢分为2群进行饲喂;该系统依托于LabVIEW软件开发平台和物联网系统构建,平均每头猪只通过系统时间为6.2 s。为验证该系统的实际应用效果开展了为期30 d的现场试验,将饲喂于装有分群系统猪栏中的120头长白育肥猪作为试验组,由分群系统按猪只长势快慢分群饲喂;将饲喂于传统猪栏中的120头长白育肥猪作为对照组,按照传统人工调栏的方式进行饲喂。试验开始时试验组和对照组猪只平均体质量分别为32.21、31.76 kg,标准差分为别2.61和2.49 kg;结束时试验组和对照组猪只平均体质量分别为57.68、57.41 kg,标准差分为别5.26和5.51 kg,总料肉比分别为2.31和2.34,期间试验组猪只体质量的标准差小于对照组,但是2组猪只平均体质量、标准差、总料肉比均不存在显著差异,表明采用该系统对猪只进行分群饲喂控制猪只体质量差异效果等同于人工调栏,同时可以节省人力成本,缓解农业劳动力短缺的压力。该研究也可为母猪饲喂站、种猪测定站等智能化养猪设备的研发提供参考。  相似文献   

16.
群养猪行为是评估猪群对环境适应性的重要指标。猪场环境中,猪只行为识别易受不同光线和猪只粘连等因素影响,为提高群养猪只行为识别精度与效率,该研究提出一种基于改进帧间差分-深度学习的群养猪只饮食、躺卧、站立和打斗等典型行为识别方法。该研究以18只50~115日龄长白猪为研究对象,采集视频帧1 117张,经图像增强共得到4 468张图像作为数据集。首先,选取Faster R-CNN、SSD、Retinanet、Detection Transformer和YOLOv5五种典型深度学习模型进行姿态检测研究,通过对比分析,确定了最优姿态检测模型;然后,对传统帧间差分法进行了改进,改进后帧间差分法能有效提取猪只完整的活动像素特征,使检测结果接近实际运动猪只目标;最后,引入打斗活动比例(Proportion of Fighting Activities, PFA)和打斗行为比例(Proportion of Fighting Behavior, PFB)2个指标优化猪只打斗行为识别模型,并对模型进行评价,确定最优行为模型。经测试,YOLOv5对群养猪只典型姿态检测平均精度均值达93.80%,模型大小为1...  相似文献   

17.
基于边界脊线识别的群养猪黏连图像分割方法   总被引:3,自引:3,他引:0  
猪体图像的前景分割和黏连猪体的分离是实现群养猪数量自动盘点和猪只个体行为智能识别的关键。为实现群养猪黏连图像的自动分割,该文采用决策树分割算法提取视频图像帧的猪体前景区域,计算各连通区域的复杂度,根据复杂度确定黏连猪体区域,利用标记符控制的分水岭分割算法处理黏连猪体图像,检测待选的边界脊线,通过检验待选边界脊线的分割效果和形状特征(包括线性度和Harris拐点数目),识别出猪体黏连分割线,实现黏连猪体的分离。结果表明,决策树分割算法(decision-tree-based segmentation model,DTSM)能够有效地去除复杂背景,前景分割效果良好。黏连猪体分离结果显示,基于边界脊线识别的黏连猪体分离准确率达到了89.4%,并较好地保留了猪体轮廓。通过计算分割后猪体连通区域的中心点,并对中心点进行德洛内剖分,初步实现了猪只的定位和栏内分布的可视化。6 min的监控视频处理结果显示,该文方法各帧图像的盘点平均误差为0.58,盘点准确率为98.33%,能够正确统计出栏内猪只数量。该研究可为实现基于监控视频的群养猪自动盘点和个体行为识别提供新的技术手段。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号