首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 171 毫秒
1.
猪只盘点是规模化养殖中的重要环节,为生猪精准饲喂和资产管理提供了依据。人工盘点不仅耗时低效,而且容易出错。当前已有基于深度学习的生猪智能盘点算法,但在遮挡重叠、光照等复杂场景下盘点精度较低。为提高复杂场景下生猪盘点的精度,提出了一种基于改进YOLO v5n的猪只盘点算法。该算法从提升猪只目标检测性能出发,构建了一个多场景的生猪数据集;其次,在主干网络中引入SE-Net通道注意力模块,引导模型更加关注遮挡条件下猪只目标信息的通道特征。同时,增加了检测层进行多尺度特征融合处理,使模型更容易学习收敛并预测不同尺度的猪只对象,提升模型遮挡场景的检测性能;最后,对边界框损失函数以及非极大值抑制处理进行了改进,使模型对遮挡的目标有更好的识别效果。实验结果表明,与原YOLO v5n算法相比,改进算法的平均绝对误差(MAE)、均方根误差(RMSE)以及漏检率分别降低0.509、0.708以及3.02个百分点,平均精度(AP)提高1.62个百分点,达到99.39%,在复杂遮挡重叠场景下具有较优的精确度和鲁棒性。算法的MAE为0.173,与猪只盘点算法CClusnet、CCNN和PCN相比,分别降低0.2...  相似文献   

2.
针对猪只人工计数方法消耗时间和劳动力,育肥猪较为活跃且喜好聚集,图像中存在大量的高密度区域,导致猪只之间互相粘连、遮挡等问题,基于SOLO v2实例分割算法,提出了一种自然养殖场景下融合多尺度特征金字塔与二代可变形卷积的高密度群养猪计数模型。通过优化模型结构来减少计算资源的消耗与占用。将科大讯飞给出的猪只计数的公开数据集划分为猪只分割数据集和猪只盘点测试集,利用猪只分割数据集获得较好的分割模型,然后在猪只盘点测试集中测试盘点准确率,实现猪群分割和猪只计数。实验结果表明,本文提出的高密度猪只计数模型的分割准确率达到96.7%,且模型内存占用量为256 MB,为改进前的2/3,实现了遮挡、粘连和重叠情况下的猪只个体高准确率分割。在含有500幅猪只图像计数测试集中,模型计算猪只数量误差为0时的图像数量为207幅,较改进前提高26%。模型计算猪只数量误差小于2头猪的图像数量占测试图像总数量的97.2%。模型计算猪只数量误差大于3头猪的图像数量占总体图像数量比例仅为1%。最后,对比基于YOLO v5的群养猪计数方法,本文模型具有更优的分割效果和计数准确率,验证了本文方法对群养猪只计数的有效性。因...  相似文献   

3.
目前猪群图像检测均为基于水平框的目标检测算法,对于图像中猪体粘连和相互遮挡情况检测率较低,针对图像中的猪只长宽比例较大和可能发生任意角度旋转的特点,提出了一种基于双扩张层和旋转框定位的群猪目标检测算法(Dual dilated layer and rotary box location network, DR-Net)。采集3个猪场的群猪图像,利用数据增强保留9 600幅图像制作数据集;基于膨胀卷积搭建提取图像全局信息的双扩张层,借鉴Res2Net模块改进CSP层融合多尺度特征,猪只目标以旋转框定位并采用五参数表示法在模型训练中利用Gaussian Wasserstein distance计算旋转框的回归损失。试验结果表明,DR-Net对猪只目标识别的精确率、召回率、平均精确率、MAE、RMSE分别为98.57%、97.27%、96.94%、0.21、0.54,其检测效果优于YOLO v5,提高了遮挡与粘连场景下的识别精度和计数精度。利用可视化特征图分析算法在遮挡和粘连场景下能够利用猪只头颈部、背部或尾部特征准确定位目标。该研究有助于智能化猪场建设,可为后续猪只行为识别研究提供参考。  相似文献   

4.
以小麦叶片条锈病和白粉病为研究对象,针对同类型病害的不同严重度之间的图像颜色及纹理特征差异较小,传统方法病害严重度估计准确率不高的问题,提出一种基于循环空间变换的卷积神经网络(Recurrent spatial transformer convolutional neural network,RSTCNN)对小麦叶片病害进行严重度估计。RSTCNN包含3个尺度网络,并由区域检测子网络进行连接。每个尺度网络以VGG19作为基础网络以提取病害的特征,同时为了统一区域检测过程中前后特征图的维度,在全连接层前引入空间金字塔池化(Spatial pyramid pooling,SPP);区域检测子网络则采用空间变换(Spatial transformer,ST)有效提取尺度网络特征图中病害的注意力区域。小麦叶片病害图像通过每个尺度网络中卷积池化层得到的特征图,一方面可作为预测病害严重度类别概率的依据,另一方面通过ST进行注意力区域检测并将检测到的区域作为下一个尺度网络的输入,通过交替促进的方式对注意力区域检测和局部细粒度特征表达进行联合优化和递归学习,最后对不同尺度网络的输出特征进行融合再并入到全连接层和Softmax层进行分类,从而实现小麦叶片病害严重度的估计。本文对采集的患有条锈病和白粉病的小麦叶片图像结合数据增强方法构建病害数据集,实验验证了改进后的RSTCNN在3层尺度融合的网络对病害严重度估计准确率较佳,达到了95.8%。相较于基础分类网络模型,RSTCNN准确率提升了7~9个百分点,相较于传统的基于颜色和纹理特征的机器学习算法,RSTCNN准确率提升了9~20个百分点。结果表明,本文方法显著提高了小麦叶片病害严重度估计的准确率。  相似文献   

5.
针对传统的目标检测方法依赖人工提取特征,存在检测效率低、鲁棒性差和实时性差等缺陷。本文根据刺梨果实在自然环境中的生长特点,采用带有残差模块的YOLO v3神经网络进行刺梨果实识别模型的训练,该网络通过提取不同卷积层的特征图,将深层特征图进行上采样后与浅层特征图进行多次融合,以提取图像的更深层次的特征信息。通过对该网络的相关参数进行优化和改进,并对未参与模型训练的70幅刺梨图像进行检测,实验表明,本文算法能够有效地对自然环境下的11类刺梨果实进行识别,各类识别平均准确率为88.5%,平均召回率为91.5%,F_1平均值为89.9%,识别速率约为20 f/s。本文算法在刺梨果实的识别上取得了理想的识别效果。  相似文献   

6.
基于深度学习的群猪图像实例分割方法   总被引:9,自引:0,他引:9  
群养饲喂模式下猪群有聚集在一起的习性,特别是躺卧时,当使用机器视觉跟踪监测猪只时,图像中存在猪体粘连,导致分割困难,成为实现群猪视觉追踪和监测的瓶颈。根据实例分割原理,把猪群中的猪只看作一个实例,在深度卷积神经网络基础上建立Pig Net网络,对群猪图像尤其是对粘连猪体进行实例分割,实现独立猪体的分辨和定位。Pig Net网络采用44层卷积层作为主干网络,经区域候选网络(Region proposal networks,RPN)提取感兴趣区域(ROI),并和主干网络前向传播的特征图共享给感兴趣区域对齐层(Region of interest align,ROIAlign),分支通过双线性插值计算目标空间,三分支并行输出ROI目标的类别、回归框和掩模。Mask分支采用平均二值交叉熵损失函数计算独立猪体的目标掩模损失。连续28 d采集6头9. 6 kg左右大白仔猪图像,抽取前7 d内各不同时段、不同行为模式群养猪图像2 500幅作为训练集和验证集,训练集和验证集的比例为4∶1。结果表明,Pig Net网络模型在训练集上总分割准确率达86. 15%,在验证集上准确率达85. 40%。本文算法对不同形态、粘连严重的群猪图像能够准确分割出独立的猪个体目标。将本文算法与Mask R-CNN模型及其改进模型进行对比,准确率比Mask RCNN模型高11. 40个百分点,单幅图像处理时间为2. 12 s,比Mask R-CNN模型短30 ms。  相似文献   

7.
基于BP模型的蝗虫密度预测系统的研究   总被引:1,自引:0,他引:1  
为了预测农田蝗灾发生情况,研究了基于超低空飞行器的农田蝗灾预警系统.对由飞机上摄像头采集到的图像进行处理,得到幼蝗分布密度,结合往年蝗虫密度以及当地前1年内月平均气温和月平均降水量的情况,建立BP神经网络模型,并结合蝗虫密度采样的特点,提出了改进的BP算法,预测了东亚飞蝗成虫发生密度.在研究空间内插算法的同时,结合GIS空间分析,在数字地图上生成蝗虫发生密度图,为灭蝗工作的实施提供了参考.  相似文献   

8.
农作物病虫害是一种严重的自然灾害,需要对其进行及时预测和监控,以保证农作物产量。由于害虫种类繁多以及作物在生长初期的形态相似,农业工作者难以准确识别各类作物昆虫,给病虫害的防治工作带来巨大挑战。针对这一问题,提出一种基于多尺度特征融合的网络模型(FFNet)对作物害虫进行精准识别与分类。首先,采用空洞卷积设计多尺度特征提取模块(MFEM),获取害虫图像的多尺度特征图;然后,使用深层特征提取模块(DFEM)提取图像的深层特征信息;最后,将分别由多尺度特征提取模块(MFEM)和深层特征提取模块(DFEM)提取到的特征图进行融合,从而实现以端到端的方式对作物害虫进行精准分类与识别。试验表明:所提出的方法在12类害虫的数据集上获得优异的分类性能,分类准确率(ACC)达到98.2%,损失函数Loss为0.031,模型训练时间为197 min。  相似文献   

9.
基于改进型YOLO的复杂环境下番茄果实快速识别方法   总被引:11,自引:0,他引:11  
为实现温室环境下农业采摘机器人对番茄果实的快速、精确识别,提出了一种改进型多尺度YOLO算法(IMS-YOLO)。对YOLO网络模型进行筛选和改进,设计了一种含有残差模块的darknet-20主干网络,同时融合多尺度检测模块,构建了一种复杂环境下番茄果实快速识别网络模型。该网络模型层数较少,能够提取更多特征信息,且采用多尺度检测结构,同时返回番茄果实的类别和预测框,以此提升番茄果实检测速度和精度。采用自制的番茄数据集对IMS-YOLO模型进行测试,并分别对改进前后网络的检测性能以及主干网络层数对特征提取能力的影响进行了对比试验。试验结果表明,IMS-YOLO模型对番茄图像的检测精度为97. 13%,准确率为96. 36%,召回率为96. 03%,交并比为83. 32%,检测时间为7. 719 ms;对比YOLO v2和YOLO v3等网络模型,IMS-YOLO模型可以同时满足番茄果实检测的精度和速度要求。最后,通过番茄温室大棚采摘试验验证了本文模型的可行性和准确性。  相似文献   

10.
针对在“一垄双沟”甘蔗丛高秆作物环境下行人目标检测的重要性及难度问题,提出一种改进YOLOV3算法的甘蔗丛中高秆作物遮挡的行人目标检测算法(YOLOV3-my-prune)。为获得更好的行人特征表达,使用Imgaug库对自制的数据集增强,并结合数据集中行人尺寸特点,使用K-means聚类分析方法,为神经网络重新聚类目标锚箱。对YOLOV3网络改进,设计了在网络全连接层中引入空间金字塔池化模块,并增加第四尺度预测特征图,同时增强网络多尺度特征融合能力及小尺度特征提取能力。完成改进的模型基础训练后,采用通道和层剪枝混合剪枝方法轻量化模型,并在数据集上进行多尺度训练并测试,结果表明:此方法 准确率达80.1%,检测速度为30fps,均有所提升。  相似文献   

11.
为快速准确计数大豆籽粒,提高大豆考种速度和育种水平,本研究提出了一种基于密度估计和VGG-Two(VGG-T)的大豆籽粒计数方法。首先针对大豆籽粒计数领域可用图像数据集缺乏的问题,提出了基于数字图像处理技术的预标注和人工修正标注相结合的快速目标点标注方法,加快建立带标注的公开可用大豆籽粒图像数据集。其次构建了适用于籽粒图像数据集的VGG-T网络计数模型,该模型基于VGG16,结合密度估计方法,实现从单一视角大豆籽粒图像中准确计数籽粒。最后采用自制的大豆籽粒数据集对VGG-T模型进行测试,分别对有无数据增强的计数准确性、不同网络的计数性能以及不同测试集的计数准确性进行了对比试验。试验结果表明,快速目标点标注方法标注37,563个大豆籽粒只需花费197 min,比普通人工标注节约了1592 min,减少约96%的人工工作量,大幅降低时间成本和人工成本;采用VGG-T模型计数,其评估指标在原图和补丁(patch)情况下的平均绝对误差分别为0.60.2,均方误差为0.6和0.3,准确性高于传统图像形态学操作以及ResNet18、ResNet18-T和VGG16网络。在包含不同密度大豆籽粒的测试集中,误差波动较小,仍具有优良的计数性能,同时与人工计数和数粒仪相比,计数11,350个大豆籽粒分别节省大约2.493?h0.203?h,实现大豆籽粒的快速计数任务。  相似文献   

12.
为了更好地解决育肥猪的体重预估问题,本研究通过获取育肥猪在不同生长阶段的图像和质量数据,利用计算机视觉技术将猪的侧视图像进行预处理、颜色特征处理、阈值分割及图像形态学处理,经过推导计算求出猪体的侧视面积,对一维体尺参数、侧视面积与体重进行数据拟合并建立数学模型。研究结果表明:在只考虑体尺单因素的影响时,拟合出的体重与体尺的相关性较小,其平均误差也较大。通过比较逐步回归法与MLP神经网络模型发现:MLP神经网络拟合模型相关性最好,相关性R2可达到0.993,平均相对误差为1.38%,可以很好地保证估测精度,为测量猪的体重提供新的方法。  相似文献   

13.
Computer modelling was used to compare a variety of performance testing and selection programmes whose objective was to increase the monetary value of pigs as determined by their rate and efficiency of growth and the leanness of their carcases.Factors varied over feasible ranges were the cost and accuracy of performance testing, the culling rates of breeding stock and the degree of subdivision of the herd into a nucleus supplying breeder replacements for the whole herd and a production unit producing slaughter stock.Net returns per sow, evaluated over 10 years of selection, increased, by 120 times, the standard deviation (sd) of the breeding objective for each improvement of 0·1 in the correlation between the selection criterion and the breeding objective (test accuracy).A unit of the cost of testing each pig equalled 0·4 sd of the breeding objective and net returns in the unsubdivided herd declined by 0·6 for each unit increase in cost. Herd subdivision increased net returns by reducing the number of pigs tested—and hence the cost of testing. The optimum ratios of production unit to breeding nucleus sizes which maximised net returns were found. When herds were subdivided in an optimum way, the decline in net returns with increasing testing costs was reduced sixfold.Returns were highest when boars were worked for only one breeding cycle (approximately 6 months) in both the nucleus and the production unit. Depending on the accuracy and cost of testing, maximum net returns occurred when nucleus sows were culled after one or two farrowings. Sows in the production unit were an optimum combination of culled ‘old’ sows and selected ‘young’ gilts from the nucleus. There were a number of other replacement schemes which were almost equally profitable.  相似文献   

14.
基于U-Net和特征金字塔网络的秸秆覆盖率计算方法   总被引:1,自引:0,他引:1  
针对田间秸秆覆盖分散、秸秆形态多样,细碎秸秆识别困难,传统图像识别方法易受光照、阴影等因素干扰等问题,本文以黑龙江省齐齐哈尔市龙江县为研究地点,构建田间秸秆图像数据集;对图像进行裁剪、标注后,构建了以U-Net为基础网络的秸秆检测模型。将编码阶段的网络结构换成ResNet34的前4层作为特征提取器,增加模型的复杂度,增强秸秆特征的提取;为增强秸秆边缘识别,在最高语义信息层对深层特征图使用多分支非对称空洞卷积块(Multibranch asymmetric dilated convolutional block, MADC Block)提取多尺度的图像特征;为增加细碎秸秆的检测能力,在跳跃连接阶段使用密集特征图金字塔网络(Dense feature pyramid networks, DFPN)进行低层特征图和高层特征图的信息融合,利用特征图对应秸秆图像中感受野的不同,解决秸秆形态多样的问题;为避免秸秆特征图在上采样时的无效计算,解码阶段使用快速上卷积块(Fast up-convolution block, FUC Block)进行上采样,避免秸秆特征图在上采样时的无效计算。试验表明,本...  相似文献   

15.
为解决基于计算机视觉猪只体尺测量过程中存在的对猪只姿态依赖度高、测定效率低等问题,提出了一种基于DeepLabCut算法的非接触式猪只体尺快速测量方法。本研究以长白猪为研究对象,使用RealSense L515深感相机作为图像数据采集单元获取猪只背部RGB-D数据,通过分析对比ResNet、MobileNet-V2、EfficientNet系列的10个主干网络训练效果,选取EfficientNet-b6模型作为DeepLabCut算法最优主干网络进行猪只体尺特征点检测;为实现猪只体尺数据的精准计算,本文采用SVM模型识别猪只站立姿态,筛选猪只自然站立状态;在此基础上,采用深度数据临近区域替换算法对离群特征点进行优化,并计算猪只体长、体宽、体高、臀宽和臀高5项体尺指标。经对140组猪只图像进行测试发现,本研究提出的算法可实现猪只自然站立姿态下体尺的实时、精准测量,体尺最大均方根误差为1.79 cm,计算耗时为每帧0.27 s。  相似文献   

16.
生猪的体尺参数是生猪生长状态的重要评判标准,而人工测量体尺耗时耗力且容易造成猪只的应激反应,本文研究了无接触式猪只体尺参数测量方法,借鉴人工测量经验法,提出基于点云语义分割的猪只体尺测量方法。本文以大约克夏猪为研究对象,搭建无接触式猪只点云采集平台,采集3 510组猪只双侧点云数据;利用直通滤波器与随机采样一致性分割处理方法去除背景点云,基于统计滤波器去除离群点,采用体素下采样方法稀疏点云,完成猪只点云的预处理;基于PointNet网络,结合注意力模块构建语义分割模型,针对不同分割部位设计猪只体尺测量方法。试验结果表明,在自制数据集上,改进的语义分割模型准确率为86.3%,相较于PointNet、PointNet++和3D-RCNN分别高8、5.7、2.6个百分点;体尺的测量值与实测值最大绝对误差为6.8 cm,平均绝对误差均在5 cm以内,具有较高的估算准确性,此方法能够用于猪只体尺测量。本文将语义分割与体尺测量相结合,可为后续非接触测量提供思路。  相似文献   

17.
针对无人机图像背景复杂、小麦密集、麦穗目标较小以及麦穗尺寸不一等问题,提出了一种基于FE-P2Pnet(Feature enhance-point to point)的无人机小麦图像麦穗自动计数方法。对无人机图像进行亮度和对比度增强,增大麦穗目标与背景之间的差异度,减少叶、秆等复杂背景因素的影响。引入了基于点标注的网络P2Pnet作为基线网络,以解决麦穗密集的问题。同时,针对麦穗目标小引起的特征信息较少的问题,在P2Pnet的主干网络VGG16中添加了Triplet模块,将C(通道)、H(高度)和W(宽度)3个维度的信息交互,使得主干网络可以提取更多与目标相关的特征信息;针对麦穗尺寸不一的问题,在FPN(Feature pyramid networks)上增加了FEM(Feature enhancement module)和SE(Squeeze excitation)模块,使得该模块能够更好地处理特征信息和融合多尺度信息;为了更好地对目标进行分类,使用Focal Loss损失函数代替交叉熵损失函数,该损失函数可以对背景和目标的特征信息进行不同的权重加权,进一步突出特征。实验结果表明,在本文所构建的无人机小麦图像数据集(Wheat-ZWF)上,麦穗计数的平均绝对误差(MAE)、均方误差(MSE)和平均精确度(ACC)分别达到3.77、5.13和90.87%,相较于其他目标计数回归方法如MCNN(Multi-column convolutional neural network)、CSRnet(Congested scene recognition network)和WHCNETs (Wheat head counting networks)等,表现最佳。与基线网络P2Pnet相比,MAE和MSE分别降低23.2%和16.6%,ACC提高2.67个百分点。为了进一步验证本文算法的有效性,对采集的其它4种不同品种的小麦(AK1009、AK1401、AK1706和YKM222)进行了实验,实验结果显示,麦穗计数MAE和MSE平均为5.10和6.17,ACC也达到89.69%,表明本文提出的模型具有较好的泛化性能。  相似文献   

18.
何威  米阳  刘刚  丁向东  李涛 《农业机械学报》2023,54(S1):275-282,329
针对生猪体质量准确测定问题,提出了一种跨模态特征融合模型(Cross modality feature fusion ResNet,CFF-ResNet),充分利用可见光图像的纹理轮廓信息与深度图像的空间结构信息的互补性,实现了群养环境中无接触的生猪体质量智能测定。首先,采集并配准俯视猪圈的可见光与深度图像,并通过EdgeFlow算法对每一只目标生猪个体进行由粗到细的像素级分割。然后,基于ResNet50网络构建双流架构模型,通过内部插入门控形成双向连接,有效地结合可见光流和深度流的特征,实现跨模态特征融合。最后,双流分别回归出生猪体质量预估值,通过均值合并得到最终的体质量测定值。在试验中,以某种公猪场群养生猪为数据采集对象,构建了拥有9842对配准可见光和深度图像的数据集,包括6909对训练数据和2933对测试数据。本研究所提出模型在测试集上的平均绝对误差为3.019kg,平均准确率为96.132%。与基于可见光和基于深度的单模态基准模型相比,该模型体质量测定精度更高,其在平均绝对误差上分别减少18.095%和12.569%。同时,该模型体质量测定精度优于其他现有生猪体质量测定方法:常规图像处理模型、改进EfficientNetV2模型、改进DenseNet201模型和BotNet+DBRB+PFC模型,在平均绝对误差上分别减少46.272%、14.403%、8.847%和11.414%。试验结果表明,该测定模型能够有效学习跨模态的特征,满足了生猪体质量测定的高精度要求,为群养环境中生猪体质量测定提供了技术支撑。  相似文献   

19.
为提高生猪养殖环境质量和行为识别率,克服规模化养殖过程中采用人工巡检生猪异常行为特征和监测养殖环境参数存在识别效率低、准确性差和劳动强度大等问题,设计一种以轨道式机器人为采集终端的生猪健康养殖智能监控系统。系统以FPGA控制器为硬件核心,结合猪只体表特征与环境感知传感器、智能控制、图像处理和无线通信技术,构建生猪异常行为与异常环境全景和局部两级联动监测平台,实现对生猪异常行为和环境参数的全方位观察、识别和数据采集功能,提高生猪养殖过程的智能化管理水平。试验结果表明,该系统能够按照预设指令自动、快速地依次对选取猪舍猪只个体的生长情况、行为特征和养殖环境信息进行自动采集,异常行为识别率可达93.5%,停车定位精度误差为±12 mm。该研究有利于技术人员快速、准确获取生猪生长环境和健康状况信息,为生猪异常环境及时调控、异常行为快速诊断、疫病防治和疫情预警提供科学依据。  相似文献   

20.
基于YOLOv4的猪只饮食行为检测方法   总被引:7,自引:0,他引:7  
针对猪舍环境下猪只饮食行为自动化检测程度较低的问题,提出了一种基于YOLOv4的猪只饮食行为检测模型.基于多时间段、多视角和不同程度遮挡的猪只饮食图像,建立了猪只饮食行为图像数据库,利用YOLOv4深度学习网络的深层次特征提取、高精度检测分类特性,对猪只饮食行为进行检测.结果表明,基于YOLOv4的猪只饮食行为检测模型...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号