共查询到15条相似文献,搜索用时 46 毫秒
1.
2.
生猪的体尺参数是生猪生长状态的重要评判标准,而人工测量体尺耗时耗力且容易造成猪只的应激反应,本文研究了无接触式猪只体尺参数测量方法,借鉴人工测量经验法,提出基于点云语义分割的猪只体尺测量方法。本文以大约克夏猪为研究对象,搭建无接触式猪只点云采集平台,采集3 510组猪只双侧点云数据;利用直通滤波器与随机采样一致性分割处理方法去除背景点云,基于统计滤波器去除离群点,采用体素下采样方法稀疏点云,完成猪只点云的预处理;基于PointNet网络,结合注意力模块构建语义分割模型,针对不同分割部位设计猪只体尺测量方法。试验结果表明,在自制数据集上,改进的语义分割模型准确率为86.3%,相较于PointNet、PointNet++和3D-RCNN分别高8、5.7、2.6个百分点;体尺的测量值与实测值最大绝对误差为6.8 cm,平均绝对误差均在5 cm以内,具有较高的估算准确性,此方法能够用于猪只体尺测量。本文将语义分割与体尺测量相结合,可为后续非接触测量提供思路。 相似文献
3.
为及时掌握种植空间信息,保护和利用灯盏花,针对灯盏花垄间边界模糊,精细标记训练数据集获取困难问题,提出一种基于结合RGB波段最大差异法和弱监督语义分割的无人机遥感灯盏花种植信息提取方法。首先,对灯盏花进行边框级标记,制作弱标记数据集,减少标记时间成本;然后采用轻量级U-Net网络对弱标记数据集进行弱监督语义分割,实现灯盏花粗提取;最后,采用RGB波段最大差异法去除粗提取结果中的非灯盏花,实现灯盏花种植区精细提取。实验结果表明,提出方法在选取的3个灯盏花场景中交并比(Intersection-over-union, IoU)分别为90.55%、90.74%、86.63%,精度均高于面向对象分类法和最大似然法,并通过消融实验验证了方法的有效性。 相似文献
4.
猪只盘点是规模化养殖中的重要环节,为生猪精准饲喂和资产管理提供了依据。人工盘点不仅耗时低效,而且容易出错。当前已有基于深度学习的生猪智能盘点算法,但在遮挡重叠、光照等复杂场景下盘点精度较低。为提高复杂场景下生猪盘点的精度,提出了一种基于改进YOLO v5n的猪只盘点算法。该算法从提升猪只目标检测性能出发,构建了一个多场景的生猪数据集;其次,在主干网络中引入SE-Net通道注意力模块,引导模型更加关注遮挡条件下猪只目标信息的通道特征。同时,增加了检测层进行多尺度特征融合处理,使模型更容易学习收敛并预测不同尺度的猪只对象,提升模型遮挡场景的检测性能;最后,对边界框损失函数以及非极大值抑制处理进行了改进,使模型对遮挡的目标有更好的识别效果。实验结果表明,与原YOLO v5n算法相比,改进算法的平均绝对误差(MAE)、均方根误差(RMSE)以及漏检率分别降低0.509、0.708以及3.02个百分点,平均精度(AP)提高1.62个百分点,达到99.39%,在复杂遮挡重叠场景下具有较优的精确度和鲁棒性。算法的MAE为0.173,与猪只盘点算法CClusnet、CCNN和PCN相比,分别降低0.2... 相似文献
5.
观测叶片是了解植物生长情况的重要措施,为实现温室系统智能化管理,确保茄科植物的健康生长,使用实例分割技术可以获取到茄科植物在植物苗期的叶片生长信息。本研究提出了一种基于YOLOv5网络模型的茄科植物叶片实例分割模型YOLOv5-Biformer,该算法针对茄科植物叶片的小目标的特征,在主干网络中加入稀疏注意力网络,可以有效提高茄科植物叶片实例分割的效率。试验结果表明:YOLOv5-Biformer网络模型在茄科植物叶片数据集上与基准模型相比在精确度、召回率和平均精度指标上分别提高了0.5%、1.9%、1%,该网络模型在智能温室的环境下对于苗期的茄科植物叶片的实例分割有着显著效果,本研究可为实现温室系统的智能化管理提供部分新思路。 相似文献
6.
基于深度学习的群猪图像实例分割方法 总被引:9,自引:0,他引:9
群养饲喂模式下猪群有聚集在一起的习性,特别是躺卧时,当使用机器视觉跟踪监测猪只时,图像中存在猪体粘连,导致分割困难,成为实现群猪视觉追踪和监测的瓶颈。根据实例分割原理,把猪群中的猪只看作一个实例,在深度卷积神经网络基础上建立Pig Net网络,对群猪图像尤其是对粘连猪体进行实例分割,实现独立猪体的分辨和定位。Pig Net网络采用44层卷积层作为主干网络,经区域候选网络(Region proposal networks,RPN)提取感兴趣区域(ROI),并和主干网络前向传播的特征图共享给感兴趣区域对齐层(Region of interest align,ROIAlign),分支通过双线性插值计算目标空间,三分支并行输出ROI目标的类别、回归框和掩模。Mask分支采用平均二值交叉熵损失函数计算独立猪体的目标掩模损失。连续28 d采集6头9. 6 kg左右大白仔猪图像,抽取前7 d内各不同时段、不同行为模式群养猪图像2 500幅作为训练集和验证集,训练集和验证集的比例为4∶1。结果表明,Pig Net网络模型在训练集上总分割准确率达86. 15%,在验证集上准确率达85. 40%。本文算法对不同形态、粘连严重的群猪图像能够准确分割出独立的猪个体目标。将本文算法与Mask R-CNN模型及其改进模型进行对比,准确率比Mask RCNN模型高11. 40个百分点,单幅图像处理时间为2. 12 s,比Mask R-CNN模型短30 ms。 相似文献
7.
茎秆微观结构与其力学性能密切相关,影响作物的抗倒伏性能。但作物茎秆微观表型参数难以通过人工方式获取,因此急需自动化的测量方法。本研究以玉米为材料,通过光学显微镜获得玉米茎秆横截面切片图像,基于深度学习架构融合ResNet和Unet构建语义分割Res-Unet网络模型,对截面表皮、周皮和髓区3个功能区域进行分割;针对维管束数量多、面积小、密度大的特点,以EfficientDet作为基础网络架构,根据维管束尺寸小的特性,减少双向特征图金字塔(BiFPN)的层数,达到提高推理速度、减少显存占用量的目的,同时添加掩膜分割分支,构造新的网络Eiff-BiFPN实现对维管束的分割。实验结果表明,功能区域分割的平均DICE达到88.17%;维管束分割的AP50和AP50:70分别达到88.78%和72.80%。根据分割结果,可以获得玉米茎秆截面尺寸、各功能区域尺寸和维管束数量、面积等微观结构参数。本文方法具有精确性、实时性和可用性,可用于玉米茎秆微观结构参数的自动化测定,为作物抗倒伏研究提供技术基础。 相似文献
8.
针对目前植物解剖表型的测量与分析过程自动化低,难以应对复杂解剖表型的提取和识别的问题,以柑橘主叶脉为研究对象,提出了一种基于掩膜区域卷积神经网络(Mask region convolutional neural network, Mask R-CNN)的主叶脉显微图像实例分割模型,以残差网络ResNet50和特征金字塔(Feature pyramid network, FPN)为主干特征提取网络,在掩膜(Mask)分支上添加一个新的感兴趣区域对齐层(Region of interest Align, RoI-Align),提升Mask分支的分割精度。结果表明,该网络架构能够精准地对柑橘主叶脉横切面中的髓部、木质部、韧皮部和皮层细胞进行识别分割。Mask R-CNN模型对髓部、木质部、韧皮部和皮层细胞的分割平均精确率(交并比(IoU)为0.50)分别为98.9%、89.8%、95.7%和97.2%,对4个组织区域的分割平均精确率均值(IoU为0.50)为95.4%。与未在Mask分支添加RoI-Align的Mask R-CNN相比,精度提升1.6个百分点。研究结果表明,Mask R-CN... 相似文献
9.
10.
11.
12.
准确识别定位采摘点,根据果梗方向,确定合适的采摘姿态,是机器人实现高效、无损采摘的关键。由于番茄串的采摘背景复杂,果实颜色、形状各异,果梗姿态多样,叶子藤枝干扰等因素,降低了采摘点识别准确率和采摘成功率。针对这个问题,考虑番茄串生长特性,提出基于实例分割的番茄串视觉定位与采摘姿态估算方法。首先基于YOLACT实例分割算法的实例特征标准化和掩膜评分机制,保证番茄串和果梗感兴趣区域(Region of interest, ROI)、掩膜质量和可靠性,实现果梗粗分割;通过果梗掩膜信息和ROI位置关系匹配可采摘果梗,基于细化算法、膨胀操作和果梗形态特征实现果梗精细分割;再通过果梗深度信息填补法与深度信息融合,精确定位采摘点坐标。然后利用果梗几何特征、八邻域端点检测算法识别果梗关键点预测果梗姿态,并根据果梗姿态确定适合采摘的末端执行器姿态,引导机械臂完成采摘。研究和大量现场试验结果表明,提出的方法在复杂采摘环境中具有较高的定位精度和稳定性,对4个品种的番茄串采摘点平均识别成功率为98.07%,图像分辨率为1 280像素×720像素时算法处理速率达到21 f/s,采摘点图像坐标最大定位误差为3像素... 相似文献
13.
14.
番茄图像中多类别目标的准确识别是实现自动化采摘的技术前提,针对现有网络分割精度低、模型参数多的问题,提出一种基于改进DeepLabv3+的番茄图像多类别分割方法。该方法使用幻象网络(GhostNet)和坐标注意力模块(Coordinate attention, CA)构建CA-GhostNet作为DeepLabv3+的主干特征提取网络,减少网络的参数量并提高模型的分割精度,并设计了一种多分支解码结构,用于提高模型对小目标类别的分割能力。在此基础上,基于单、双目小样本数据集使用合成数据集的权值参数进行迁移训练,对果实、主干、侧枝、吊线等8个语义类别进行分割。结果表明,改进的DeepLabv3+模型在单目数据集上的平均交并比(MIoU)和平均像素准确率(MPA)分别为68.64%、78.59%,在双目数据集上的MIoU和MPA分别达到73.00%、80.59%。此外,所提模型内存占用量仅为18.5 MB,单幅图像推理时间为55 ms,与基线模型相比,在单、双目数据集上的MIoU分别提升6.40、6.98个百分点,与HRNet、UNet、PSPNet相比,内存占用量压缩82%、79%、88%... 相似文献