共查询到19条相似文献,搜索用时 109 毫秒
1.
新疆棉花特殊的地膜栽培模式导致在机械采收过程中容易混入残留地膜(简称残膜),残膜的存在是降低机采籽棉质量等级的重要因素之一。为有效清除机采籽棉中混有的残膜,设计了网状滚筒和正压风力结合的分离设备,建立了分离对象的运动控制方程,借助离散相模型(DPM)对机采籽棉残膜分离机的籽棉与残膜的分离原理进行了分析,通过数学模型分析的籽棉运动轨迹和基于CFD仿真分析的籽棉运动轨迹阐释了残膜的整个分离过程,最后对分离机籽棉入口处流场速度进行了试验。结果表明,在保证分离效果的前提下,得到了籽棉在入口处最佳速度为4.5 m/s。该文提出的分离原理和设计方案可以为具有类似特性差异的农产品分离提供理论依据和借鉴。 相似文献
2.
基于竞争学习网络的田间籽棉图像分割 总被引:1,自引:0,他引:1
为了正确识别田间籽棉,将籽棉和铃壳、绿叶、根茎、土地等自然背景视为二个类别,基于竞争学习网络进行了图像分割。从多幅典型的籽棉图像中选取10000个像素作为训练样本,并为它们贴上类别标签,在HSI、Lab、Ohta、RGB颜色空间下对训练样本的颜色特征及其组合进行K-均值聚类,选取了误分率普遍较低的RGB颜色空间,其B值的误分率尤其低。在RGB颜色空间下,用训练样本的R、G、B组合或B值一次性地训练了竞争学习网络,将图像的全部像素输入网络进行测试,同时与K-均值聚类比较,形态学滤波去噪后的结果表明,基于B值的竞争学习网络较优,用907幅籽棉图像对其进行仿真的精度达92.94%。该方法结合了有监督的学习算法,避免了传统K-均值聚类的反复迭代和过拟合现象,提高了图像分割的效率和精度。 相似文献
3.
籽棉杂质的分类识别是实现棉花生产线自适应加工的基础与重要依据。该文提出了一种基于局部二值模式和灰度共生矩阵的籽棉杂质分类识别算法,该算法将含杂籽棉图像首先转换为局部二值模式图像,获取图像的微观结构,再用局部二值模式图像生成灰度共生矩阵并计算特征参数,获取图像宏观结构。使用支持向量机作为分类器,用不同尺度的图像结构进行训练,从而达到籽棉杂质的分类识别。试验结果表明,该文设计算法对各种杂质的平均正确识别率达到了94%,超过单独使用局部二值模式和单独使用灰度共生矩阵的正确识别率,为实现棉花自适应加工提供了技术基础。 相似文献
4.
该文基于支持向量机(support vector machine,SVM)与区域生长结合算法,设计了对黄曲条跳甲、烟粉虱、小菜蛾、蓟马这四类蔬菜害虫进行分类识别的检测算法。该方案将识别过程融入到分割中,采用网格法进行区域生长种子点的选取,简化图像处理的步骤。该文每种蔬菜害虫训练样本图像为60幅,测试样本为40幅。试验展示,基于其形态、颜色特征,该算法可以将南方重大蔬菜害虫正确分割识别出来,对黄曲条跳甲、烟粉虱、小菜蛾、蓟马成功率为分别为96.4%、93.2%、95.4%、98.2%,算法达到了对多种害虫进行分类的效果,有较好的应用前景。 相似文献
5.
基于图像特征选择识别田间籽棉品级 总被引:1,自引:2,他引:1
依据中国籽棉品级文字标准,在HSI颜色空间提取了反映籽棉颜色和杂质含量的14个纹理特征以及反映棉瓣大小、结构的16个形状特征,该特征集存在维数灾难,需要进行降维。面向籽棉品级识别的特征选择问题属于非多项式(NP)难题,该文基于交叉验证、混合Filter-Wrapper和启发式搜索提出了一种求解算法。首先,以最优特征组合和浮动搜索为启发式搜索策略,基于10-折交叉验证在每一个训练集上用Filter启发式搜索最优l维特征子集(l=1, 2, 3,…, 30),评价函数为类可分性准则;其次,在10个训练集上用Wrapper从最优l维特征子集中选择最优特征子集的容量(l=1,2,3,…,30),评价函数为Bayes分类器的误分率,10个验证集的平均误分率极小处产生最优特征子集的容量;最后,在最优特征子集容量处验证预测集的平均误分率。结果表明,所选择的10个最优特征子集在预测集上的平均识别率为88.39%,混合Filter-Wrapper和浮动搜索的特征选择算法效率高、效果好。 相似文献
6.
针对实际复杂田间场景中作物与杂草识别准确性与实时性差,易受交叠遮挡影响,像素级数据标注难以大量获取等问题,该研究提出基于移位窗口Transformer网络(Shifted Window Transformer,Swin Transformer)的高效识别方法,在实现作物语义分割的基础上快速分割杂草。首先建立玉米语义分割模型,引入Swin Transformer主干并采用统一感知解析网络作为其高效语义分割框架;改进Swin Transformer主干调整网络参数,生成4种改进模型,通过精度与速度的综合对比分析确定最佳模型结构;基于玉米形态分割,建立改进的图像形态学处理组合算法,实时识别并分割全部杂草区域。测试结果表明,该研究4种改进模型中,Swin-Tiny-UN达到最佳精度-速度平衡,平均交并比为94.83%、平均像素准确率为97.18%,推理速度为18.94帧/s。对于模拟实际应用的视频数据,平均正确检测率为95.04%,平均每帧检测时间为5.51′10-2 s。该方法有效实现了玉米与杂草的实时准确识别与精细分割,可为智能除草装备的研发提供理论参考。 相似文献
7.
籽棉热风烘干控制干基含水率模型的研究 总被引:1,自引:4,他引:1
为了使机采籽棉在清棉、轧花等加工前把水分控制到合适的范围以提高加工质量,需要对籽棉进行一定的烘干处理,并对烘干过程进行实时控制。该文设计了籽棉热风烘干的三因素三水平正交回归旋转试验,研究了喂花量、籽棉初始干基含水率和热风温度这3个因素对籽棉烘干后干基含水率的影响。试验结果表明喂花量、籽棉初始干基含水率和热风温度对籽棉干燥速率都有较明显的影响,烘干过程的前15s干燥速率变化较快,之后趋于平缓。分别使用单项式扩散模型、Page模型和二次多项式模型进行拟合,发现单项式扩散模型拟合效果最好,决定系数R2均值为0.9549。该模型应用于实际生产中籽棉烘干的实时控制。效果表明使用该模型后烘干效率更高,籽棉烘干后干基含水率一致性更好。 相似文献
8.
基于探索性分析的的荔枝果及结果母枝颜色特征分析与识别 总被引:1,自引:3,他引:1
从复杂背景中识别成熟荔枝串中的荔枝果及结果母枝,获取结果母枝上的采摘点是机器人视觉定位与识别的难点,荔枝果、结果母枝与叶子各部位图像颜色特征分析与识别成为研究重点。首先针对荔枝果与结果母枝的特点、光照与环境的特殊性及不确定性,提出了探索性分析与荔枝图像识别的融合方法,对荔枝果与结果母枝进行了图像分类与统计的探索性分析,并给出了荔枝图像数据的探索性分析流程图;其次,根据荔枝不同部位颜色均值分布的特点,设计了荔枝果、结果母枝及叶子在6种色彩模型下的颜色均值分布箱线图,通过图形启示的数据分析与探索,给出了基于YCbCr色彩空间的Cr单通道图的荔枝各部位分类识别的视觉模型,分析表明Cr分量值在0.5~0.54能去除叶子和侧枝等复杂背景,实现荔枝串中的荔枝果与结果母枝的分割。最后,以60组不同光照条件的180幅自然环境下采集的荔枝图像为试验测试对象,用颜色特征的视觉模型结合阈值分割方法有效地识别了成熟荔枝串与荔枝果,荔枝串与荔枝果的平均识别率分别为91.67%和95.00%。用探索性分析与图像运算相结合的方法成功地提取了结果母枝(识别率为86.67%),并用计算出的采摘点进行视觉定位的仿真。试验和仿真结果表明视觉模型及其方法能对荔枝不同部位进行有效识别。 相似文献
9.
TM影像中基于光谱特征的棉花识别模型 总被引:13,自引:4,他引:13
为快速、准确地在遥感图像上从各种农作物中识别提取棉花作物的信息,满足大尺度、运行化棉花遥感监测系统的要求。作者在试验区的棉花主要生长期里,同期进行了棉花与其它主要农作物的地面光谱测量并采集了同期的Landsat TM图像。通过对各时期棉花及主要农作物的地面测量光谱与TM图像光谱特征的差异性及规律性分析,确定了试验区棉花遥感识别的最佳时相期为9月中下旬, 研究开发了基于光谱特征的棉花识别模型。经数学分析与实际应用验证,该模型简单、操作方便并且识别的准确度较高,适用于大尺度的“新疆棉花遥感监测运行系统”。 相似文献
10.
针对实际自然环境中果实被遮挡、环境光线变化等干扰因素以及传统视觉方法难以准确分割出农作物轮廓等问题,该研究以苹果为试验对象,提出一种基于改进BlendMask模型的实例分割与定位方法。该研究通过引入高分辨率网络HRNet(High-Resolution Net),缓解了特征图在深层网络中分辨率下降的问题,同时,在融合掩码层中引入卷积注意力机制CBAM(convolutional block attention module),提高了实例掩码的质量,进而提升实例分割质量。该研究设计了一个高效抽取实例表面点云的算法,将实例掩码与深度图匹配以获取苹果目标实例的三维表面点云,并通过均匀下采样与统计滤波算法去除点云中的切向与离群噪声,再运用球体方程线性化形式的最小二乘法估计苹果在三维空间中的中心坐标,实现了苹果的中心定位。试验结果表明改进BlendMask的平均分割精度为96.65%,检测速度34.51帧/s,相较于原始BlendMask模型,准确率、召回率与平均精度分别提升5.48、1.25与6.59个百分点;相较于分割模型SparseInst、FastInst与PatchDCT,该模型的平均精度小幅落后,检测速度分别提升6.11、3.84与20.08帧/s,该研究为苹果采摘机器人的视觉系统提供技术参考。 相似文献
11.
基于模糊PID控制的棉花采摘性能试验台测控系统研制 总被引:1,自引:3,他引:1
为了确定棉花采摘过程中的采摘效果,研究各因素对棉花采摘效果的影响,该文基于模糊PID控制理论,利用图像化编程语言LabVIEW,研制了一套能够进行多通道数据采集的棉花采摘参数测控系统。该系统主要由工控机、数据采集系统及驱动控制系统3部分组成,可实现棉花采摘速度、输送带速度和风机速度的连续可调,采摘过程中主轴扭矩、采摘滚筒速度、输送带速度和风机速度等信号能够实现高速、实时采集与显示,并具有数据保存等功能。试验结果表明,该测控系统能够较好地实现棉花采摘速度与输送带速度在0~2 m/s范围内的任意匹配以及采摘扭矩和转速分别在0~5、10~15 kHz采集频率下的测量与分析。研究结果可为采摘头性能参数的优化和棉花采摘收获装备的国产化提供理论依据与技术支持。 相似文献
12.
13.
基于YOLO深度卷积神经网络的复杂背景下机器人采摘苹果定位 总被引:6,自引:31,他引:6
为提高苹果采摘机器人的工作效率和环境适应性,使其能全天候的在不同光线环境下对遮挡、粘连和套袋等多种情况下的果实进行识别定位,该文提出了基于YOLOv3(you only look once)深度卷积神经网络的苹果定位方法。该方法通过单个卷积神经网络(one-stage)遍历整个图像,回归目标的类别和位置,实现了直接端到端的目标检测,在保证效率与准确率兼顾的情况下实现了复杂环境下苹果的检测。经过训练的模型在验证集下的m AP(meanaverageprecision)为87.71%,准确率为97%,召回率为90%,IOU(intersection over union)为83.61%。通过比较YOLOv3与Faster RCNN算法在不同数目、不同拍摄时间、不同生长阶段、不同光线下对苹果的实际检测效果,并以F1为评估值对比分析了4种算法的差异,试验结果表明YOLOv3在密集苹果的F1高于YOLOv2算法4.45个百分点,在其他环境下高于Faster RCNN将近5个百分点,高于HOG+SVM(histogram of oriented gradient+support vector machine)将近10个百分点。并且在不同硬件环境验证了该算法的可行性,一幅图像在GPU下的检测时间为16.69 ms,在CPU下的检测时间为105.21 ms,实际检测视频的帧率达到了60帧/s和15帧/s。该研究可为机器人快速长时间高效率在复杂环境下识别苹果提供理论基础。 相似文献
14.
基于机器视觉的小麦害虫分割算法研究 总被引:5,自引:3,他引:5
农业病虫害的自动识别是精准农业研究方向之一。以小麦蚜虫为例,运用机器视觉技术对非特定场景下害虫的分类和分割算法进行了研究。在分类上,训练了SVM分类器和基于k-均值聚类的分类方法。比较得出,SVM分类器和k-均值聚类算法在处理精度和速度上各有优势;在分割上,运用合并和分裂相结合的区域生长算法分割害虫和叶片,进行自动识别。分析表明,该算法对害虫的分类效果好、分割识别准确率达到90.7%,速度能够满足实时处理的要求,为农业机械精准施药提供了技术上的支持。 相似文献
15.
基于Seed Identification软件的棉籽机器视觉快速精选 总被引:2,自引:2,他引:2
为了研究Seed Identification软件在棉花种子加工工艺和精选参数选择上应用的可行性,以鲁棉28酸脱绒棉籽为材料,通过扫描仪获取400粒棉籽的PNG图像,利用Seed Identification软件快速提取图像中棉籽的RGB、Lab、HSB、灰度、长度、宽度和投影面积等物理指标,通过卷纸发芽获得每颗幼苗鲜质量作为种子的活力指标,种子物理指标与种子活力的相关性分析表明:幼苗鲜质量与R、S、B(HSB)、b、宽度、长度、投影面积的相关系数均达到0.05显著水平。按R<90、S≤18、B(HSB)≤36、b≤4、宽度>4 mm、长度>7.2 mm、投影面积≥25 mm2对种子进行精选,发芽率可由原来的89%分别提高到96.1%、95.1%、95.1%、95.3%、93.1%、93.5%、94.4%,获选率分别为96.6%、99.2%、98.9%、97.8%、98.6%、97%、94.7%。验证试验将种子按以上指标精选后,发芽率分别为95.1%、95.1%、94.8%、94.8%、94.4%、94.4%、94.8%。该研究为基于机器视觉技术对脱绒棉种实施快速、有效精选提供了理论依据。 相似文献
16.
自然环境下葡萄采摘机器人采摘点的自动定位 总被引:1,自引:15,他引:1
针对葡萄果梗颜色复杂多变、轮廓不规则等影响因素使得采摘机器人难以准确对采摘点进行定位的问题,该文提出一种基于改进聚类图像分割和点线最小距离约束的采摘点定位新方法。首先通过分析葡萄图像的颜色空间,提取最能突显夏黑葡萄的HSI色彩空间分量H,运用改进的人工蜂群优化模糊聚类方法对葡萄果图像进行分割;然后对分割图像进行形态学去噪处理,提取最大连通区域,计算该区域质心、轮廓极值点、外接矩形;再根据质心坐标与葡萄簇边缘信息确定采摘点的感兴趣区域,在区域内进行累计概率霍夫直线检测,求解所有检测得出的直线到质心之间的距离,最后选取点线距离最小的直线作为采摘点所在线,并取线段中点坐标作为采摘点。以从晴天顺光、晴天遮阴、阴天光照下采集的300幅夏黑葡萄进行分类试验,结果表明,该方法的采摘点定位准确率达88.33%,平均定位时间为0.3467 s,可满足采摘机器人对采摘点的定位需求,为葡萄采摘机器人提供了一种新的采摘点求解方法。 相似文献
17.
基于机器视觉的水稻杂质及破碎籽粒在线识别方法 总被引:3,自引:5,他引:3
为了解决目前国内联合收获机缺乏针对含杂率、破碎率的在线监测装置的问题,该文提出基于机器视觉的水稻图像采集,杂质与破碎籽粒分类识别方法。采用带色彩恢复的多尺度Retinex算法增强原始图像,对HSV颜色模型的色调、饱和度两个通道分别设定阈值进行图像分割,并结合形状特征得到分类识别结果。采用综合评价指标对试验结果进行量化评价,研究表明,茎秆杂质识别的综合评价指标值达到了86.92%,细小枝梗杂质识别的综合评价指标值为85.07%,破碎籽粒识别的综合评价指标值为84.74%,平均识别一幅图像的时间为3.24 s。结果表明,所提出的算法能够快速有效识别出水稻图像中的杂质以及破碎籽粒,为水稻含杂率、破碎率的在线监测提供技术支撑。 相似文献
18.
基于逻辑回归算法的复杂背景棉田冠层图像自适应阈值分割 总被引:2,自引:3,他引:2
棉田冠层覆盖度是监测棉田棉花长势的重要指标,针对棉田复杂环境中冠层图像难以准确分割的问题,该文提出了一种基于逻辑回归算法的复杂背景棉田冠层图像自适应阈值分割方法。首先将棉田冠层图像像素分成叶片冠层和地表背景2类,在HSV颜色空间中分别提取两类像素的H通道值,在RGB颜色空间中分别提取绿色占比值(G/(G+R+B))作为颜色特征;再利用逻辑回归算法确定出各颜色特征的分割阈值,通过H通道分割阈值实现图像的初次分割;再对初次分割结果中的低亮像素使用逻辑回归算法计算出的超绿特征阈值进行低亮像素分割,同时采用绿色占比分割阈值对图像高亮像素及低亮像素分割结果整体实现二次分割,最后采用形态学滤波方法对分割结果进行优化。为评价该分割方法,利用从新疆棉花产区采集到的320幅棉田冠层图像进行试验。结果表明,该方法可在棉田复杂自然背景下,有效分割出棉田冠层区域,平均相对目标面积误差率仅为5.46%,总体平均匹配率达到93.07%;优于超绿特征OTSU分割方法(平均相对目标面积误差率11.78%,总体平均匹配率76.43%)、四分量分割方法(平均相对目标面积误差率24.11%,总体平均匹配率71.67%)、显著性分割方法(平均相对目标面积误差率36.92%,总体平均匹配率66.92%)。该方法的平均处理时间为4.63 s,相对于超绿特征OTSU法(3.84 s)和四分量分割法(2.56 s),耗时多一些,但与显著性分割法(6.25 s)对比,花费时间要少。研究结果可为棉田自然复杂环境下机器视觉技术监测棉花覆盖度提供一种有效途径。 相似文献
19.
为缩短胶棒滚筒采棉机设计周期,提高胶棒滚筒采棉机作业质量,借助胶棒滚筒综合性能试验台,以滚筒转速、采摘行走速度和滚筒胶棒轴向间距为影响因子,以采净率、撞落棉损失率、含杂率为采摘性能指标,进行二次正交旋转组合试验,应用Design-Expert8.0.6软件,建立了影响因子与性能指标的回归模型,分析了各因子对性能指标的影响。采用多目标优化,确定最佳参数组合为:滚筒转速450 r/min,行走速度2.4 km/h,胶棒轴向间距44 mm。根据优化参数组合,重复验证试验结果为:采净率95.78%,撞落棉损失率0.89%,含杂率17.44%,与优化结果基本吻合。田间试验表明,4FS-3胶棒滚筒采棉机采净率为95.29%,撞落棉损失率为0.97%,含杂率为17.11%,主要性能指标达到国家采棉机作业性能指标要求。该研究为采摘头关键部件设计及工作参数改进提供参考,有效提高了采收效率和作业质量,对推动采棉机国产化和促进新疆棉花产业健康发展有一定意义。 相似文献