供需大厅

登录/注册

公众号

更多资讯,关注微信公众号

小秘书

更多资讯,关注荣格小秘书

邮箱

您可以联系我们 info@ringiertrade.com

电话

您可以拨打热线

+86-21 6289-5533 x 269

建议或意见

+86-20 2885 5256

顶部

荣格工业资源APP

了解工业圈,从荣格工业资源APP开始。

打开
荣格工业-圣德科

会学习的激光:激光加工与机器学习的结合(上)

来源:国际工业激光商情 发布时间:2023-10-17 238
工业激光激光设备零部件光学材料与元件其他 杂志导读
激光的应用越来越广泛,包括打标、切割、清洗、钻孔、雕刻、烧蚀、增材制造和焊接。同样,激光还可用于加工各种材料,从金属、陶瓷、塑料、复合材料、玻璃、薄膜和阳极氧化表面,到木材、皮革、棉花、面团甚至蛋壳等意想不到的材料。

激光加工是一种高度灵活的非接触式制造方法,在学术界和工业界得到广泛应用。虽然基于基本理解的模拟对加工过程有一定的了解,但激光与物质之间高度非线性的相互作用以及所涉及的各种材料,意味着理论建模并不特别适用于实际实验。

 

不过,机器学习领域的突破性进展已经产生了神经网络,它能够以远超出现有理论方法的规模、速度和精度,对激光加工进行精确而快速的建模,其应用包括三维表面可视化和实时误差修正。本文介绍了激光加工与机器学习的交叉学科,随后讨论了该领域未来的里程碑和挑战。

引言


激光的应用越来越广泛,包括打标、切割、清洗、钻孔、雕刻、烧蚀、增材制造和焊接。同样,激光还可用于加工各种材料,从金属、陶瓷、塑料、复合材料、玻璃、薄膜和阳极氧化表面,到木材、皮革、棉花、面团甚至蛋壳等意想不到的材料。激光材料加工几乎应用于所有制造行业,包括航空航天、汽车、电子、电池、医疗、3D 打印、半导体、传感器和太阳能。同样,从焊接船用钢材到接近衍射极限的材料加工,激光的尺寸范围也各不相同。简而言之,激光在发明后的几十年里彻底改变了制造业。

 

工业和学术应用之所以数量惊人,部分原因在于脉冲长度、脉冲能量、波长和光束大小等参数具有极大的灵活性。然而,这种灵活性也是有代价的,那就是必须投入大量的时间和精力,为每个制造过程寻找最佳参数集。
例如,如果需要改变5个参数,每个参数改变10步,则总共需要进行10^5次实验。由于参数之间往往存在高度非线性关系,标准做法通常是系统收集所有参数组合的激光加工数据,以确定最佳组合。

 

然而,这一过程既耗时又缺乏针对性,可能需要数天或数周的时间,因此花费了不必要的精力、时间和金钱。即使已经确定了最佳参数,生产过程中的微小变化,例如激光功率或光束形状的变化,也会导致最终产品质量达不到要求的标准,同样会造成时间和金钱上的损失。因此,需要一套建模方法来确定最佳参数,并在制造过程中进行实时监控和纠错。

 

描述激光加工的过程,如光与物质的相互作用、热传导、材料相变和材料去除等都特别复杂,因此从理论角度对其进行精确和直接的建模具有挑战性。这些过程的确切细节取决于许多因素,包括激光参数(如波长、光通量和脉冲长度)、相关衍射效应和样品特性(如吸收、反射率、熔化温度和烧蚀阈值)。

 

此外,随着时间相互作用长度从连续波到超快(即飞秒脉冲)的变化,不同的相互作用效应也变得越来越重要,而短脉冲可能产生的额外非线性效应(如多光子吸收和电离)则进一步增加了复杂性。

 

一般来说,激光加工的理论建模可分为分析处理和数值处理。分析建模通常基于特定的相关属性以及一系列相关假设,例如热传导和材料相变、残余应力、条纹和表面粗糙度、辅助气体喷射建模分析、氧气与熔融表面的反应、能量平衡和熔体几何形状。有限元法(FEM)等数值建模方法一般可以提供更广泛的解决方案,但由于计算节点的要求以及对大量计算资源的严重依赖,这些方法只能提供近似值。

 

有限元是一种广泛使用的数值方法,用于求解两个或三个空间变量的偏微分方程,同时考虑特定的边界条件。该方法广泛应用于结构分析、流体流动、电磁场和热传递等领域,因此在激光加工建模中也有明显的应用。通常情况下,通过离散化算法将较大的系统划分为基本部分,即有限元,从而有效地将系统转化为网格状结构。可以为每个元素设计一组代数方程,然后组合起来描述整个系统。通过引入边界条件,可以求解这些方程,从而为特定模拟提供解决方案。

 

有限元已被广泛应用于激光和激光辅助加工,尤其侧重于热影响区。Shetty等人概述了有限元在车削、铣削、切边和钻孔等一系列传统制造工艺加工中的应用。Van Elson等人展示了局部激光热源的热传导和扩散的分析和数值解决方案,并将其应用于激光加工、焊接、分层制造和激光合金化。Dai等人展示了如何利用有限元来解决微尺度的热传输问题。

 

具体到激光加工,Negarestani等人通过了解瞬态热行为的机理及其对材料去除的影响,提出了提高激光加工碳纤维增强聚合物复合材料切削和钻孔质量的方法。他们利用有限元技术开发了一个三维模型,用于模拟温度场和随后的材料去除,该模型能够预测加工过程中热影响区的尺寸。

 

同样,Dixit等人展示了在氧化铝陶瓷激光材料加工中研究热应力和激光功率温度分布的应用,Shalahim等人对一系列材料模型和工艺参数的丙烯酸板材进行了类似研究。Martinez-Calderon等人展示了有限差分时域建模在优化激光材料加工中的应用,通过制造表面纳米结构,生产出具有定制光学特性的金刚石。

 

同样,Romer等人的研究也显示了有限差分时域在一系列材料的激光纳米结构建模中的应用。Afrasiabi等人展示了粒子强度交换模型的应用,该模型在模拟激光钻孔中的金属去除方面比传统的有限元模型更具优势,他们随后还展示了一种无网格方法,可在激光钻孔过程中进行精确的三维热模拟。

 

激光加工是一系列工业制造技术的关键辅助技术,其中包括激光辅助加工,即在使用传统切削工具之前,利用激光能量对材料进行局部预热和软化。Tagliaferri等人利用有限元模拟激光加热过程中的激光功率、扫描速度、聚焦距离和表面粗糙度,以减少刀具磨损和切削力。

 

Yang等人利用有限元模拟了激光加热钛合金时热影响区的深度和宽度。Tian等人展示了有限元模型在氮化硅陶瓷激光辅助加工过程中剪切区裂纹等缺陷发展过程中的应用。Singh等人通过模拟温度分布、激光加热导致的流动应力降低以及切削力,提出了优化钢材激光辅助加工的有限元模型。Kim等人将有限元用于三维形状的激光辅助加工,以优化预热温度。最后,Shi等人利用有限元对镍铬合金的激光辅助加工进行了优化。

 

虽然可以通过理论方法精确模拟吸收和热传导等确定性方程描述的效应,但随着域的增大(即目标样本增大),计算要求也同样增加。对于有限元模型,降低计算复杂性的技术包括使用可变网格或对称参数来缩小尺寸,或者在激光加工中使用网格边缘作为激光切割位置。不过,即使采用了这些技术,可精确建模的领域大小始终存在实际限制。非确定性效应,如激光功率和光束形状的实验变化、样品缺陷和碎片的产生,对模型的理论挑战更大,因为它们要求对实验的统计变化有深入的了解。

 

图 1:对比(上图)理论驱动法和(下图)数据驱动法在激光加工建模中的实际应用

 

机器学习建模方法不是从对系统的理论理解出发,而是直接从实验数据出发,从而减轻了与获得对实验环境的全面理解相关的挑战。当然,这种以数据为导向的方法还能确保模型中包含所有物理效应,包括那些尚未完全理解的效应。

 

 

激光微机械加工通常是指微米级和纳米级特征的加工,它也有自己的一系列建模挑战。通常使用飞秒脉冲,与使用较长脉冲相比,可减少热影响区,但也会引入许多相关的非线性效应。虽然这些效应释放了诸如表面纳米级结构和透明体积内部加工等能力,但复杂性的增加意味着数据驱动的机器学习建模方法变得更具优势。

 

通过机器学习有效建模的最关键因素是充分收集适当的训练数据。就微加工而言,由于目标材料在加工过程中的高度非线性反应,这一点显得更为重要。训练数据还必须提供有关衍射极限的信息。最后,如果机器学习方法的目标是提供三维表面轮廓,则可能需要适当的高分辨率成像设备(如白光干涉仪)来收集训练数据。

 

如图1所示,本文介绍机器学习在数据驱动解决方案(即直接从实验数据中获取)中的应用,而不是使用理论驱动的激光加工建模解决方案。这种方法的前提是,机器学习可以直接从实验数据中根据经验确定实验参数之间的关系,从而为激光加工过程建模提供能力。重要的是,机器学习方法所提供的计算速度可实现参数的实时建模和工艺优化。


机器学习入门


机器学习是一个宽泛的领域,涵盖了各种通过经验自动改进的算法。重要的是,这种方法不需要对数据之间的关系和规则进行明确的编程描述,而是直接从数据中学习数据属性。机器学习领域大致可分为监督学习、无监督学习和强化学习。监督学习包括生成一个数学模型,将输入数据映射到相关的输出数据上,从而用于预测。

 

图 2:本文讨论的不同类型的机器学习之间的关系。cGAN,条件生成对抗性网络;CNN,卷积神经网络

 

无监督学习用于发现数据中的结构,并对数据点进行聚类或分组。强化学习管理软件代理如何在环境中做出决策,以获得最大回报。虽然三者都是重要的研究领域,但迄今为止,监督学习一直是激光加工研究的主要焦点,因此也是本文的重点。如图2所示,在机器学习领域(可以说是人工智能的一种)中存在深度学习领域。此外,在深度学习领域中还存在着极为重要的卷积神经网络(CNN)。还有一种被称为条件生成对抗网络(cGAN)的神经网络架构,包括两个在训练过程中相互辅助的卷积神经网络。

机器学习模型


在机器学习领域,有各种各样的模型,这里简要讨论其中最突出的几种。人工神经网络(ANN)是由称为人工神经元的连接单元组成的网络,其灵感来源于生物智能中的神经元。如图3所示,人工神经网络通常有一个输入层、一个隐藏层和一个输出层。在内部,每个人工神经元接收来自相邻神经元的信息,并使用非线性函数处理信息总和,然后将处理后的信息通过网络向前传输。学习过程通常包括通过一种称为反向传播的算法自动优化每个神经元的非线性函数。因此,网络可作为传递函数运行,并可用于将输入数据转换为输出数据。

 

图 3:显示输入层、隐藏层和输出层的人工神经网络示意图

 

 

决策树利用评估网络,直接根据对某一项目的观察结果预测该项目的价值。支持向量机允许将样本数据表示为空间映射中的点,这样样本数据的两个或多个子集之间就有了明确的分界线。新的数据项可以映射到相同的空间,从而根据它们相对于分界线的位置进行类别预测。回归分析包括多种统计方法,用于评估数据输入和相关输出之间的关系,包括线性回归(例如,使用最小二乘误差指标计算数据集的最佳拟合线)和非线性回归(例如,使用二次高阶多项式拟合)。

 

贝叶斯网络是一种创建概率图形连接模型的方法,可确定变量之间的关系,从而预测任何给定输入结果的概率分布。遗传算法是一种搜索算法,其灵感来源于自然选择过程,算法等同于突变和重组效应等生物过程,用于创建新的基因型,以提高识别特定问题有效解决方案的可能性。

深度学习


深度神经网络是自适应网络的一个基本重要类型,它一般被定义为具有多个隐藏层的自适应网络。重要的是,由于非线性函数的性质,随着自适应网络中隐藏层数的增加,该网络在数学上将趋向于通用函数近似器,因此能够近似任何函数,从而能够实际应用于更为复杂的任务。

 

卷积神经网络是一种深度神经网络,因其具有处理空间表示数据的能力,通常应用于图像数据。卷积神经网络的灵感来源于生物视觉皮层的神经元架构,皮层神经元对视觉刺激做出反应的区域仅限于视觉重叠区域。同样,卷积神经网络中的计算神经元通过一系列卷积过程处理单一区域的数据(尽管与相邻区域重叠)。卷积是一种数学运算符,用于计算两个函数乘积的积分,其中一个函数被移位后,所有可能的移位值都会被计算。

 

在卷积神经网络中,每一层的输入数据都会与一个通常小得多的数组(称为滤波器)进行卷积,为下一层生成数据。这一过程的结果是,输出数据包含对过滤器和输入数据相似性的明确描述。因此,卷积过程充当了模式匹配算法的角色,可以识别出滤波器数据与输入数据的匹配之处(以及匹配程度)。在实际应用中,如果滤波器包含一个圆形,那么这个过程就能识别出输入图像中存在具有相同属性的圆形的所有位置。

 

因此,连续的卷积层能带来越来越高的模式识别抽象能力,而增加每一层的过滤器数量则能提高识别输入数据中更多模式的能力。重要的是,这些滤波器在训练过程中会随机初始化并自动优化。卷积神经网络已广泛应用于图像分类(即描述图像内容)和图像到图像处理(即将一幅图像转换成另一幅图像)。分类卷积神经网络的概念如图4所示,图中显示了从二维数据输入(如场景照片)到描述输入数据内容的输出(如照片中有哪些物体)的转换 。

图 4:分类卷积神经网络的概念,展示了通过特征提取和分类过程将输入图像转换为输出标签的过程

图 5:图像到图像卷积神经网络的概念,显示通过编码和解码过程从输入图像到输出图像的转换

 

图5显示了图像到图像卷积神经网络的概念,通过编码和解码过程(例如用于图像增强或提供空间标记),将输入的二维数据转换为具有不同外观的输出二维数据。这两种方法的原理相似,都涉及上述卷积过程,以及一系列其他算法过程,包括池化、批量归一化和剔除。

 

6.jpg

图 6:条件生成对抗网络架构的概念。生成器网络将实验输入转化为生成输出(即预测)。判别器网络经过训练,可识别输入对是 (a) 实验输入和实验输出,还是 (b) 实验输入和生成输出

 

cGAN可视为两个同时训练的卷积神经网络。具体来说,该网络由生成器和判别器组成,生成器将实验输入图像转换为生成的输出图像,判别器接收实验输入图像以及相关的实验输出图像或相关的生成输出图像,如图6所示。然后,鉴别器会判断提供给它的输出图像是实验图像还是生成图像。在训练过程中,鉴别器能更有效地判断生成器的输出是否逼真,从而使生成器能更有效地生成逼真的图像。这种对抗训练方法的本质是,生成器和鉴别器在训练过程中都会提高效率,直到达到纳什均衡。训练完成后,生成器可用作图像到图像的处理函数,用于转换训练数据集中没有的图像。

机器学习与激光加工


如前所述,从光与物质相互作用的基本物理规则出发,激光加工对于精确建模而言极具挑战性,尤其是对于超短脉冲而言。虽然有大量建模方法,但将这些模型放大到实际尺寸并包含所有实验特征所面临的挑战,促使人们寻找其他建模解决方案。最近,机器学习已成为一种重要的替代方法,因为它能够直接从实验数据中生成实验模型。换句话说,机器学习为激光加工提供了一种数据驱动的建模方法。

 

如本节所示,机器学习可应用于激光加工,提供一个建模环境,实现一系列功能,如优化加工参数、识别参数之间的关系,以及预测不同实验条件下激光加工结果的可视化。使用数据驱动建模方法的一个至关重要的优势是,所有实验特性,包括那些可能难以用程序建模的特性,如光束形状不均匀性或实验噪音,都会自动纳入建模系统。

 

一般来说,神经网络在激光加工建模中的实际应用包括三个阶段,如图7所示。第一阶段是以数据输入及其相关数据输出的形式收集实验数据。例如,输入数据可以是激光能量和重复率,输出数据可以是激光加工特征的深度测量值。第二阶段是训练神经网络,通过反向传播自动调整网络内部权重。通常在训练过程中测量神经网络的精度,以优化训练进度。

 

第三阶段是向经过训练的神经网络提供一组不同的输入值,然后神经网络对相关的输出值进行预测。经过训练后,神经网络就可以作为一个“黑盒”建模单元,将输入数据转换为相关的输出数据。值得注意的是,从输入数据到输出数据的转换性质具体取决于用于训练的输入和输出数据的格式。在本示例中,神经网络能够预测任何激光能量和重复率的特征深度,当然也包括未包含在所收集的实验数据中的特征深度。

 

图 7:机器学习在激光加工中的实际应用概念

 

 

如图7所示,神经网络训练完成后,就可以对训练数据中未包含的输入数据进行建模。在这里,测试神经网络预测准确性的一个关键策略是将收集到的实验数据分成训练和验证两对。在实践中,这样做可以确保用于验证的数据在训练过程中不被神经网络处理,从而作为“未见”数据运行。值得注意的是,由于训练是在实验数据的基础上进行的,因此数据中的偏差(或不准确性)会在神经网络中复制。同样,如果原始训练数据中没有体现出另一套数据的属性,那么根据一种环境中的一套数据训练出来的机器学习系统可能无法准确预测另一套数据的情况。

 

图 8:内容与显示的搜索关键词相对应的出版物的年度频率

 

为了突出激光加工与机器学习之间的关联性,图8显示了一系列搜索关键词(激光加工、机器学习、ANN、CNN和生成式对抗网络)在Google Scholar上的年度发表频率。因此,该图提供了过去40年间激光加工和所有机器学习研究领域的论文发表情况,“激光加工”呈指数级增长,代表了这一时期制造工艺和技术的稳步提升。

 

从1990年到2018年,“机器学习”呈指数级增长,随后迅速下降,这可以说是人们更倾向于使用描述性更强的术语的结果,因为这与“卷积神经网络”作为搜索术语的快速增长不谋而合。人工神经网络(即ANN)在1985年至1995年间出现了快速增长,从1995年起,使用频率呈指数增长。卷积神经网络(即CNN)在1985年至2014年间经历了指数式增长,随后发布速度极快。同样,生成对抗网络(包括条件生成对抗网络即cGAN的搜索结果)自2014年以来也呈指数增长。

 

本节的剩余部分按时间顺序介绍了机器学习和激光加工领域的相关文献,首先关注的是ANN,然后是深度学习。值得关注的是,这些文献的应用范围极为广泛,几乎涵盖了所有类型的激光源、材料和尺寸范围。大部分文献都与工业需求密切相关,在工业中,降低成本的驱动力要求绝对高效地使用激光光子。本节介绍的文献与图8所示的出版频率数据有明显关联,其中2000年至2015年期间的文献成果几乎全部基于ANN,而2015年以后的文献则越来越多地基于深度学习。

作者:Benjamin Mills、James A. Grant-Jacob

 

来源:荣格-《国际工业激光商情》

原创声明:
本站所有原创内容未经允许,禁止任何网站、微信公众号等平台等机构转载、摘抄,否则荣格工业传媒保留追责权利。任何此前未经允许,已经转载本站原创文章的平台,请立即删除相关文章。

 

推荐新闻