一种基于人工神经元网络的疲劳裂纹扩展速率预测方法

xiaoxiao2021-2-27  195

一种基于人工神经元网络的疲劳裂纹扩展速率预测方法
【技术领域】
[0001]本发明涉及人工神经元网络的应用领域,更具体地涉及一种基于人工神经元网络的疲劳裂纹扩展速率预测方法。
【背景技术】
[0002]在当今的航空工业领域,损伤容限理论得到广泛认可并应用于飞行器结构设计中。因此,基于线弹性断裂力学(LEFM)的疲劳裂纹扩展理论和方法被大量运用于材料结构的疲劳寿命的预测。在二十世纪60年代,Paris第一个将裂纹增长速率和应力强度因子幅值联系起来并成功地将LEFM理论应用于金属材料的疲劳裂纹扩展问题。
[0003]自从20世纪80年代以来,由于人工神经元网络对于人脑结构和机能的良好模拟,它开始被广泛的研究应用于各个行业。发展到现在,人工神经元网络已经具有部分与人脑相似的特征,尤其在信息的分布式存储,数据的并行处理和利用外来信息进行自学等方面表现优异。
[0004]由于在线弹性断裂力学下的疲劳裂纹扩展速率的预测可以看成是一个高度非线性的多输入单输出的系统,目前的简单公式对曲线的拟合和主要是对II区的拟合,其中大部分还是建立在将曲线视为对数坐标下线性的情况。然而,实际情况中的疲劳断裂曲线即使是在II区的对数坐标下,也不是完全线性的。而RBF神经网络不仅具有一般神经网络所具有的多维非线性拟合能力,更具有全局逼近能力和分离学习能力。通过RBF神经网络的这些特点,它能够在保证完成对疲劳裂纹扩展速率曲线模拟的前提下,拥有高于其他神经网络的精度和学习速度。

【发明内容】

[0005]本发明的目的是为了解决上述问题,提供一种基于人工神经元网络的疲劳裂纹扩展速率预测方法;
[0006]—种基于人工神经元网络的疲劳裂纹扩展速率预测方法,预测方法的实现平台为mat lab,包括以下几个步骤:
[0007]步骤一:获取载荷Kmax,应力比R,相对应载荷下的疲劳裂纹扩展速率da;
[0008]步骤二:对试件所受载荷与疲劳裂纹扩展速率进行预处理;
[0009]对载荷的预处理包括:若给定载荷形式为应力强度因子,则先将应力强度因子进行对数化,然后以其最大值最小值为限,使用指令mapminmax进行归一化,获得归一化参数psl;若给定载荷形式为应力,则通过裂纹长度与时间几何参数,计算该应力下裂纹尖端所受的应力强度因子,然后再进行归一化;
[0010]对疲劳裂纹扩展速率的预处理包括:将疲劳裂纹扩展速率进行对数化,然后以其最大值最小值为限,使用指令mapminmax进行归一化,获得归一化参数ps2;
[0011]步骤三:将预处理过后的载荷Kmax与应力比作为人工神经元网络的输入项,预处理之后的疲劳裂纹扩展速率作为人工神经元网络的输出项,使用matlab内函数newrbO对人工神经元网络进行训练;
[0012]步骤四:生成与载荷Kmax同等数量级的测试数据txl,与应力比相同数量级的测试数据tx2,输入人工神经元网络,获得人工神经元网络的拟合结果ty,将ty与疲劳裂纹扩展速率da进行对比,对其拟合精度进行检查;
[0013]步骤五:在拟合精度未达到要求时调整人工神经元网络的参数,重复步骤三、四,直至获得满足要求的人工神经元网络netl;
[0014]步骤六:获取需要预测的试件的各项几何参数以及试件所受的载荷F,应力比R2,载荷循环次数cycle;
[0015]步骤七:对获取的载荷进行预处理;
[0016]对获取载荷的预处理包括:若给定的载荷形式为试件所受应力,则先将应力强度因子进行对数化,然后以其最大值最小值为限,使用语句[Kmaxl,psl] =mapminmax(Kmaxl,0,1)进行归一化,获得归一化后的应力强度因子Kmaxl;若给定的载荷形式为试件受力,则通过矩形板的宽和厚,使用公式K = f(Geo,F)将其转化为应力形式,其中Geo为几何修正系数,f()为应力强度因子与试件受力的函数关系;
[0017]步骤八:将预处理过后的载荷Kmaxl与应力比R2输入,调用人工神经元网络netl,具体语句为tyl = sim(netl,[Kmaxl,R1 ]),获得神经元网络的输出结果tyl,并将所得结果进行后处理,获得此次加载下的疲劳裂纹扩展长度dal;
[0018]对神经元网络输出结果的后处理包括:先以步骤二中预处理所使用的上下限,使用语句mapminmax( ‘reverse’,tyl,ps2)对输出结果进行反归一化,再对其进行以e为底的指数化,获得本次疲劳裂纹的扩展长度;
[0019]步骤九:使用步骤八获得的疲劳裂纹扩展长度,对试件的几何参数进行更新;
[0020]将获得的裂纹增长长度累加到裂纹长度上,获得在新一轮载荷下的裂纹长度;并以此裂纹长度为基础,使用步骤七中的公式计算裂纹尖端处的应力强度因子;
[0021]步骤十:循环步骤七至九,直至疲劳裂纹长度达到预设值或者载荷循环次数cycle达到预设值为止;
[0022]步骤十一:得到本次计算所得的至每次加载为止的疲劳裂纹长度,即获得对试件在本加载下的疲劳裂纹扩展速率预测。
[0023]本发明的优点在于:
[0024](1)传统的线弹性锻炼力学将疲劳裂纹扩展速率与应力强度因子的之间的关系视作双对数坐标系下的线性关系,使用指数型模型对疲劳裂纹扩展速率进行拟合,并通过大量的实验数据对公式中的拟合参数进行校正。然而此方法忽视了其非线性特性,同时拟合参数的选择也需要建立在大量实验数据的基础上。
[0025]与传统的线弹性断裂力学下的疲劳裂纹扩展速率预测相比,基于人工神经元网络的疲劳裂纹扩展速率预测在人工神经元网络的基础上,拓展建立了一种全新的算法,对每一次加载下的疲劳裂纹扩展进行计算,之后以此为基础获得每一次加载时的疲劳裂纹长度,最后通过将预测数据与实验数据进行对比来验证预测的精度。除此之外,人工神经元网络的预测精度在训练阶段是可控的,可以通过调整均方误差目标,径向基函数的扩展速度,神经元的最大数目等使人工神经元网络的预测精度最大化。因此使用人工神经元网络建立实验数据之间的关系,在同样规模的实验数据的基础上,可以相对更精确的拟合出疲劳裂纹扩展速率与应力强度因子以及应力比之间的关系;
[0026](2)本发明对系统配置要求不高,方法全,具有可扩展性强,自动化,自学习程度高等特征。在具体操作上简单便捷,只要输入疲劳裂纹扩展速率与应力及应力比的实验数据,就能获得进行预测所需的人工神经元网络。再输入试件的受力,算法即可输出整个裂纹扩展的过程。若同时还输入了实验数据,算法还能一同输出实验数据与预测数据之间的对比;
[0027](3)本发明的拓展性很强,由于人工神经元网络在多元问题方面的优势,可以在预测的过程中加入更多与疲劳裂纹扩展有关的变量,如:裂纹尖端塑性区,裂纹闭合现象,裂纹尖端张开位移,残余应力等等。在加入这些变量之后,训练的出的神经元网络能够更好的拟合加载与裂纹扩展之间潜在的,未被发现的物理规律,更精确的预测疲劳裂纹扩展速率。
【附图说明】
[0028]图1:7075-T6铝合金在不同应力比下的裂纹扩展速率;
[0029]图2:人工神经元网络对实验数据的拟合结果图;
[0030]图3:人工神经元网络的预测结果与实验结果以及Forman公式的预测结果对比。
【具体实施方式】
[0031]下面将结合附图和实施例对本发明作进一步的详细说明。
[0032]本发明是一种基于人工神经元网络的疲劳裂纹扩展速率预测方法,预测方法的实现平台为matlab,包括以下几个步骤:
[0033]步骤一:载入通过具体实验数据得到的载荷Kmax,应力比R,相对应载荷下的疲劳裂纹扩展速率da。
[0034]标准的裂纹扩展速率数据为给定应力比R下裂纹扩展速率da/dn(每次加载时裂纹增长长度)与应力强度因子Kmax之间的关系;
[0035]步骤二:对试件所受载荷与疲劳裂纹扩展速率进行预处理。
[0036]具体为:
[0037]对载荷的预处理包括:若给定载荷形式为应力强度因子,则先将应力强度因子进行对数化,然后以其最大值最小值为限,使用指令mapminmax进行归一化,获得归一化参数pS1。若给定载荷形式为应力,则通过裂纹长度与时间几何参数,计算该应力下裂纹尖端所受的应力强度因子,然后再进行归一化。
[0038]对疲劳裂纹扩展速率的预处理包括:将疲劳裂纹扩展速率进行对数化,然后以其最大值最小值为限,使用指令mapminmax进行归一化,获得归一化参数ps2。
[0039]步骤三:将预处理过后的载荷Kmax与应力比作为人工神经元网络的输入项,预处理之后的疲劳裂纹扩展速率da/dn作为人工神经元网络的输出项,使用matlab内函数newrb()对人工神经元网络进行训练,其具体调用形式为:[net,tr] = newrb(P,T,GOAL,SPEAD,丽,DF)。(P为Q组输入量的R*Q维矩阵,T为Q组目标分类向量组成的S*Q维矩阵,GOAL为均方误差目标,SPREAD为径向基函数扩展速度,MN为神经元的最大数目,默认为Q,DF为两次显示之间所添加的神经元数目)
[0040]步骤四:生成与载荷Kmax同等数量级的测试数据txl,与应力比相同数量级的测试数据tx2,输入人工神经元网络,获得人工神经元网络的拟合结果ty,将ty与实验数据da进行对比,对其拟合精度进行检查。
[0041]用于测试的数据应在实验数据涵括的范围内,可以稍微超出。其拟合精度是否达到要求视具体情况而定。
[0042]步骤五:在拟合精度未达到要求时调整人工神经元网络的参数,重复步骤三、四,直至获得满意的人工神经元网络netl。
[0043]人工神经元网络的可调节参数包括均方误差目标GOAL,径向基函数的扩展速度SPEAD,神经元的最大数目MN等。通过调节神经与网络的这些参数,可以获得相对最好的拟合效果。
[0044]步骤六:获取需要预测的试件的各 项几何参数,输入试件所受的载荷F,应力比R2,载荷循环次数cycle。
[0045]需要输入的试件的几何参数,以矩形板中心裂纹为例,为:矩形板的长,宽,厚以及裂纹的长度。
[0046]步骤七:对获取的载荷进行预处理。
[0047]对输入载荷的预处理包括:若给定的载荷形式为试件所受应力,则先将应力强度因子进行对数化,然后以其最大值最小值为限,使用语句[Kmaxl,psl] =mapminmax(Kmaxl,0,1)进行归一化,获得归一化后的应力强度因子KmaX1。若给定的载荷形式为试件受力,则通过矩形板的宽和厚,使用公式K = f(Geo,F)将其转化为应力形式,其中Geo为几何修正系数,根据试件几何形状有相应求法,f()为应力强度因子与试件受力的函数关系,根据裂纹位置不同,试件几何形状不同有相对应求法。以上对应公式可以自行参考文献。然后进行之后步骤。
[0048]步骤八:将预处理过后的载荷Kmaxl与应力比R2输入(Kmaxl是步骤7得到的,R2是待测元件直接给出的),调用人工神经元网络netl,具体语句为tyl = sim(netl,[Kmaxl,R1]),获得神经元网络的输出结果tyl,并将所得结果进行后处理,获得此次加载下的疲劳裂纹扩展长度dal。
[0049]对神经元网络输出结果的后处理包括:先以步骤二中预处理所使用的上下限,使用语句mapminmax(‘reverse’,tyi,ps2)对输出结果进行反归一化,再对其进行以e为底的指数化,获得本次疲劳裂纹的扩展长度。
[0050]步骤九:使用步骤八获得的疲劳裂纹扩展长度,对试件的几何参数进行更新。
[0051]将获得的裂纹增长长度累加到裂纹长度上,获得在新一轮载荷下的裂纹长度。并以此裂纹长度为基础,使用步骤七中的公式计算裂纹尖端处的应力强度因子。
[0052]步骤十:循环步骤七至九,直至疲劳裂纹长度达到预设值或者加载次数达到预设值为止。
[0053]步骤十一:输出本次计算所得的至每次加载为止的疲劳裂纹长度,即可获得对试件在本加载下的疲劳裂纹扩展速率预测。
[0054]可以以疲劳裂纹长度为纵坐标,载荷加载次数为横坐标,将整个裂纹增长过程表现在坐标图上,有条件的情况下还可与具体试验数据进行对比,即可获得本次预测的具体精度。
[0055]若还需要对试件的做预估,基于损伤容限理论,可以将某一裂纹长度作为试件达到寿命极限时的裂纹长度标准,对照此时试件所经历的载荷次数,即可得到该试件的疲劳寿命ο
[0056]具体实施例:
[0057]本发明使用实验数据对人工神经元网络进行训练为以下步骤:
[0058]步骤一:导入实验数据,具体数据参考图1:包括应力强度因子数列Kmax,应力比数列R,单次裂纹扩展长度数列da;
[0059]步骤二:对实验数据进行预处理:先将实验数据Kmax,da对数化,然后将实验数据归一化,同时获得相关的归一化参数ps 1,ps2;
[0060]步骤三:调整人工神经元网络的均方误差目标,径向基函数的扩展速度,神经元的最大数目,使用归一化之后的数据对人工神经元网络进行训练;
[0061 ] 步骤四:建立数组txl,tx2,ty,对txl赋值为0_1之间均匀分布的1000个数,对tx2赋1000个值,随机为应力比数列R中的值。
[0062]步骤五:将txl,tx2输入训练好的人工神经元网络中,获得的数据存储在ty中。
[0063]使用之前归一化Kmax的参数ps1反归一化tx 1 (R的范围就在0_ 1之间,不需要归一化),归一化da的参数ps2反归一化ty。
[0064]绘制三维图,以ln(Kmax)为X轴坐标,R为y轴坐标,ln(da)为z轴坐标在图上表示实验数据,以ln(txl)为X轴坐标,tx2为y轴坐标,ln(ty)为z轴坐标在图上表示预测数据。
[0065]对比实验数据与预测数据,决定是否更改神经元网络的相关参数,重复
[0029],直至获得最好的拟合效果,具体结果参考图2;
[0066]步骤六:根据实际情况设置零件受力的载荷谱。
[0067]将载荷谱载入算法,设置零件的几何参数,包括矩形试件的长度,宽度,厚度以及初始裂纹长度。
[0068]步骤七:首先通过公式计算几何修正参数,然后通过带几何修正的公式计算试件所受的应力强度因子,然后使用psl对计算出的应力强度因子进行归一化。
[0069]步骤八:将归一化后的应力强度因子输入人工神经元网络,通过人工神经元网络获得在此次加载下的疲劳裂纹扩展长度的对应量dal。
[0070]使用上文提到的归一化参数Ps2对dal进行反归一化,然后以e为底指数化,得到此次加载下的疲劳裂纹扩展长度da2。
[0071 ]步骤九:将da2累加至疲劳裂纹长度,获得到此次加载为止的疲劳裂纹长度。
[0072]步骤十:重复步骤七至九,直到循环次数达到预设次数或者裂纹长度达到预设极限为止。
[0073]步骤^--:将实验试件的裂纹长度a和预测出的裂纹长度cracklength作为纵坐标,实验试件的循环次数cycle与预测算法的循环次数i作为横坐标,输出裂纹长度关于循环次数的增长速度曲线。
[0074]将图上的实验数据与预测数据进行对比,对预测准确度进行验证。验证精度符合条件的算法可用于工业系统中对于在恒幅载荷下对疲劳裂纹扩展速率的预测。为了验证该方法的精确性,同时采用目前广泛采用的Forman公式作为对比,以两者对同一实验数据的预测来表现人工神经元网络的优越性,如图3所示,图中,ANN:artificial neural network人工神经元网络,即用人工神经元网络对实验数据进行预测得到的结果,Testing data:实验数据,Forman:使用Forman模型对试验数据进行预测得到的结果。
【主权项】
1.一种基于人工神经元网络的疲劳裂纹扩展速率预测方法,预测方法的实现平台为mat lab,包括以下几个步骤: 步骤一:获取载荷Kmax,应力比R,相对应载荷下的疲劳裂纹扩展速率da; 步骤二:对试件所受载荷与疲劳裂纹扩展速率进行预处理; 对载荷的预处理包括:若给定载荷形式为应力强度因子,则先将应力强度因子进行对数化,然后以其最大值最小值为限,使用指令mapminmax进行归一化,获得归一化参数psl;若给定载荷形式为应力,则通过裂纹长度与时间几何参数,计算该应力下裂纹尖端所受的应力强度因子,然后再进行归一化; 对疲劳裂纹扩展速率的预处理包括:将疲劳裂纹扩展速率进行对数化,然后以其最大值最小值为限,使用指令mapminmax进行归一化,获得归一化参数ps2; 步骤三:将预处理过后的载荷Kmax与应力比作为人工神经元网络的输入项,预处理之后的疲劳裂纹扩展速率作为人工神经元网络的输出项,使用matlab内函数newrb()对人工神经元网络进行训练; 步骤四:生成与载荷Kmax同等数量级的测试数据txl,与应力比相同数量级的测试数据tx2,输入人工神经元网络,获得人工神经元网络的拟合结果ty,将ty与疲劳裂纹扩展速率da进行对比,对其拟合精度进行检查; 步骤五:在拟合精度未达到要求时调整人工神经元网络的参数,重复步骤三、四,直至获得满足要求的人工神经元网络netl; 步骤六:获取需要预测的试件的各项几何参数以及试件所受的载荷F,应力比R2,载荷循环次数cycle; 步骤七:对获取的载荷进行预处理; 对获取载荷的预处理包括:若给定的载荷形式为试件所受应力,则先将应力强度因子进行对数化,然后以其最大值最小值为限,使用语句[Kmaxl,psl] =mapminmax(Kmaxl,0,1)进行归一化,获得归一化后的应力强度因子Kmaxl;若给定的载荷形式为试件受力,则通过矩形板的宽和厚,使用公式K = f(Geo,F)将其转化为应力形式,其中Geo为几何修正系数,f()为应力强度因子与试件受力的函数关系; 步骤八:将预处理过后的载荷Kmaxl与应力比R2输入,调用人工神经元网络netl,具体语句为tyl = sim(netl,[Kmaxl,R1]),获得神经元网络的输出结果tyl,并将所得结果进行后处理,获得此次加载下的疲劳裂纹扩展长度dal; 对神经元网络输出结果的后处理包括:先以步骤二中预处理所使用的上下限,使用语句mapminmax( ‘reverse’,tyl,ps2)对输出结果进行反归一化,再对其进行以e为底的指数化,获得本次疲劳裂纹的扩展长度; 步骤九:使用步骤八获得的疲劳裂纹扩展长度,对试件的几何参数进行更新; 将获得的裂纹增长长度累加到裂纹长度上,获得在新一轮载荷下的裂纹长度;并以此裂纹长度为基础,使用步骤七中的公式计算裂纹尖端处的应力强度因子; 步骤十:循环步骤七至九,直至疲劳裂纹长度达到预设值或者载荷循环次数cycle达到预设值为止; 步骤十一:得到本次计算所得的至每次加载为止的疲劳裂纹长度,即获得对试件在本加载下的疲劳裂纹扩展速率预测。
【专利摘要】本发明公开了一种基于人工神经元网络的疲劳裂纹扩展速率预测方法。本发明利用人工神经元网络对多元非线性映射关系出色的拟合能力,从实验数据中挖掘学习并最终描述疲劳载荷(应力强度因子和应力比)与相应的裂纹扩展速率之间的映射关系,并以此为基础建立疲劳裂纹扩展预测算法。疲劳裂纹扩展是一个高度非线性的过程,且应力比对疲劳裂纹扩展的影响也是非线性的,如附图所示。目前的经典理论是将疲劳裂纹扩展速率视为双对数坐标下的线性过程进行计算。使用人工神经元网络预测疲劳裂纹扩展速率既能拟合其高度非线性的特性,同时还能很好的描述应力比对疲劳裂纹扩展速率的影响。
【IPC分类】G06F19/00, G06N3/02
【公开号】CN105488328
【申请号】CN201510802293
【发明人】包章珉, 张慰, 姜珊, 王强
【申请人】北京航空航天大学
【公开日】2016年4月13日
【申请日】2015年11月19日

最新回复(0)