发明名称 一种电子束焊接熔凝区形状因子的神经网络建模方法
摘要 本发明属于一种神经网络建模方法,适用于各种金属材料的电子束焊接技术,涉及一种电子束焊接熔凝区形状因子的神经网络建模方法。本发明采用神经网络的方法系统建立电子束焊接熔凝区形状因子的数学模型,全面考虑了多种非关联因素作为输入层进行求解建模,属于一种处理非关联多输入多输出的建模方法。
申请公布号 CN101329169A 申请公布日期 2008.12.24
申请号 CN200810134532.9 申请日期 2008.07.28
申请人 中国航空工业第一集团公司北京航空制造工程研究所 发明人 王亚军;关永军;付鹏飞;卢志军
分类号 G01B11/24(2006.01);G06N3/02(2006.01) 主分类号 G01B11/24(2006.01)
代理机构 中国航空专利中心 代理人 李建英
主权项 1.一种电子束焊接熔凝区形状因子的神经网络建模方法,其特征是,(一)接头试样制备采用对接接头,钢丝刷去除氧化膜后进行电子束焊接,焊接参数:加速电压90~150kV,束流20~100mA,聚焦电流300~3000mA,真空度3×10-2~8×10-2Pa,枪距试件距离200~500mm,焊接速度100~1200mm/min。焊后采用线切割切取金相样件,镶样、磨样、抛光及腐蚀后,采用扫描仪扫描并结合低倍显微镜观测熔凝区形状整体形貌;(二)测试接头熔凝区形状尺寸采用工具显微镜测试试样熔凝区形状特征尺寸:熔凝区熔深、熔凝区熔宽、正面接头熔凝区熔宽、背面接头熔凝区熔宽、接头熔凝区余高、熔凝区深宽比、熔凝区焊趾角、熔凝区过渡弧半径,将80%的试样的数据用于神经网络建模的数据,另外20%用于验证和修正神经网络模型的数据;(三)构建熔凝区形状因子神经网络分析基础结构根据工艺因子、束流品质因子、材料特性因子及环境因子构建熔凝区形状因子与熔凝区形状特征之间的神经网络结构,在神经网络中,工艺因子、束流品质因子、材料因子等因素作为输入层的参数,熔凝区形状特征的熔深、熔宽、正面接头熔宽、背面接头熔宽、接头余高、深宽比、焊趾角、过渡弧半径作为输出层的参数,输入层和输出层之间建立隐藏层;在各层中,神经元的输入记作xi,神经元的输出记作yi,第i个神经元向下一层第j个神经元的的权值记做wij,根据神经网络的理论:其中为非线性激活函数,可以取作Logister函数或双曲正切函数对神经网络的结构进行优化,包括隐藏层神经元数目的选择,非线性激活函数的选择,输出值的线性变换,当输入层的参数确定以后,形状因子就可以表示成神经元权值的非线性函数;(四)熔凝区形状因子神经网络训练输入熔凝区形状因子数据及熔凝区形状特征的数据,按如下具体算法计算:(1)权值初始化:wji=0 (4)(2)前向计算:<math><mrow><msubsup><mi>y</mi><mi>i</mi><mi>l</mi></msubsup><msub><mo>|</mo><mrow><mi>l</mi><mo>=</mo><mn>0</mn></mrow></msub><mo>=</mo><msub><mi>x</mi><mi>j</mi></msub><mrow><mo>(</mo><mi>n</mi><mo>)</mo></mrow></mrow><math><mrow><msubsup><mi>v</mi><mi>j</mi><mrow><mo>(</mo><mi>l</mi><mo>)</mo></mrow></msubsup><mrow><mo>(</mo><mi>n</mi><mo>)</mo></mrow><mo>=</mo><munderover><mi>&Sigma;</mi><mrow><mi>m</mi><mo>=</mo><mn>0</mn></mrow><msub><mi>m</mi><mn>0</mn></msub></munderover><msubsup><mi>w</mi><mi>ji</mi><mrow><mo>(</mo><mi>l</mi><mo>)</mo></mrow></msubsup><mrow><mo>(</mo><mi>n</mi><mo>)</mo></mrow><msubsup><mi>y</mi><mi>i</mi><mrow><mo>(</mo><mi>l</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow></msubsup><mrow><mo>(</mo><mi>n</mi><mo>)</mo></mrow><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>5</mn><mo>)</mo></mrow></mrow>其中l表示神经元所在层数,wji (l)是从第(l-1)层神经元i指向第l层神经元j的权值,yi l是第l层神经元j的输出值;(3)反向计算:<math><mrow><msubsup><mi>w</mi><mi>ji</mi><mrow><mo>(</mo><mi>l</mi><mo>)</mo></mrow></msubsup><mrow><mo>(</mo><mi>n</mi><mo>+</mo><mn>1</mn><mo>)</mo></mrow><mo>=</mo><msubsup><mi>w</mi><mi>ji</mi><mrow><mo>(</mo><mi>l</mi><mo>)</mo></mrow></msubsup><mrow><mo>(</mo><mi>n</mi><mo>)</mo></mrow><mo>+</mo><mi>&alpha;</mi><mo>[</mo><msubsup><mi>w</mi><mi>ji</mi><mrow><mo>(</mo><mi>l</mi><mo>)</mo></mrow></msubsup><mrow><mo>(</mo><mi>n</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow><mo>]</mo><mo>+</mo><mi>&eta;</mi><msubsup><mi>&delta;</mi><mi>j</mi><mrow><mo>(</mo><mi>l</mi><mo>)</mo></mrow></msubsup><msubsup><mi>y</mi><mi>i</mi><mrow><mo>(</mo><mi>l</mi><mo>-</mo><mn>1</mn><mo>)</mo></mrow></msubsup><mrow><mo>(</mo><mi>n</mi><mo>)</mo></mrow></mrow>(4)迭代权值直至满足收敛条件通过预留的验证数据确定神经网络的预测值和实验值之间的误差,调节各个神经元的权值wji,使得预测值和实验值之间的误差平方和<math><mrow><mi>&epsiv;</mi><mo>=</mo><munder><mi>&Sigma;</mi><mi>i</mi></munder><msup><mrow><mo>(</mo><msub><mi>d</mi><mi>i</mi></msub><mo>-</mo><msub><mi>y</mi><mi>i</mi></msub><mo>)</mo></mrow><mn>2</mn></msup></mrow>最小。
地址 100024北京340信箱