发明名称 融合最小二乘向量机回归学思想的改进极限学机
摘要 本发明涉及一种改进极限学机,尤其是一种融合最小二乘向量机回归学思想的改进极限学机,属于人工智能的技术领域。本发明在传统极限学机经验风险最小化基础上,融合了最小二乘向量机回归学思想,增加了结构风险控制项,通过有效调节两种风险的比例来求解,这就大大降低了模型产生过度拟合的风险。通过在SinC数据集、Boston Housing数据集及在渔业养殖中的溶氧预测中的实际应用这三个实验表明,与ELM算法和EOS-ELM算法相比,该方法的预测误差与训练误差比较接近,有效降低了过拟合问题,其预测的精度也得到了一定的提高。
申请公布号 CN102708381A 申请公布日期 2012.10.03
申请号 CN201210141568.6 申请日期 2012.05.09
申请人 江南大学 发明人 毛力;张立冬
分类号 G06K9/62(2006.01)I 主分类号 G06K9/62(2006.01)I
代理机构 无锡市大为专利商标事务所 32104 代理人 曹祖良
主权项 一种融合最小二乘向量机回归学习思想的改进极限学习机,其特征是,所述改进极限学习机包括如下步骤:步骤1、给定观测数据集T,T={(x1,y1),…,(xj,yj),…,(xN,yN)},其中,xj∈Rn,yj∈R,j=1,…,N;将包括N个隐层节点,激励函数为G的极限学习机回归模型设定为 <mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mi>&Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>&beta;</mi> <mi>i</mi> </msub> <mi>G</mi> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>b</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>&beta;</mi> <mo>&CenterDot;</mo> <mi>h</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>;</mo> </mrow>其中,βi为第i个隐层节点与输出神经元的输出权值,β为输出权值矩阵,ai为输入神经元与第i个隐层节点的输入权值,bi为第i个隐层节点的偏置,h(x)为隐层输出矩阵,h(x)=[G(a1,b1,x1),…,G(aN,bN,xN)];步骤2、随机初始化输入权值ai和偏置bi,i=1,...,N,并使得输入权值ai和偏置bi在训练过程中保持不变;步骤3、根据经验风险最小化的ELM和结合最小二乘向量机回归学习思想的结构风险最小化方法,得到 <mrow> <mi>min</mi> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mrow> <mo>|</mo> <mo>|</mo> <mi>&beta;</mi> <mo>|</mo> <mo>|</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mi>&zeta;</mi> <munderover> <mi>&Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msup> <msub> <mi>&delta;</mi> <mi>i</mi> </msub> <mn>2</mn> </msup> </mrow> <mfenced open='{' close=''> <mtable> <mtr> <mtd> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&delta;</mi> <mi>i</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>&delta;</mi> <mi>i</mi> </msub> <mo>&GreaterEqual;</mo> <mn>0</mn> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mo>&CenterDot;</mo> <mo>&CenterDot;</mo> <mo>&CenterDot;</mo> <mo>,</mo> <mi>N</mi> </mtd> </mtr> </mtable> </mfenced>其中,δi为误差,误差的平方和δi2代表经验风险;||β||2代表结构风险,ζ为调节系数;步骤4、将步骤3得到的条件极值函数转换为拉格朗日函数,得到 <mrow> <msub> <mi>L</mi> <mi>ELM</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mrow> <mo>|</mo> <mo>|</mo> <mi>&beta;</mi> <mo>|</mo> <mo>|</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mi>&zeta;</mi> <munderover> <mi>&Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msup> <msub> <mi>&delta;</mi> <mi>i</mi> </msub> <mn>2</mn> </msup> <mo>-</mo> <munderover> <mi>&Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>&lambda;</mi> <mi>i</mi> </msub> <mo>[</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>&delta;</mi> <mi>i</mi> </msub> <mo>]</mo> </mrow>其中,LELM为拉格朗日函数;λi为拉格朗日乘子;步骤5、将步骤4得到拉格朗日函数利用KKT最优函数得到 <mrow> <mfenced open='{' close=''> <mtable> <mtr> <mtd> <mfrac> <mrow> <mo>&PartialD;</mo> <msub> <mi>L</mi> <mi>ELM</mi> </msub> </mrow> <mrow> <mo>&PartialD;</mo> <mi>&beta;</mi> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>&DoubleRightArrow;</mo> <mi>&beta;</mi> <mo>=</mo> <munderover> <mi>&Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>&lambda;</mi> <mi>i</mi> </msub> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mfrac> <mrow> <mo>&PartialD;</mo> <msub> <mi>L</mi> <mi>ELM</mi> </msub> </mrow> <mrow> <mo>&PartialD;</mo> <msub> <mi>&delta;</mi> <mi>i</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>&DoubleRightArrow;</mo> <msub> <mi>&lambda;</mi> <mi>i</mi> </msub> <mo>=</mo> <mi>&zeta;</mi> <mo>&CenterDot;</mo> <msub> <mi>&delta;</mi> <mi>i</mi> </msub> </mtd> </mtr> <mtr> <mtd> <mfrac> <mrow> <mo>&PartialD;</mo> <msub> <mi>L</mi> <mi>ELM</mi> </msub> </mrow> <mrow> <mo>&PartialD;</mo> <msub> <mi>&lambda;</mi> <mi>i</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>&DoubleRightArrow;</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>&delta;</mi> <mi>i</mi> </msub> <mo>=</mo> <mn>0</mn> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>并根据上述优化约束条件计算得到拉格朗日乘子λi和输出权值矩阵β;步骤6、根据步骤5得到的输出权值矩阵β,得到极限学习机回归模型f(x)。
地址 214122 江苏省无锡市蠡湖大道1800号