主权项 |
一种融合最小二乘向量机回归学习思想的改进极限学习机,其特征是,所述改进极限学习机包括如下步骤:步骤1、给定观测数据集T,T={(x1,y1),…,(xj,yj),…,(xN,yN)},其中,xj∈Rn,yj∈R,j=1,…,N;将包括N个隐层节点,激励函数为G的极限学习机回归模型设定为 <mrow> <mi>f</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mi>Σ</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>β</mi> <mi>i</mi> </msub> <mi>G</mi> <mrow> <mo>(</mo> <msub> <mi>a</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>b</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>β</mi> <mo>·</mo> <mi>h</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>;</mo> </mrow>其中,βi为第i个隐层节点与输出神经元的输出权值,β为输出权值矩阵,ai为输入神经元与第i个隐层节点的输入权值,bi为第i个隐层节点的偏置,h(x)为隐层输出矩阵,h(x)=[G(a1,b1,x1),…,G(aN,bN,xN)];步骤2、随机初始化输入权值ai和偏置bi,i=1,...,N,并使得输入权值ai和偏置bi在训练过程中保持不变;步骤3、根据经验风险最小化的ELM和结合最小二乘向量机回归学习思想的结构风险最小化方法,得到 <mrow> <mi>min</mi> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mrow> <mo>|</mo> <mo>|</mo> <mi>β</mi> <mo>|</mo> <mo>|</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mi>ζ</mi> <munderover> <mi>Σ</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msup> <msub> <mi>δ</mi> <mi>i</mi> </msub> <mn>2</mn> </msup> </mrow> <mfenced open='{' close=''> <mtable> <mtr> <mtd> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>δ</mi> <mi>i</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>δ</mi> <mi>i</mi> </msub> <mo>≥</mo> <mn>0</mn> <mo>,</mo> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mo>·</mo> <mo>·</mo> <mo>·</mo> <mo>,</mo> <mi>N</mi> </mtd> </mtr> </mtable> </mfenced>其中,δi为误差,误差的平方和δi2代表经验风险;||β||2代表结构风险,ζ为调节系数;步骤4、将步骤3得到的条件极值函数转换为拉格朗日函数,得到 <mrow> <msub> <mi>L</mi> <mi>ELM</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mrow> <mo>|</mo> <mo>|</mo> <mi>β</mi> <mo>|</mo> <mo>|</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mi>ζ</mi> <munderover> <mi>Σ</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msup> <msub> <mi>δ</mi> <mi>i</mi> </msub> <mn>2</mn> </msup> <mo>-</mo> <munderover> <mi>Σ</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>λ</mi> <mi>i</mi> </msub> <mo>[</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>δ</mi> <mi>i</mi> </msub> <mo>]</mo> </mrow>其中,LELM为拉格朗日函数;λi为拉格朗日乘子;步骤5、将步骤4得到拉格朗日函数利用KKT最优函数得到 <mrow> <mfenced open='{' close=''> <mtable> <mtr> <mtd> <mfrac> <mrow> <mo>∂</mo> <msub> <mi>L</mi> <mi>ELM</mi> </msub> </mrow> <mrow> <mo>∂</mo> <mi>β</mi> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>⇒</mo> <mi>β</mi> <mo>=</mo> <munderover> <mi>Σ</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <msub> <mi>λ</mi> <mi>i</mi> </msub> <mi>h</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mfrac> <mrow> <mo>∂</mo> <msub> <mi>L</mi> <mi>ELM</mi> </msub> </mrow> <mrow> <mo>∂</mo> <msub> <mi>δ</mi> <mi>i</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>⇒</mo> <msub> <mi>λ</mi> <mi>i</mi> </msub> <mo>=</mo> <mi>ζ</mi> <mo>·</mo> <msub> <mi>δ</mi> <mi>i</mi> </msub> </mtd> </mtr> <mtr> <mtd> <mfrac> <mrow> <mo>∂</mo> <msub> <mi>L</mi> <mi>ELM</mi> </msub> </mrow> <mrow> <mo>∂</mo> <msub> <mi>λ</mi> <mi>i</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mn>0</mn> <mo>⇒</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <mi>f</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>δ</mi> <mi>i</mi> </msub> <mo>=</mo> <mn>0</mn> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>并根据上述优化约束条件计算得到拉格朗日乘子λi和输出权值矩阵β;步骤6、根据步骤5得到的输出权值矩阵β,得到极限学习机回归模型f(x)。 |