发明名称 使指标得到简化的输电杆塔塔材实际强度计算方法
摘要 本发明公开了一种使指标得到简化的输电杆塔塔材实际强度计算方法,应用粗糙集理论对杆塔强度影响因素集进行约简;采用数据挖掘方法从大量的历史数据中挖掘有用数据构造学集;根据学集运用梯度下降法不断迭代学来确定因素集权重,并将得到的权值综合评价计算塔材实际强度的退化率。该方法可解决演化过程中影响塔材强度因素的效度不清晰的典型不确定性、非线性问题。该方法可为输电铁塔结构安全评价提供重要的科学判据。
申请公布号 CN105069027A 申请公布日期 2015.11.18
申请号 CN201510423506.8 申请日期 2014.08.26
申请人 国家电网公司;江苏省电力公司;江苏省电力公司南通供电公司 发明人 王晓东;张乐;葛乐;龚灯才;朱富云;徐剑峰;朱卫;鞠易;朱张蓓;孙玉玮
分类号 G06F17/30(2006.01)I 主分类号 G06F17/30(2006.01)I
代理机构 南通市永通专利事务所 32100 代理人 葛雷
主权项 一种使指标得到简化的输电杆塔塔材实际强度计算方法,其特征在于:包括如下步骤:步骤1:指标集约简;步骤2:数据挖掘学习集的构造;步骤3:因素集权重确定;步骤4:实际强度评估;其中学习集的构造:考虑一个未知的多入单出非线性映射f:R<sup>n</sup>→R,假定可以得到系统可观测的输入输出数据:<img file="FDA0000761633390000011.GIF" wi="244" he="92" />并且这组数据存在函数关系:y<sub>i</sub>=h(x<sub>i</sub>)+ε式中:X∈R<sup>n</sup>是自变量;y<sub>i</sub>∈R是因变量:ε<sub>i</sub>∈R为零均值且方差为σ<sup>2</sup>的独立随机分布变量;问题是对于输入空间的任意向量XqX<sub>q</sub>,能否根据系统已有的数据集,建立一个映射,并能通过该映射,得到系统相应的估计输出<img file="FDA0000761633390000012.GIF" wi="117" he="96" />此问题可以归结为求解下面的优化问题<maths num="0001" id="cmaths0001"><math><![CDATA[<mrow><mi>m</mi><mi>i</mi><mi>n</mi><munder><mo>&Sigma;</mo><mrow><mo>(</mo><msub><mi>X</mi><mi>i</mi></msub><mo>,</mo><msub><mi>Y</mi><mi>i</mi></msub><mo>)</mo><mo>&Element;</mo><msub><mi>&Omega;</mi><mi>k</mi></msub></mrow></munder><msup><mrow><mo>(</mo><msub><mi>y</mi><mi>i</mi></msub><mo>-</mo><mi>h</mi><mo>(</mo><mrow><msub><mi>X</mi><mi>i</mi></msub><mo>,</mo><mi>&theta;</mi></mrow><mo>)</mo><mo>)</mo></mrow><mn>2</mn></msup><msub><mi>w</mi><mi>i</mi></msub></mrow>]]></math><img file="FDA0000761633390000013.GIF" wi="542" he="125" /></maths>式中:Ω<sub>k</sub>为距离X<sub>k</sub>最近的k个样本所构成的局部空间;h(·)为描述输入输出向量的非线性映射函数;w<sub>i</sub>为权值,表示局部空间内的样本数据对输出向量的影响程度,局部空间内不同的样本数据对系统输出的影响或贡献度是不同的;从直观上看,距离输入向量最近的那些样本输入所对应的输出向量值最能反映当前输入量的输出,这实际上也是即时学习算法的基本原则:相似输入产生相似输出;运用以上算法原理,采用K‑VNN搜索策略,在系统已有的N组数据中寻找k组最相似的数据(k&lt;&lt;N),杆塔塔材的实际强度退化率与影响因素集U呈现非线性关系:η=f(U)+ε(t)其中,η为退化率,ε(t)为零均值的白噪声,f(·)为未知的非线性函数;对于已经存在N组影响因素和退化率的数据<img file="FDA0000761633390000014.GIF" wi="273" he="84" />在当前t时刻,有影响因素信息U(t),采用K‑VNN搜索策略,在系统已有的N组数据中寻找k组最相似的数据(k&lt;&lt;N),具体如下:当cosβ(U(i),U(t))&lt;0,则认为此U(i)偏离于当前输入U(t),不利于建模,丢弃此数据;否则,以U(i)与U(t)的指数核与夹角余弦加权之和选择准则,即D(U(i),U(t))=α·e<sup>‑d(U(i),U(t))</sup>+(1‑α)·cosβ(U(i),U(t))式中:<maths num="0002" id="cmaths0002"><math><![CDATA[<mfenced open='{' close=''><mtable><mtr><mtd><mi>c</mi><mi>o</mi><mi>s</mi><mi>&beta;</mi><mo>(</mo><mi>U</mi><mrow><mo>(</mo><mi>i</mi><mo>)</mo></mrow><mo>,</mo><mi>U</mi><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow><mo>)</mo><mo>=</mo><mrow><mfrac><mrow><msup><mi>U</mi><mi>T</mi></msup><mrow><mo>(</mo><mi>i</mi><mo>)</mo></mrow><mi>U</mi><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow></mrow><mrow><msub><mrow><mo>|</mo><mo>|</mo><mi>U</mi><mrow><mo>(</mo><mi>i</mi><mo>)</mo></mrow><mo>|</mo><mo>|</mo></mrow><mn>2</mn></msub><mo>&CenterDot;</mo><msub><mrow><mo>|</mo><mo>|</mo><mi>U</mi><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow><mo>|</mo><mo>|</mo></mrow><mn>2</mn></msub></mrow></mfrac></mrow></mtd></mtr><mtr><mtd><mrow><mi>d</mi><mrow><mo>(</mo><mi>U</mi><mo>(</mo><mi>i</mi><mo>)</mo><mo>,</mo><mi>U</mi><mo>(</mo><mi>t</mi><mo>)</mo><mo>)</mo></mrow><mo>=</mo><msub><mrow><mo>|</mo><mo>|</mo><mi>U</mi><mrow><mo>(</mo><mi>i</mi><mo>)</mo></mrow><mo>-</mo><mi>U</mi><mrow><mo>(</mo><mi>t</mi><mo>)</mo></mrow><mo>|</mo><mo>|</mo></mrow><mn>2</mn></msub><mo>,</mo><mi>&alpha;</mi><mo>&Element;</mo><mo>&lsqb;</mo><mn>0</mn><mo>,</mo><mn>1</mn><mo>&rsqb;</mo></mrow></mtd></mtr></mtable></mfenced>]]></math><img file="FDA0000761633390000021.GIF" wi="752" he="236" /></maths>α为加权因子;加权选择准则D(U(i),U(t))直接反映了U(i)与U(t)的相似性;若两个信息向量越靠近,则d就越小,并且cosβ也就越大,从而D(U(i),U(t))也就越大;这样,在已有的数据信息中,选用D(·)值最大的k组数据,按降序排列,构造学习集:{(U(1),η(1)),…,(U(k),η(k))}D(U(1),U(t))&gt;…&gt;D(U(k),U(t))。
地址 100031 北京市西城区西长安街86号