发明名称 基于深度学的对象间的关联分析方法及其装置
摘要 本发明公开了一种社交媒体网络中对象间的关联分析方法及装置,在很多重要的相关领域已经有了广泛的应用。该方法包括:步骤1、提取对象的底层特征;步骤2、对所提取的底层特征通过深度网络进行高层语义学,得到对象的高层特征;步骤3、通过对象的高层特征获得对象间的关联关系。该方法中首先从对象的内容信息中学出高层的抽象特征,然后在这些高层的特征的基础上来进行关联建模。本方法引入隐式特征的概念,在生成式模型的框架下,一方面隐式特征生成对象的内容信息(高层特征),另一方面,对象的隐式特征之间的交互以最大概率对象之间的关联信息。本方法采用蒙特卡洛近似推断算法来推断模型的参数及隐变量。
申请公布号 CN103440352B 申请公布日期 2017.04.19
申请号 CN201310438984.7 申请日期 2013.09.24
申请人 中国科学院自动化研究所 发明人 徐常胜;袁召全;桑基韬
分类号 G06F17/30(2006.01)I 主分类号 G06F17/30(2006.01)I
代理机构 中科专利商标代理有限责任公司 11021 代理人 宋焰琴
主权项 一种基于深度学习的对象间关联分析方法,其包括:步骤1、提取对象的底层特征;步骤2、对所提取的底层特征通过深度网络进行高层语义学习,得到对象的高层特征;步骤3、通过对象的高层特征获得对象间的关联关系;其中,步骤2中在所述深度网络中相邻两层之间构成一个受限波尔兹曼机;并采用对比散度算法训练所述受限波尔兹曼机,最终得到对象的高层特征,受限波尔兹曼机由下层的可见层v和上层的隐藏层h构成,同一层的节点之间没有连接,给定v层节点的状态,h层的第i个节点的条件状态分布为:<maths num="0001"><math><![CDATA[<mrow><mi>p</mi><mrow><mo>(</mo><msub><mi>h</mi><mi>i</mi></msub><mo>=</mo><mn>1</mn><mo>|</mo><mi>v</mi><mo>)</mo></mrow><mo>=</mo><mi>&sigma;</mi><mrow><mo>(</mo><msub><msup><mi>b</mi><mrow><mo>(</mo><mi>h</mi><mo>)</mo></mrow></msup><mi>i</mi></msub><mo>+</mo><munder><mo>&Sigma;</mo><mi>j</mi></munder><msub><mi>w</mi><mrow><mi>i</mi><mi>j</mi></mrow></msub><msub><mi>v</mi><mi>j</mi></msub><mo>)</mo></mrow></mrow>]]></math><img file="FDA0001208480410000011.GIF" wi="733" he="127" /></maths>其中,b<sup>(h)</sup><sub>i</sub>表示h层节点i的偏置,w<sub>ij</sub>表示v层的节点j和h层的节点i之间的权重,σ表示logistic函数,即<img file="FDA0001208480410000012.GIF" wi="409" he="135" />同样,给定h层节点的状态,v层的第j个节点的条件状态分布为:<maths num="0002"><math><![CDATA[<mrow><mi>p</mi><mrow><mo>(</mo><msub><mi>v</mi><mi>j</mi></msub><mo>=</mo><mn>1</mn><mo>|</mo><mi>h</mi><mo>)</mo></mrow><mo>=</mo><mi>&sigma;</mi><mrow><mo>(</mo><msub><msup><mi>b</mi><mrow><mo>(</mo><mi>v</mi><mo>)</mo></mrow></msup><mi>j</mi></msub><mo>+</mo><munder><mo>&Sigma;</mo><mi>i</mi></munder><msub><mi>w</mi><mrow><mi>i</mi><mi>j</mi></mrow></msub><msub><mi>h</mi><mi>i</mi></msub><mo>)</mo></mrow></mrow>]]></math><img file="FDA0001208480410000013.GIF" wi="742" he="118" /></maths>其中,b<sup>(v)</sup><sub>j</sub>表示v层的第j个节点的偏置;所述深度网络的训练过程分为两个阶段:逐层的贪心学习过程和全局的调节过程;在逐层的贪心学习过程中,当下层的受限波尔兹曼机训练完成之后,把下层受限波尔兹曼机的隐藏层的状态作为上层受限波尔兹曼机的输入,这样逐层地向上学习,直到最高层,即[h<sup>0</sup>,h<sup>1</sup>],[h<sup>1</sup>,h<sup>2</sup>],…,[h<sup>N‑1</sup>,h<sup>N</sup>]构成N‑1个受限波尔兹曼机,通过[h<sup>0</sup>,h<sup>1</sup>]由h<sup>0</sup>学习h<sup>1</sup>的特征状态,然后把h<sup>1</sup>的特征状态作为受限波尔兹曼机[h<sup>1</sup>,h<sup>2</sup>]的输入,来学习h<sup>2</sup>的特征状态,如此下去,一直到学习出h<sup>N</sup>的特征状态;在逐层的贪心学习过程之后,用全局的调节过程来进行全局地调整整个深度网络的参数。
地址 100190 北京市海淀区中关村东路95号