主权项 |
一种用于估计对象的行为的成本函数和价值函数的逆向强化学习的方法,所述方法包括:获取表示限定所述对象的所述行为的状态变量的改变的数据;将通过方程(1)给出的修改后的贝尔曼方程应用至所获取的数据:<maths num="0001"><math><![CDATA[<mrow><mi>q</mi><mrow><mo>(</mo><mi>x</mi><mo>)</mo></mrow><mo>+</mo><mi>γ</mi><mi>V</mi><mrow><mo>(</mo><mi>y</mi><mo>)</mo></mrow><mo>-</mo><mi>V</mi><mrow><mo>(</mo><mi>x</mi><mo>)</mo></mrow><mo>=</mo><mo>-</mo><mi>l</mi><mi>n</mi><mfrac><mrow><mi>π</mi><mrow><mo>(</mo><mi>y</mi><mo>|</mo><mi>x</mi><mo>)</mo></mrow></mrow><mrow><mi>p</mi><mrow><mo>(</mo><mi>y</mi><mo>|</mo><mi>x</mi><mo>)</mo></mrow></mrow></mfrac><mo>,</mo><mo>-</mo><mo>-</mo><mo>-</mo><mrow><mo>(</mo><mn>1</mn><mo>)</mo></mrow></mrow>]]></math><img file="FDA0001220301410000011.GIF" wi="998" he="130" /></maths>其中,q(x)和V(x)分别指代状态x下的成本函数和价值函数,并且γ表示贴现因子,并且p(y|x)和π(y|x)分别指代学习前和学习后的状态转变概率;估计方程(1)中的密度比率π(y|x)/p(y|x);根据所估计的密度比率π(y|x)/p(y|x),使用最小二乘法来估计方程(1)中的q(x)和V(x);以及输出所估计的q(x)和V(x)。 |