分类:机器学习用于运动物体的无监督识别

来自Big Physics
Jinshanw讨论 | 贡献2018年3月14日 (三) 08:58的版本 →‎参考文献


在文献[1]中,作者提出来,从照片的历史数据([math]\displaystyle{ x\left(t\right) }[/math],二维像素的时间序列)识别运动物体([math]\displaystyle{ \hat{y}\left(t\right)=f\left(x\left(t\right)\right) }[/math])。当然,如果是有监督的,那么,这个问题就会比较简单,甚至,在具有足够信息的情况下,连原始的[math]\displaystyle{ x\left(t\right) }[/math]都不在需要。也就是,只要提供了训练样本[math]\displaystyle{ \left(x\left(\tau\right),y\left(\tau\right)\right), \tau=1,2, \cdots, t-1 }[/math],则从这些[math]\displaystyle{ y\left(\tau\right), \tau=1,2, \cdots, t-1 }[/math]就可以计算出来[math]\displaystyle{ \hat{y}\left(t\right) }[/math],完全就成了一个时间序列推断的问题。现在,面对的问题是:有一堆照片,但是,没有任何一个照片做过运动物体的标记,看看,能不能识别出来那个在做运动的物体,甚至看看能不能识别出来做某种——例如自由落体、抛物等等——运动的物体。

人的眼睛显然是可以的。那么,机器能做吗?

[1]提出来,如果你知道是自由落体运动,就好办了,你就写下来一个运用了自由落体运动公式[math]\displaystyle{ y=y_{0}+v_{0}t+\frac{1}{2}at^{2} }[/math]的优化函数,然后,这个函数中仅仅出现[math]\displaystyle{ x\left(\right), \hat{y}\left(t\right)=f\left(x\left(t\right)\right) }[/math]两个变量,而不需要标注信息[math]\displaystyle{ y\left(t\right) }[/math]。这时候,就能够实现运用了领域信息的无监督学习。

其结果表明,这个方法还不错。

受这个思路的启发,我在想,能不能对于一般的物理运动的物体,也就是说,本质上可能都是某个哈密吨量[math]\displaystyle{ H\left(y,p_{y}\right) }[/math]或者拉格朗日量[math]\displaystyle{ H\left(y,\dot{y}\right) }[/math]所描述的运动,都做出来一个一般的无监督学习?也就是说,我们要从图像信息中学到[math]\displaystyle{ \hat{y},\dot{\hat{y}} }[/math](或者先学习到[math]\displaystyle{ \hat{y} }[/math],再计算[math]\displaystyle{ \dot{\hat{y}} }[/math]),然后,我们追求这个拉格朗日量的时间积分,也就是作用量的最小值。这样就得到了一个具有非常大的一般性的基于物理知识的运动物体的无监督识别。

对于只有重力和空气阻力情况的具体方案

假设已经有了一个尝试映射[math]\displaystyle{ f }[/math],对所有的照片时间序列用一下这个映射,得到轨迹[math]\displaystyle{ \left(\hat{y},\dot{\hat{y}}\right) }[/math]。接着按照物理学知识,对于只有重力和空气阻力的情形,[math]\displaystyle{ L\left(\hat{y},\dot{\hat{y}}\right)=\frac{1}{2}m\dot{\hat{y}}^{2}-mg\hat{y}-\gamma \hat{y}\dot{\hat{y}} }[/math]。这个函数里面,只有[math]\displaystyle{ \left(\hat{y},\dot{\hat{y}}\right) }[/math],以及参数[math]\displaystyle{ m, \gamma }[/math]。当然 ,可以考虑把[math]\displaystyle{ \gamma }[/math]也扔掉,假设这个物体的运动离抛物运动不远。这个时候,会发现,[math]\displaystyle{ m }[/math]由于是一个额外乘上的系数,不改变运动,也可以去掉。于是,简化为[math]\displaystyle{ L\left(\hat{y},\dot{\hat{y}}\right)=\frac{1}{2}\dot{\hat{y}}^{2}-g\hat{y} }[/math],直接对给定的轨道来优化这个目标函数就行。

另外,是否需要对完全不动的预测函数做一个惩罚,否则,实际上,[math]\displaystyle{ f=y_{0} }[/math]应该永远满足上面的最小值条件。

参考文献

  1. 1.0 1.1 Russell Stewart, Stefano Ermon, Label-Free Supervision of Neural Networks with Physics and Domain Knowledge, arXiv:1609.05566. 数据和代码在这里:https://github.com/russell91/labelfree

本分类目前不含有任何页面或媒体文件。