math 卡尔曼滤波算法原理以及python实例

首先给大家推荐一下我老师大神的人工智能教学网站。教学不仅零基础,通俗易懂,而且非常风趣幽默,还时不时有内涵黄段子!点这里可以跳转到网站 文章来源维基百科
卡尔曼滤波是一种高效率的递归滤波器(自回归滤波器),它能够从一系列的不完全及包含噪声的测量中,估计动态系统的状态。
卡尔曼滤波的一个典型实例是从一组有限的,包含噪声的,通过对物体位置的观察序列(可能有偏差)预测出物体的位置的坐标及速度。在很多工程应用(如雷达、计算机视觉)中都可以找到它的身影。同时,卡尔曼滤波也是控制理论以及控制系统工程中的一个重要课题。例如,对于雷达来说,人们感兴趣的是其能够跟踪目标。但目标的位置、速度、加速度的测量值往往在任何时候都有噪声。卡尔曼滤波利用目标的动态信息,设法去掉噪声的影响,得到一个关于目标位置的好的估计。这个估计可以是对当前目标位置的估计(滤波),也可以是对于将来位置的估计(预测),也可以是对过去位置的估计(插值或平滑)。这种滤波方法以它的发明者鲁道夫.E.卡尔曼(Rudolph E. Kalman)命名,原文地址

基本动态系统模型

卡尔曼滤波建立在线性代数和隐马尔可夫模型(hidden Markov model)上。其基本动态系统可以用一个马尔可夫链表示,该马尔可夫链建立在一个被高斯噪声(即正态分布的噪声)干扰的线性算子上的。系统的状态可以用一个元素为实数的向量表示。随着离散时间的每一个增加,这个线性算子就会作用在当前状态上,产生一个新的状态,并也会带入一些噪声,同时系统的一些已知的控制器的控制信息也会被加入。同时,另一个受噪声干扰的线性算子产生出这些隐含状态的可见输出。

为了从一系列有噪声的观察数据中用卡尔曼滤波器估计出被观察过程的内部状态,我们必须把这个过程在卡尔曼滤波的框架下建立模型。也就是说对于每一步k,定义矩阵FkHkQk,Rk,有时也需要定义Bk,如下。

卡尔曼滤波器的模型。圆圈代表向量,方块代表矩阵,星号代表高斯噪声,其协方差矩阵在右下方标出。

卡尔曼滤波模型假设k时刻的真实状态是从(k − 1)时刻的状态演化而来,符合下式:

\textbf{x}_{k} = \textbf{F}_{k} \textbf{x}_{k-1} + \textbf{B}_{k}\textbf{u}_{k-1}  + \textbf{w}_{k-1}

其中

  • Fk是作用在xk−1上的状态变换模型(/矩阵/矢量)。
  • Bk是作用在控制器向量uk上的输入-控制模型。
  • wk是过程噪声,并假定其符合均值为零,协方差矩阵为Qk的多元正态分布。
\textbf{w}_{k} \sim N(0, \textbf{Q}_k)

时刻k,对真实状态xk的一个测量zk满足下式:

\textbf{z}_{k} = \textbf{H}_{k} \textbf{x}_{k} + \textbf{v}_{k}

其中Hk是观测模型,它把真实状态空间映射成观测空间,vk是观测噪声,其均值为零,协方差矩阵为Rk,且服从正态分布。

\textbf{v}_{k} \sim N(0, \textbf{R}_k)

初始状态以及每一时刻的噪声{x0w1, …, wkv1 … vk}都认为是互相独立的。

实际上,很多真实世界的动态系统都并不确切的符合这个模型;但是由于卡尔曼滤波器被设计在有噪声的情况下工作,一个近似的符合已经可以使这个滤波器非常有用了。更多其它更复杂的卡尔曼滤波器的变种,在下边讨论中有描述。

卡尔曼滤波器

卡尔曼滤波是一种递归的估计,即只要获知上一时刻状态的估计值以及当前状态的观测值就可以计算出当前状态的估计值,因此不需要记录观测或者估计的历史信息。卡尔曼滤波器与大多数滤波器不同之處,在於它是一种纯粹的时域滤波器,它不需要像低通滤波器等频域滤波器那样,需要在频域设计再转换到时域实现。

卡尔曼滤波器的状态由以下两个变量表示:

  • ,在时刻k的状态的估计;
  • ,误差相关矩阵,度量估计值的精确程度。

卡尔曼滤波器的操作包括两个阶段:预测更新。在预测阶段,滤波器使用上一状态的估计,做出对当前状态的估计。在更新阶段,滤波器利用对当前状态的观测值优化在预测阶段获得的预测值,以获得一个更精确的新估计值。

预测

\hat{\textbf{x}}_{k|k-1} = \textbf{F}_{k}\hat{\textbf{x}}_{k-1|k-1} + \textbf{B}_{k} \textbf{u}_{k}

(预测状态)

\textbf{P}_{k|k-1} =  \textbf{F}_{k} \textbf{P}_{k-1|k-1} \textbf{F}_{k}^{T} + \textbf{Q}_{k}

(预测估计协方差矩阵)

更新

首先要算出以下三个量:

\tilde{\textbf{y}}_{k} = \textbf{z}_{k} - \textbf{H}_{k}\hat{\textbf{x}}_{k|k-1}

(测量余量,measurement residual)

\textbf{S}_{k} = \textbf{H}_{k}\textbf{P}_{k|k-1}\textbf{H}_{k}^{T} + \textbf{R}_{k}

(测量余量协方差)

\textbf{K}_{k} = \textbf{P}_{k|k-1}\textbf{H}_{k}^{T}\textbf{S}_{k}^{-1}

(最优卡尔曼增益)

然后用它们来更新滤波器变量xP

\hat{\textbf{x}}_{k|k} = \hat{\textbf{x}}_{k|k-1} + \textbf{K}_{k}\tilde{\textbf{y}}_{k}

(更新的状态估计)

\textbf{P}_{k|k} =(I - \textbf{K}_{k} \textbf{H}_{k}) \textbf{P}_{k|k-1}

(更新的协方差估计)

\textbf{P}_{k|k}

使用上述公式计算仅在最优卡尔曼增益的时候有效。使用其他增益的话,公式要复杂一些,请参见推导。

不变量(Invariant)

\hat{\textbf{x}}_{0|0}
\textbf{P}_{0|0}

如果模型准确,而且与的值准确的反映了最初状态的分布,那么以下不变量就保持不变:所有估计的误差均值为零

且协方差矩阵准确的反映了估计的协方差:

\textrm{E}[\textbf{a}]
{a}
\textrm{cov}(\textbf{a}) = \textrm{E}[\textbf{a}\textbf{a}^T]

请注意,其中表示的期望值, 。

实例

考虑在无摩擦的、无限长的直轨道上的一辆车。该车最初停在位置0处,但时不时受到随机的冲击。我们每隔△t秒即测量车的位置,但是这个测量是非精确的;我们想建立一个关于其位置以及速度的模型。我们来看如何推导出这个模型以及如何从这个模型得到卡尔曼滤波器。

因为车上无动力,所以我们可以忽略掉Bkuk。由于FHRQ是常数,所以时间下标可以去掉。

车的位置以及速度(或者更加一般的,一个粒子的运动状态)可以被线性状态空间描述如下:

\textbf{x}_{k} = \begin{bmatrix} x \ \dot{x} \end{bmatrix}
\dot{x}

其中是速度,也就是位置对于时间的导数。

我们假设在(k-1)时刻与k时刻之间,车受到ak的加速度,其符合均值为0,标准差为σa的正态分布。根据牛顿运动定律,我们可以推出

\textbf{x}_{k} = \textbf{F} \textbf{x}_{k-1} + \textbf{G}a_{k}

其中

\textbf{F} = \begin{bmatrix} 1 & \Delta t \ 0 & 1 \end{bmatrix}

\textbf{G} = \begin{bmatrix} \frac{\Delta t^{2}}{2} \ \Delta t \end{bmatrix}

我们可以发现

\textbf{Q} = \textrm{cov}(\textbf{G}a) = \textrm{E}[(\textbf{G}a)(\textbf{G}a)^{T}] = \textbf{G} \textrm{E}[a^2] \textbf{G}^{T} = \textbf{G}[\sigma_a^2]\textbf{G}^{T} = \sigma_a^2 \textbf{G}\textbf{G}^{T}

(因为σa是一个标量)。

在每一时刻,我们对其位置进行测量,测量受到噪声干扰。我们假设噪声服从正态分布,均值为0,标准差为σz

\textbf{z}_{k} = \textbf{H x}_{k} + \textbf{v}_{k}

其中

\textbf{H} = \begin{bmatrix} 1 & 0 \end{bmatrix}

\textbf{R} = \textrm{E}[\textbf{v}_k \textbf{v}_k^{T}] = \begin{bmatrix} \sigma_z^2 \end{bmatrix}

如果我们知道足够精确的车最初的位置,那么我们可以初始化

\hat{\textbf{x}}_{0|0} = \begin{bmatrix} 0 \ 0 \end{bmatrix}

并且,我们告诉滤波器我们知道确切的初始位置,我们给出一个协方差矩阵:

\textbf{P}_{0|0} = \begin{bmatrix} 0 & 0 \ 0 & 0 \end{bmatrix}

如果我們不确切的知道最初的位置与速度,那么协方差矩阵可以初始化为一个对角线元素是B的矩阵,B取一个合适的比较大的数。

\textbf{P}_{0|0} = \begin{bmatrix} B & 0 \ 0 & B \end{bmatrix}

此时,与使用模型中已有信息相比,滤波器更倾向于使用初次测量值的信息。

推导后验协方差矩阵

\textbf{P}_{k|k}

按照上边的定义,我们从误差协方差开始推导如下:

\textbf{P}_{k|k} = \textrm{cov}(\textbf{x}_{k} - \hat{\textbf{x}}_{k|k})
\hat{\textbf{x}}_{k|k}

代入

\textbf{P}_{k|k} = \textrm{cov}(\textbf{x}_{k} - (\hat{\textbf{x}}_{k|k-1} + \textbf{K}_k\tilde{\textbf{y}}_{k}))
\tilde{\textbf{y}}_k

再代入 

\textbf{P}_{k|k} = \textrm{cov}(\textbf{x}_{k} - (\hat{\textbf{x}}_{k|k-1} + \textbf{K}_k(\textbf{z}_k - \textbf{H}_k\hat{\textbf{x}}_{k|k-1})))
\textbf{z}_{k}

\textbf{P}_{k|k} = \textrm{cov}(\textbf{x}_{k} - (\hat{\textbf{x}}_{k|k-1} + \textbf{K}_k(\textbf{H}_k\textbf{x}_k + \textbf{v}_k - \textbf{H}_k\hat{\textbf{x}}_{k|k-1})))

整理误差向量,得

\textbf{P}_{k|k} = \textrm{cov}((I - \textbf{K}_k \textbf{H}_{k})(\textbf{x}_k - \hat{\textbf{x}}_{k|k-1}) - \textbf{K}_k \textbf{v}_k )

因为测量误差vk与其他项是非相关的,因此有

\textbf{P}_{k|k} = \textrm{cov}((I - \textbf{K}_k \textbf{H}_{k},\textbf{x}_k - \hat{\textbf{x}}_{k|k-1}))  + \textrm{cov}(\textbf{K}_k \textbf{v}_k )

利用协方差矩阵的性质,此式可以写作

\textbf{P}_{k|k} =(I - \textbf{K}_k \textbf{H}_{k})\textrm{cov}(\textbf{x}_k - \hat{\textbf{x}}_{k|k-1},I - \textbf{K}_k \textbf{H}_{k})^{T}  + \textbf{K}_k\textrm{cov}(\textbf{v}_k )\textbf{K}_k^{T}
\textbf{P}_{k|k}=(I - \textbf{K}_k \textbf{H}_{k}) \textbf{P}_{k|k-1}(I - \textbf{K}_k \textbf{H}_{k})^T +\textbf{K}_k \textbf{R}_k \textbf{K}_k^T

使用不变量Pk|k-1以及Rk的定义这一项可以写作 : 这一公式对于任何卡尔曼增益Kk都成立。如果Kk是最优卡尔曼增益,则进一步简化,請見下文。

最优卡尔曼增益的推导

卡尔曼滤波器是一个最小均方误差估计器,后验状态误差估计(英文:a posteriori state estimate)是

\textbf{x}_{k} - \hat{\textbf{x}}_{k|k}
\textrm{E}[|\textbf{x}_{k} - \hat{\textbf{x}}_{k|k}|^2]

我们最小化这个矢量幅度平方的期望值,,这等同于最小化后验估计协方差矩阵Pk|k的迹(trace)。将上面方程中的项展开、抵消,得到:


当矩阵导数是0的时候得到Pk|k的迹(trace)的最小值:

\frac{d \; \textrm{tr}(\textbf{P}_{k|k})}{d \;\textbf{K}_k} = -2(\textbf{H}_k \textbf{P}_{k|k-1})^T + 2 \textbf{K}_k \textbf{S}_k = 0

此处须用到一個常用的式子,如下:

从这个方程解出卡尔曼增益Kk

\textbf{K}_k \textbf{S}_k =(\textbf{H}_k \textbf{P}_{k|k-1})^T = \textbf{P}_{k|k-1} \textbf{H}_k^T
\textbf{K}_{k} = \textbf{P}_{k|k-1} \textbf{H}_k^T \textbf{S}_k^{-1}

这个增益称为最优卡尔曼增益,在使用时得到最小均方误差。

后验误差协方差公式的化简

在卡尔曼增益等于上面导出的最优值时,计算后验协方差的公式可以进行简化。在卡尔曼增益公式两侧的右边都乘以SkKkT得到

\textbf{K}_k \textbf{S}_k \textbf{K}_k^T = \textbf{P}_{k|k-1} \textbf{H}_k^T \textbf{K}_k^T

根据上面后验误差协方差展开公式,

\textbf{P}_{k|k} = \textbf{P}_{k|k-1} - \textbf{K}_k \textbf{H}_k \textbf{P}_{k|k-1}  - \textbf{P}_{k|k-1} \textbf{H}_k^T \textbf{K}_k^T + \textbf{K}_k \textbf{S}_k \textbf{K}_k^T

最后两项可以抵消,得到

\textbf{P}_{k|k} = \textbf{P}_{k|k-1} - \textbf{K}_k \textbf{H}_k \textbf{P}_{k|k-1} =(I - \textbf{K}_{k} \textbf{H}_{k}) \textbf{P}_{k|k-1}

.

这个公式的计算比较简单,所以实际中总是使用这个公式,但是需注意这公式仅在使用最优卡尔曼增益的时候它才成立。如果算术精度总是很低而导致数值稳定性出现问题,或者特意使用非最优卡尔曼增益,那么就不能使用这个简化;必须使用上面导出的后验误差协方差公式。

Python代码

[python]view plaincopy

  1. # -*- coding=utf-8 -*-  
  2. # Kalman filter example demo in Python  
  3.   
  4. # A Python implementation of the example given in pages 11-15 of “An  
  5. # Introduction to the Kalman Filter” by Greg Welch and Gary Bishop,  
  6. # University of North Carolina at Chapel Hill, Department of Computer  
  7. # Science, TR 95-041,  
  8. # http://www.cs.unc.edu/~welch/kalman/kalmanIntro.html  
  9.   
  10. # by Andrew D. Straw  
  11. #coding:utf-8  
  12. import numpy  
  13. import pylab  
  14.   
  15. #这里是假设A=1,H=1的情况  
  16.   
  17. # 参数初始化  
  18. n_iter = 50  
  19. sz = (n_iter,) # size of array  
  20. x = -0.37727 # truth value (typo in example at top of p. 13 calls this z)真实值  
  21. z = numpy.random.normal(x,0.1,size=sz) # observations (normal about x, sigma=0.1)观测值  
  22.   
  23. Q = 1e-5 # process variance  
  24.   
  25. # 分配数组空间  
  26. xhat=numpy.zeros(sz)      # a posteri estimate of x 滤波估计值  
  27. P=numpy.zeros(sz)         # a posteri error estimate滤波估计协方差矩阵  
  28. xhatminus=numpy.zeros(sz) # a priori estimate of x 估计值  
  29. Pminus=numpy.zeros(sz)    # a priori error estimate估计协方差矩阵  
  30. K=numpy.zeros(sz)         # gain or blending factor卡尔曼增益  
  31.   
  32. R = 0.1**2 # estimate of measurement variance, change to see effect  
  33.   
  34. # intial guesses  
  35. xhat[0] = 0.0  
  36. P[0] = 1.0  
  37.   
  38. for k in range(1,n_iter):  
  39.     # 预测  
  40.     xhatminus[k] = xhat[k-1]  #X(k|k-1) = AX(k-1|k-1) + BU(k) + W(k),A=1,BU(k) = 0  
  41.     Pminus[k] = P[k-1]+Q      #P(k|k-1) = AP(k-1|k-1)A’ + Q(k) ,A=1  
  42.   
  43.     # 更新  
  44.     K[k] = Pminus[k]/( Pminus[k]+R ) #Kg(k)=P(k|k-1)H’/[HP(k|k-1)H’ + R],H=1  
  45.     xhat[k] = xhatminus[k]+K[k]*(z[k]-xhatminus[k]) #X(k|k) = X(k|k-1) + Kg(k)[Z(k) – HX(k|k-1)], H=1  
  46.     P[k] = (1-K[k])*Pminus[k] #P(k|k) = (1 – Kg(k)H)P(k|k-1), H=1  
  47.   
  48. pylab.figure()  
  49. pylab.plot(z,’k+’,label=’noisy measurements’)     #观测值  
  50. pylab.plot(xhat,’b-‘,label=’a posteri estimate’)  #滤波估计值  
  51. pylab.axhline(x,color=’g’,label=’truth value’)    #真实值  
  52. pylab.legend()  
  53. pylab.xlabel(‘Iteration’)  
  54. pylab.ylabel(‘Voltage’)  
  55.   
  56. pylab.figure()  
  57. valid_iter = range(1,n_iter) # Pminus not valid at step 0  
  58. pylab.plot(valid_iter,Pminus[valid_iter],label=’a priori error estimate’)  
  59. pylab.xlabel(‘Iteration’)  
  60. pylab.ylabel(‘$(Voltage)^2$’)  
  61. pylab.setp(pylab.gca(),’ylim’,[0,.01])  
  62. pylab.show()  

运行结果

点这里可以跳转到人工智能网站

0 0 投票数
文章评分
订阅评论
提醒
0 评论
内联反馈
查看所有评论
0
希望看到您的想法,请发表评论。x
()
x