原标题:自动驾驶(十一)---------泰勒展开式、雅克比矩阵、主成分分析
原文来自:CSDN 原文链接:https://blog.csdn.net/zhouyy858/article/details/98030924
1.泰勒展开式
你可能会奇怪,讲自动驾驶怎么说起了数学,泰勒公式是我很喜欢的一个公式,自动驾驶中很多地方用到的是数学,只有把这些都弄明白,才能更好的理解自动驾驶,这也是我的探究过程。
泰勒公式一句话描述:就是用多项式函数去逼近光滑函数。
泰勒公式表达形式:
简单的方式来理解泰勒公式:
1.给定一个f(x),都可以唯一确定一个导函数f '(x),导函数给出了原函数的变化情况。如:f(x)=x^3,导函数为f’(x)=3x ^2
2.一个导函数f’(x)=3x2对应原函数为f(x)=3x2+1,f(x)=3x2+2, f(x)=3x2+3….无穷多个,求导是不可逆的过程。
3.原函数的信息=导函数的信息+初始值信息:
4.继续这个过程:F(x) 这就是泰勒展开公式。
泰勒公式的应用:
一:求极限
二:求高阶导数
三:证明不等式
四:判断散列性
五:计算近似值
六:求函数的麦克劳林展开式
2.雅克比矩阵
雅可比矩阵是一阶偏导数以一定方式排列成的矩阵。目的是表示多元函数的导数,假设F: Rn→Rm是一个从欧式n维空间转换到欧式m维空间的函数。这个函数F由m个实函数组成: y1(x1,…,xn), …, ym(x1,…,xn)。这些函数的偏导数(如果存在)可以组成一个m行n列的矩阵, 这就是所谓的雅可比矩阵:
表示为:
如果p是Rn中的一点, F在p点可微分, 那么在这一点的导数由JF(p)给出(这是求该点导数最简便的方法). 在此情况下, 由F(p)描述的线性算子即接近点p的F的最优线性逼近, x逼近于p:
雅可比矩阵是向量关于向量的导数,上图为直线中的点斜式。
3.主成分分析
机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。在原始高维空间中包含冗余及噪音,在实际应用例如图像识别中造成了误差,降低了准确率;通过降维,我们希望减少冗余造成的误差,提高识别精度。又或者通过降维算法来寻找数据内部的本质结构。
PCA它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。通俗的理解,如果把所有的点都映射到一起,几乎所有的信息都丢失了,而如果映射后方差尽可能的大,那么数据点则会分散开来,从而保留更多的信息。
假设存在一个n维向量X,w为目标子空间的一个坐标轴方向(称为映射向量),则其投影为wX,PCA要求最大方差即:
可以得到如下优化目标函数:
其中tr表示矩阵的迹,A是数据协方差矩阵。
容易得到最优的W是由数据协方差矩阵前k个最大的特征值对应的特征向量作为列向量构成的。这些特征向量形成一组正交基并且最好地保留了数据中的信息。PCA追求的是在降维之后能够最大化保持数据的内在信息,并通过衡量在投影方向上的数据方差的大小来衡量该方向的重要性。
免责声明:本文来自互联网新闻客户端自媒体,不代表本网的观点和立场。
合作及投稿邮箱:E-mail:editor@tusaishared.com