矩阵是一个非常抽象的数学概念,很多同学都对其望而生畏。但是,如果能够具体的理解了内部含义,就如同打开了一扇新的大门。
本文主要讲的是特征向量(Eigenvector)和特征值(Eigenvalue)。
01 特征向量(Eigenvector)是什么?
基向量
我们一般研究数学,都是在直角坐标系中,这就造就了两个基向量:v(0,1)和 u(1,0)。
为了说明特征向量,我们先看一下矩阵A和向量B(1,-1):
矩阵A
如果将A和B相乘,结果如下:
AB和2B
AB矩阵实际上可以被看作为一个变换,AB实际上表达的意思是 向量B 通过矩阵A完成了一次变换,有可能只是拉伸,有可能是旋转,有可能两者都有。
2B上图中,2B的理解就简单很多,是将向量B拉长2倍。
那么,特征向量的定义如下:
任意给定一个矩阵A,并不是对所有的向量B都能被A拉长(缩短)。凡是能被A拉长(缩短)的向量称为A的特征向量(Eigenvector);拉长(缩短)量就为这个特征向量对应的特征值(Eigenvalue)。
上例中,B就是矩阵A的特征向量,2是特征值。
特征值的求法
02 怎么求矩阵的平方和多次方
矩阵A
还是矩阵A,如果让你求矩阵A的平方,你可能会觉得挺容易的。
但是,如果让你求A的100次方呢?
还有那么容易吗?
按照上面的方法,一点规律没有,只能硬着头皮算。
补充一个概念:对角矩阵
对角矩阵
对角矩阵,顾名思义,只有对角线上有值,其他位置都是0。为什么对角矩阵特殊,如上图,C的平方就是对角线上数的平方,多次方也一样。
那么,怎么才能将矩阵A转变成矩阵C呢?这就用到特征值和特征向量了。
A的特征值
A有两个特征值,对应两个特征向量:(1,0)和(1,-1)。
如果我们将两个特征向量看作是一个新的坐标系的基向量,并组合成矩阵D:
我们来计算一下
如上图,成功的通过特征向量将A转变成了对角矩阵C。
A和B相似
03 求A的多次方这下求A的多次方就方便多了:
由于C是一个对角矩阵,C的n阶矩阵就比较好运算。
有的同学会问,这些计算到底有什么用。下面举个例子。
比方说图片,图片其实是一个一个像素排列在一个矩阵中。
上图所有的像素点堆叠在图片大小的矩阵A中(不要光看美女)。当我们对成像要求并不高,并且需要保留基本的成像特征值的时候,就可以将特征值从大到小的排列,并保存在矩阵C中。C中斜对角线上的值就是 上述图像 成像的特征值。
打个比方,上图可能有100个从大到小的成像特征值,但是我们只取较大的50个,并且对图片进行处理,最后我们可以得到以下图片。
虽然不大清晰,但是主要特征并没有丢失。
“逃学博士”:理工科直男一枚,在冰天雪地的加拿大攻读工程博士。闲暇之余分享点科学知识和学习干货。
,