机器学习一些基本概念

A*B ≠ B*A (不满足交换律)

A*B*C = A*(B*C)(满足集合率)

单位矩阵I:对角线上都是1.

逆矩阵:

A*A^-1 = A^-1*A=I (方阵,维度相同的才有逆矩阵(实际上,不相同维度的也有逆矩阵,伪逆矩阵))

零矩阵没有逆矩阵

无逆矩阵  –>奇异矩阵,退化矩阵

矩阵转置:

A –>A^T 行转列

特征缩放(归一):

均值归一: (xi – u) / (max-min)   (底下用标准差也行,也就是高斯(正态)分布)

 

过拟合特征:具有高方差, 主要测试集代价逼近0,对于验证集而言,有很差的表现。(为了符合测试集而进行的训练)

解决方案  可以减少参数数量,  可能舍弃一些信息

正则化(加入惩罚项)

 

矩阵乘法:可以理解成一个空间变化。(一个向量乘以一个矩阵,实际上就是   空间解析几何中的  旋转,伸缩,变幻基底)

矩阵特征向量:经过这个矩阵变化之后,向量只伸缩长度。

特征值:伸缩的倍数。

 

深度神经网络

隐层特征一般设定为  输入特征的2-3倍。