机器学习一些基本概念
A*B ≠ B*A (不满足交换律)
A*B*C = A*(B*C)(满足集合率)
单位矩阵I:对角线上都是1.
逆矩阵:
A*A^-1 = A^-1*A=I (方阵,维度相同的才有逆矩阵(实际上,不相同维度的也有逆矩阵,伪逆矩阵))
零矩阵没有逆矩阵
无逆矩阵 –>奇异矩阵,退化矩阵
矩阵转置:
A –>A^T 行转列
特征缩放(归一):
均值归一: (xi – u) / (max-min) (底下用标准差也行,也就是高斯(正态)分布)
过拟合特征:具有高方差, 主要测试集代价逼近0,对于验证集而言,有很差的表现。(为了符合测试集而进行的训练)
解决方案 可以减少参数数量, 可能舍弃一些信息
正则化(加入惩罚项)
矩阵乘法:可以理解成一个空间变化。(一个向量乘以一个矩阵,实际上就是 空间解析几何中的 旋转,伸缩,变幻基底)
矩阵特征向量:经过这个矩阵变化之后,向量只伸缩长度。
特征值:伸缩的倍数。
深度神经网络
隐层特征一般设定为 输入特征的2-3倍。