这篇博文是对Andrew Ng的 机器学习入门的学习笔记,
关于机器学习已经看了一段时间了,现在开始正式总结一下这段时间所学的东西,一边学习一边记录,希望能够更完这个博文。
首先复习数学,哎,学校学的全还给老师了。。。
线性代数
线性代数是数学的一个分支,它的研究对象是向量,向量空间(或称线性空间),线性变换和有限维的线性方程组。向量空间是现代数学的一个重要课题;因而,线性代数被广泛地应用于抽象代数和泛函分析中;通过解析几何,线性代数得以被具体表示。线性代数的理论已被泛化为算子理论。由于科学研究中的非线性模型通常可以被近似为线性模型,使得线性代数被广泛地应用于自然科学和社会科学中。
矩阵
定义
由m$\times$n个数排列成m行n列的矩阵,简称m$\times$记作:
矩阵加法
矩阵的加法满足下列运算律(A,B,C都是同型矩阵):
A + B = B + A
(A + B) + C = A + (B + C)
只有行列相同的的矩阵才可以进行加法
矩阵减法
数乘
矩阵的加减法和矩阵的数乘合称矩阵的线性运算
转置
把矩阵A的行和列互换产生的新矩阵称之为矩阵A的转置
矩阵的转置满足一下定律:
$$(A^T)^T = A$$
$(\lambda A^T) = \lambda A^T$
$(AB)^T = B^TA^T$
矩阵乘法
两个矩阵能够相乘,当且仅当第一个矩阵A的列数等于第二个矩阵B的行数时才能定义,如果A是$m\times n$的矩阵B是$n\times p$的矩阵,他们的乘积C将是一个$m\times p$的矩阵$C=(C_{ij})$,它的每个元素是:
$c_{i,j} = a_{i,1}b_{1,j} + a_{i,2}b_{2,j} + … + a_{i,n}b{n,j} = \sum_{r=1}^n a_{i,r}b_{r,j}$
记作:C = AB
例如:
矩阵的乘法满足以下运算律:
结合律,分配律,矩阵乘法不满足交换律。
转置:$(AB)^T=B^TA^T$
- 当矩阵A的列数等于矩阵B的行数时,A与B可以相乘。
- 矩阵C的行数等于矩阵A的行数,C的列数等于B的列数。
- 乘积C的第m行第n列的元素等于矩阵A的第m行的元素与矩阵B的第n列对应元素乘积之和。
导数
对于机器学习不需要理解的太深入,深入的自己也没学懂>_<,大概就是知道且会求偏导,知道斜率的意义就够了,其他部分太复杂就不记录了。。。好后悔当初没有好好学习微积分
概率论
先验概率和后验概率:
后验概率是指在得到“结果”的信息后重新修正的概率,是“执果寻因”问题中的”果”。先验概率与后验概率有不可分割的联系,后验概率的计算要以先验概率为基础。
事情还没有发生,要求这件事情发生的可能性的大小,是先验概率。事情已经发生,要求这件事情发生的原因是由某个因素引起的可能性的大小,是后验概率。
先验概率不是根据有关自然状态的全部资料测定的,而只是利用现有的材料(主要是历史资料)计算的;后验概率使用了有关自然状态更加全面的资料,既有先验概率资料,也有补充资料;
先验概率的计算比较简单,没有使用贝叶斯公式;而后验概率的计算,要使用贝叶斯公式,而且在利用样本资料计算逻辑概率时,还要使用理论概率分布,需要更多的数理统计知识。
目前先知道这点就够了,具体以后再补充
数学知识复习完毕 正式开始机器学习