机器学习(一)

这篇博文是对Andrew Ng的 机器学习入门的学习笔记,
关于机器学习已经看了一段时间了,现在开始正式总结一下这段时间所学的东西,一边学习一边记录,希望能够更完这个博文。

首先复习数学,哎,学校学的全还给老师了。。。

线性代数

线性代数是数学的一个分支,它的研究对象是向量,向量空间(或称线性空间),线性变换和有限维的线性方程组。向量空间是现代数学的一个重要课题;因而,线性代数被广泛地应用于抽象代数和泛函分析中;通过解析几何,线性代数得以被具体表示。线性代数的理论已被泛化为算子理论。由于科学研究中的非线性模型通常可以被近似为线性模型,使得线性代数被广泛地应用于自然科学和社会科学中。

矩阵

定义

由m$\times$n个数排列成m行n列的矩阵,简称m$\times$记作:

矩阵加法

矩阵的加法满足下列运算律(A,B,C都是同型矩阵):

A + B = B + A

(A + B) + C = A + (B + C)

只有行列相同的的矩阵才可以进行加法

矩阵减法

数乘


矩阵的加减法和矩阵的数乘合称矩阵的线性运算

转置

把矩阵A的行和列互换产生的新矩阵称之为矩阵A的转置
矩阵的转置满足一下定律:

$$(A^T)^T = A$$

$(\lambda A^T) = \lambda A^T$

$(AB)^T = B^TA^T$

矩阵乘法

两个矩阵能够相乘,当且仅当第一个矩阵A的列数等于第二个矩阵B的行数时才能定义,如果A是$m\times n$的矩阵B是$n\times p$的矩阵,他们的乘积C将是一个$m\times p$的矩阵$C=(C_{ij})$,它的每个元素是:

$c_{i,j} = a_{i,1}b_{1,j} + a_{i,2}b_{2,j} + … + a_{i,n}b{n,j} = \sum_{r=1}^n a_{i,r}b_{r,j}$

记作:C = AB

例如:
矩阵的乘法满足以下运算律:
结合律,分配律,矩阵乘法不满足交换律。

转置:$(AB)^T=B^TA^T$

  • 当矩阵A的列数等于矩阵B的行数时,A与B可以相乘。
  • 矩阵C的行数等于矩阵A的行数,C的列数等于B的列数。
  • 乘积C的第m行第n列的元素等于矩阵A的第m行的元素与矩阵B的第n列对应元素乘积之和。

导数

对于机器学习不需要理解的太深入,深入的自己也没学懂>_<,大概就是知道且会求偏导,知道斜率的意义就够了,其他部分太复杂就不记录了。。。好后悔当初没有好好学习微积分

概率论

先验概率和后验概率:

后验概率是指在得到“结果”的信息后重新修正的概率,是“执果寻因”问题中的”果”。先验概率与后验概率有不可分割的联系,后验概率的计算要以先验概率为基础。
事情还没有发生,要求这件事情发生的可能性的大小,是先验概率。事情已经发生,要求这件事情发生的原因是由某个因素引起的可能性的大小,是后验概率。
先验概率不是根据有关自然状态的全部资料测定的,而只是利用现有的材料(主要是历史资料)计算的;后验概率使用了有关自然状态更加全面的资料,既有先验概率资料,也有补充资料;
先验概率的计算比较简单,没有使用贝叶斯公式;而后验概率的计算,要使用贝叶斯公式,而且在利用样本资料计算逻辑概率时,还要使用理论概率分布,需要更多的数理统计知识。

目前先知道这点就够了,具体以后再补充

数学知识复习完毕 正式开始机器学习

0%