机器学习主要分为三类:监督学习、非监督学习、强化学习
监督学习
根据输出是连续还是离散的,把监督学习分为回归问题和分类问题。根据分类个数,还可分为两类分类问题或是多类分类问题。
监督学习本质上是一种知识的传递。
非监督学习
非监督学习的训练数据只有输入而没有分类标签等输出。其目标是根据数据的分布发现数据的规律。例如当前比较热门的生成对抗网络(GAN)。
常见任务包括降维和聚类。
- 降维的目的是把高维空间的点减低到一个低维空间上,同时尽可能的多保留信息。用途包括使可视化数据,
t-SNE是一种很常见的用于可视化数据的降维技术。 - 聚类的目的是把相似的数据点放一起。由算法区分类别(标记)。
强化学习
获取新知识的唯一途径。(??)
常见的监督学习模型
1.朴素贝叶斯分类器(Naive Bayes Classifier)
朴素贝叶斯分类器(Naive Bayes Classifier)非常简单,其假设样本的特征在给定分类的条件下是相互独立的。
特征(Feature)是被观察现象的一个可以测量的属性。好的特征让学习变的容易,无关的特征会干扰模型。
假设输入X = $(x_1,x_2,…,x_n)$,NBC会计算给定X条件下分类是$C_k$的概率$P(C_k|x_1,x_2,…,x_n)$。通过贝叶斯公式,可以得到:
根据条件独立假设,给定了类别$C_k$之后各个特征$x_i$和$x_j$是独立的,因此上式可写为:
给定X,分母$P(X)$是一个固定的用于归一化的常量。(概率加起来等于一),可以忽略它。
在预测的时候只需知道$P(x_i|C_k)$和$P(C_k)$就可以计算出未归一化的$P(C_k|X)$,因此可以挑选概率最大的$k$作为预测的分类。
举例:用于垃圾邮件分类。
2.逻辑回归(Logistic Regression)
逻辑回归是一个用于二值分类问题(binary classification problem)的算法。
将线性输出域范围的$(-\infty,+\infty)$映射到$(0,1)$区间上。此处须提到重要的$Sigmoid$函数:
$|x|\rightarrow 0$时,$\sigma(x)$近似线性函数$y = \frac{1}{4}x+\frac{1}{2}$。
应用举例:图像分类(Y or N),图像在计算机中由三个独立矩阵保存(R、G、B),$6464$。把像素亮度值提取出来放入一个特征向量(很长,维度 = $6464*3$)
训练集(Notation):输入样本X = $[x_1,x_2,…,x_n]$,$x_i(i=1,2,…,n)$为特征的值。
