《统计学习方法》

前言

  • 只摘录关键知识点,不做详细笔记,仅为方便日后复习有个方向
  • 学习: 如果一个系统能够通过执行某个过程改进它的性能,这就是学习。 — Herbert A. Simon

1.统计学习

  • 统计学习的特点,对象,目的,方法,研究
  • 本章主要将监督学习

监督学习

  • 从给定有限的训练数据出发, 假定数据是独立同分布的, 而且假设模型属于某个假设空间, 应用某一评价准则, 从假设空间中选取一个最优的模型, 使它对已给训练数据及未知测试数据再给定评价标准意义下有最准确的预测.
  • 基本概念:input space, output space, feature space
  • 其它名词:instance, feature vector, 联合概率分布
  • 假设空间: F={f|Y=f(X)}
  • 最终变成求 minfFRemp(f)minfFRsrm(f) 的问题

统计学习三要素

  • 方法 = 模型 + 策略 + 算法

策略

  • 损失函数: 0-1, quadratic, absolute, logarithmic
  • 风险函数(期望损失): Rexp(f)=Ep[L(Y,f(X))]=x×yL(y,f(x))P(x,y)dxdy
  • 经验风险(经验损失)(empirical loss): Remp(f)=1NNi=1L(yi,f(xi))
  • 根据大数定理, 可用Remp(f)估计Rexp(f), 但由于现实中样本有限, 甚至很少,所以需要矫正Remp(f)
  • 经验风险最小化(ERM)和结构风险最小化(SRM)
    • ERM: 用最优化方法求解minfFRemp(f)
      • 样本容量很小时容易过拟合(over-fitting), 但样本容量大时,学习效果很好
      • 当模型是条件概率分布,损失函数是对数损失函数时,经验风险最小化就等价于极大似然估计(MLE)(证明).
    • SRM: 等价于正则化(regularizer), 即求 minfFRsrm(f)
      • 结构风险: Rsrm(f)=Remp(f)+λJ(f)
        • 其中 λJ(f) 位正则化项或罚项(penalty term)
        • J(f)是模型空间复杂度, 为定义在F上的泛函. f越复杂, J(f)越大.
        • λ0是系数, 用以权衡经验风险和模型复杂度
        • Rsrm(f)小要求Remp(f)J(f)同时小, Rsrm(f)小的模型往往对训练数据以及未知的测试数据都有较好的预测
        • 当模型是条件概率分布, 损失函数是对数损失函数, 模型复杂度由模型的先验概率分布表示时,结构风险最小化就等价于最大后验概率估计(MAP)(证明)

模型评估与选择

  • 训练误差(tranning error): 模型关于训练数据集的平均损失
  • 测试误差(test error): 模型关于测试数据集的平均损失, 反映了模型的预测能力(泛化能力 generalization ability)
  • 过拟合: 所选模型参数过多, 对训练数据预测的很好, 对测试数据预测的很差
  • 模型选择时要选择复杂度适当的模型, 防止过拟合.

正则化与交叉验证

  • 此为常用的两种模型选择方法

正则化

  • minfFRsrm(f)
  • 正则化项: 一般是模型复杂度的单调递增函数,模型越复杂,正则化值越大

    如参数向量wL1范数w1L2范数12w12

  • 模型越复杂, 先验概率越大

交叉验证

  • 样本充足时, 可随机切成训练集(用于训练模型), 验证集(用于模型选择, 选择预测误差最小的模型)和测试集(模型评估)
  • 交叉验证: 重复使用数据, 反复切, 反复训练, 测试及模型选择
  • 简单交叉验证: 随机切成训练集和测试集, 选测试误差最小的模型
  • S折交叉验证(S-fold cross validation): 切成S份, 每次选S1份训练, 1份测试, 重复S
  • 留一交叉验证: S=N, 数据集为N, 数据集较少时用

泛化能力

  • 即模型ˆf的预测能力, 用Rexp(ˆf)来表示
  • 泛化误差上界: R(f)ˆR(f)+ε(d,N,δ)

    R(f)为泛化误差
    右边为泛化误差上界
    ˆR(f)为训练误差
    ε(d,N,δ)=12N(logd+log1δ)

  • 训练误差小的模型, 泛化误差也会小

生成模型与判别模型

  • 监督学习的方法可以分为: 生成方法(generative approach)和判别方法(discriminative approach)
  • 生成方法: 先学习P(X,Y)再求出P(Y|X)=P(X,Y)P(X)

    如:朴素贝叶斯法和隐马尔可夫模型

  • 判别方法: 直接学习f(X)P(Y|X)

    如:k近邻法, 感知机, 决策树, 逻辑斯蒂回归模型, 最大熵模型, 支持向量机, 提升方法和条件随机场等
    存在隐变量时, 判别方法不能用

分类问题

  • P(Y|X)作为分类器
  • 分类准确率(accuracy): 对于给定的测试数据集, 分类正确的样本数与总样本数之比
  • 精确率(precision):P=TPTP+FP

    True, False, Positive, Negative

  • 召回率(recall): R=TPTP+FN
  • PR的调和均值F1: 1F1=1P+1R, 即F1=2TP2TP+FP+FN
  • 许多统计学习方法可以用于分类

    如: k近邻法, 感知机, 朴素贝叶斯法, 决策树, 决策列表, 逻辑斯蒂回归模型, 支持向量机, 提升方法, 贝叶斯网络, 神经网络, Winnow等

标注(tagging)问题

  • 可以认为书分类问题的推广,也是更复杂的结构预测(structure prediction)问题的简单形式
  • 输入一个观测序列xN+1=(x(1)N+1,x(2)N+1,x(3)N+1,,x(n)N+1)T, 找到使条件概率P((y(1)N+1,y(2)N+1,y(3)N+1,,y(n)N+1)|(x(1)N+1,x(2)N+1,x(3)N+1,,x(n)N+1)
    最大的标记序列yN+1=(y(1)N+1,y(2)N+1,y(3)N+1,,y(n)N+1)T

    常用的标注方法:隐马尔科夫模型`和条件随机场

回归问题

  • 等价于函数拟合: 选择一条函数曲线使其很好地拟合已知数据且很好地预测未知数据
  • 分类

    按输入变量的个数: 一元回归和多元回归
    输入与输出变量的关系模型: 线性回归和非线性回归
    损失函数是平方损失函数时: 可用最小二乘法(least squares)求解

2.感知机(preceptron)

属于判别模型, 输入为实例的特征向量, 输出为实例的类别
是一种线性分类模型

感知机模型

  • f(x)=sign(ωx+b),sign(x)={+1,x01,x<0
  • 线性分类器: f(x)={f|f(x)=ωx+b}

感知机学习策略

  • 数据集的线性可分性: 存在某个超平面S:ωx+b=0能够将数据集的正实例点和负实例点完全正确的划分到超平面的两侧

    即对所有实例i有: yi={+1,ωx+b01,ωx+b<0

  • 感知机就是要找出这样一个超平面,即确定ωb, 定义(经验)损失函数并将损失函数极小化

    损失函数: L(ω,b)=xiMyi(ωxi+b)
    其中M为所有误分类点的集合

感知机学习算法

  • 即求解minω,bL(ω,b)的最优化问题

    任意选取一个超平面ω0,b0, 然后用梯度下降法不断地极小化目标函数
    选取yi(ωxi+b)0
    ωω+ηyixi

    bb+ηyi

    η(0η<0)是步长, 又称为学习率

  • 算法的收敛性证明

    即证明: 设数据集是线性可分的, 经过有限次迭代可以得到一个将训练数据集完全正确划分的分离超平面及感知机模型
    最终得到误分类次数k(Rγ)2, 其中R=max1iNˆxi
    当训练集线性不可分时, 算法不收敛, 迭代结果会发生震荡

  • 对偶形式

    感知机模型f(x)=sign(Nj=1αjyjxjx+b)
    其中αi=niη, 且迭代过程为: {αiαi+ηbb+ηyi

3.k-NN (k-nearest neighbor)

一种基本的分类与回归的方法

算法

  • 实例 x 所属的类y, 有:
    y=argmaxcjxiNk(x)I(yi=cj),i=1,2,,N;j=1,2,,K
  • k=1时为最近邻法

k近邻模型

  • 模型三要素: 距离度量, k值的选择和分类决策规则的确定
  • 距离度量
    • 一般用欧式距离, 也可以是其它距离, 如Lp距离(Minkowski距离): Lp(xi,xj)=(nl=1|x(l)ix(l)j|p)1p

      欧式距离: p=2
      曼哈顿距离: p=1
      各个坐标距离的最大值: p=

  • k的选择
    • 较小: 近似误差小, 估计误差大
    • 较大: 近似误差大, 估计误差小
    • 应用中通常选取较小的k值, 采用交叉验证法选取最优的k
  • 分类决策规则
    • 经验风险最小化: 即xiNk(x)I(yi=cj)最大化

k近邻法的实现: kd

  • kd树是一种对k维空间进行存储以便对其进行快速检索的树形数据结构.
  • kd树的每个节点对应于一个k维超矩形区域.
  • 此处的kk近邻法的k不同.
  • kd树搜索的平均时间复杂度为O(logN), 更适用于训练实例数远大于空间维数时的k近邻搜索.
  • 当空间维数接近训练实例数时, 它的效率会迅速下降, 几乎接近线性扫描.

4.朴素贝叶斯法

  • 朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法
  • 朴素贝叶斯法与贝叶斯估计时不同的概念

朴素贝叶斯法的学习与分类

  • 朴素贝叶斯分类器可以表示为:
    y=argmaxckP(Y=ck)jP(X(j)=x(j)|Y=ck)
  • 即后验概率最大化
  • 后验概率最大化的含义: 根据期望风险最小化准则可以得到后验概率最大化准则

朴素贝叶斯法的参数估计

  • 极大似然法

    • 在朴素贝叶斯法中, 学习意味着估计P(Y=ck)P(X(j)=x(j)|Y=ck)
    • 先验概率P(Y=ck)的极大似然估计为: P(Y=ck)=Ni=1I(yi=ck)N,k=1,2,,K
    • 设第j个特征x(j)可能取值的集合为{aj1,aj2,,ajSj}, 条件概率P(x(j)=ajl|y=ck)的极大似然估计是:
      P(X(j)=ajl|Y=ck)=Ni=1I(x(j)i=ajl,yi=ck)Ni=1I(yi=ck)

      j=1,2,,n;l=1,2,,Sj;k=1,2,,K
  • 朴素贝叶斯算法

  • 贝叶斯估计:

    极大似然估计可能出现所要估计的概率为0的情况, 这会影响到后验概率的计算结果, 使分类产生偏差, 解决这一问题的方法是采用贝叶斯估计
    Pλ(X(j)=ajl|Y=ck)=Ni=1I(x(j)i=ajl,yi=ck)+λNi=1I(yi=ck)+Sjλ


    Pλ(Y=ck)=Ni=1I(yi=ck)+λN+Kλ

    其中λ0, λ=0是极大似然估计, λ=1是拉普拉斯平滑(Laplace smoothing)

5.决策树

  • 决策树是一种基本的分类与回归方法
  • 本质上是从训练数据集归纳出一组分类规则
  • 决策树学习通常包括三个步骤: 特征选择, 决策树的生成和决策树的修剪
  • 内部节点表示一个特征或属性, 叶节点表示一个类

决策树模型与学习

  • 损失函数通常是正则化的极大似然函数
  • 需要自下而上进行剪枝, 去掉过于细分的叶节点, 使其回退到父节点, 甚至更高的节点, 避免过拟合, 使其有更好的泛化能力
  • 决策树的生成只考虑局部最优, 决策树的生成则考虑全局最优

特征选择

  • 通常的特征选择的准则是信息增益或信息增益比
  • 熵(entropy): H(p)=ni=1pilogpi
  • 条件熵(conditional entropy): H(Y|X)=ni=1piH(Y|X=xi)
  • 当熵和条件熵中的概率由数据估计(特别是极大似然估计得到)时, 所对应的熵与条件熵分别称为经验熵与经验条件熵
  • 信息增益表示得知特征X的信息而使得类Y的信息的不确定性减少的程度
  • 特征A对训练数据集D的信息增益g(D,A)=H(D)H(D|A), 也成为互信息(mutual information)
  • 信息增益比:
    gR(D,A)=g(D,A)HA(D)

    其中,HA(D)表示训练数据集D关于特征A的值的熵
    HA(D)=ni=1|Di|Dlog2|Di|D

决策树的生成

ID3算法

输入: 训练数据集D, 特征集A, 阈值\varepsilon
每次选择g(D,A)最大的特征点递归构建, 直到所有特征的g(D,A)均很小(<ε)或没有特征可以选择为止

C4.5算法

  • 用信息增益比来选择特征

决策树的剪枝

  • 损失函数: Cα(T)=C(T)+α|T|, 其中
    C(T)=|T|t=1NtHt(T)Ht(T)=kNtkNtlogNtkNt

    Ntk表示树T的某一叶节点t的第k类样本点的数量
  • 若一组叶节点回缩前后的树分别为TBTA, 当Cα(TA)Cα(TB)时进行剪枝, 将父节点变为新的叶节点
  • 利用损失函数最小原则进行剪枝就是用正则化的极大似然估计进行模型选择

CART算法

分类与回归树(Classification and Regression Trees)
递归构建二叉决策树再剪枝
具体见《统计学习方法》

CART生成

  • 回归树的生成: 用平方误差最小化准则, 最小二乘回归树生成算法
  • 分类树的生成: 用基尼系数选择最优特征, 同时决定该特征的最优二值切分点

CART剪枝

  • 首先从生成算法产生的决策树T0底端开始不断剪枝, 直到T0的根节点, 形成一个子树序列{T0,T1,,Tn};
    然后通过交叉验证法再独立的验证数据集上对子树序列进行测试, 从中选择最优子树

6.逻辑斯蒂回归与最大熵模型

逻辑斯蒂回归(logistic regression)是统计学习中的经典分类方法
最大熵是概率学习的一个准则, 将其推广到分类问题得到最大熵模型(maximum entropy model)
两者都属于对数线性模型

逻辑斯蒂回归

  • X是连续随机变量, X服从逻辑斯蒂分布是指X具有下列分布函数和密度函数:
    F(x)=P(Xx)=11+e(xμ)/γ

    f(x)=F(x)=e(xμ)/γγ(1+e(xμ)/γ)2
  • 该曲线是以点(μ,12)为中心堆成的S型曲线

7.支持向量机

支持向量机(support vector machines SVM)是一种二分类模型

线性可分支持向量机与硬间隔最大化

  • 线性可分支持向量机

    给定线性可分的训练数据集, 通过间隔最大化或等价地求解相应的凸二次规划问题学习得到的分离超平面为 wx+b=0

    以及相应的分类决策函数 f(x)=sign(wx+b)
    称为线性可分支持向量机

  • 函数间隔:

    对于给定的训练数据集T和超平面(w,b), 定义超平面(w,b)关于样本点(xi,yi)的函数间隔为^γi=yi(w˙xi+b)


    定义超平面(w,b)关于训练数据集T函数间隔为超平面(w,b)关于T中所有样本点(xi,yi)的函数间隔之最小值, 即ˆγ=mini=1,2,,N^γi

  • 几何间隔: γi=yi(wwxi+bw)
    γ=mini=1,2,,Nγi
  • 间隔最大化