2.线性模型

joker ... 2022-4-7 大约 29 分钟

# 2.线性模型

文章链接

https://gitee.com/fakerlove/machine-learning
1

# 2.1 基本形式

给定由d个属性描述的示例x=(x1,x2;...xd)x=(x_1,x_2;...x_d),其中xix_i是x在第i个属性上取值,线性模型试图学得一个通过属性的线性组合来进行预测的函数,即

f(x)=w1x1+w2x2+...+wdxd+bf(x)=w_1x_1+w_2x_2+...+w_dx_d+b

一般由向量形式写成

f(x)=wTx+bf(x)=w^Tx+b

其中w=[w1w2wd],wb学得之后,模型就得以确定w=\begin{bmatrix}w_1\\ w_2\\ \vdots\\ w_d\end{bmatrix},w和b学得之后,模型就得以确定

例子

x1=2,x2=5x_1=2,x_2=5

给定一个关系,f(x)=2x1+3x2+4f(x)=2x_1+3x_2+4

y=22+35+4=4+15+4=23y=2*2+3*5+4=4+15+4=23

此时的w=[23]b=4w=\begin{bmatrix}2\\3\end{bmatrix},b=4

xx的个数为dd个时,ww就是dd维向量。目标就是求w和b

# 2.2 线性回归

# 2.2.1 问题描述

给定的数据集D={(x1,y1),(x2,y2),...(xm,ym)},D=\{(x_1,y_1),(x_2,y_2),...(x_m,y_m)\},其中xi=(xi1;xi2;....xid;).yiRx_i=(x_{i1};x_{i2};....x_{id};).y_i\in R。使用线性回归试图学习一个线性模型尽可能的预测实值输出标记

wT=[w1,w2,,wd]w^T=[w_1,w_2,\cdots,w_d]

X1=[x11x12x1d],y1=wTX1=[w1,w2,,wd][x11x12x1d]+b=x11w1+x12w2+...+x1dwd+bX_1=\begin{bmatrix}x_{11}\\ x_{12}\\ \vdots \\ x_{1d}\end{bmatrix},y_1=w^T*X_1=[w_1,w_2,\cdots,w_d]*\begin{bmatrix}x_{11}\\ x_{12}\\ \vdots \\ x_{1d}\end{bmatrix}+b\\ =x_{11}w_1+x_{12}w_2+...+x_{1d}w_d+b

X2=[x21x22x2d],y2=[w1,w2,,wd][x21x22x2d]+b=x21w1+x22w2+...+x2dwd+bX_2=\begin{bmatrix}x_{21}\\ x_{22}\\ \vdots \\ x_{2d}\end{bmatrix},y_2=[w_1,w_2,\cdots,w_d]*\begin{bmatrix}x_{21}\\ x_{22}\\ \vdots \\ x_{2d}\end{bmatrix}+b\\ =x_{21}w_1+x_{22}w_2+...+x_{2d}w_d+b

依次类推,就可以得到ymy_m,然后根据这些数据,推出一个线性模型

# 2.2.2 一元线性回归

# 1) 问题描述

一元线性,表示只有一个属性,即d=1,

w,b为单个数。此时如下

X=[x1x2xm]X=\begin{bmatrix}x_{1}\\ x_{2}\\ \vdots\\ x_{m}\\ \end{bmatrix}

w=[w1]w=[w_1]

求解出w和b的值

# 均方误差

均方误差是回归任务中最常用的性能度量

它对应了常用的欧几里得距离或简称欧式距离

确定目标函数

L(w,b)=argmin(w,b)i=1m(f(xi)yi)2=argmin(w,b)i=1m(yiwxib)2L(w,b)=argmin_{(w,b)}\sum_{i=1}^m(f(x_i)-y_i)^2\\ =argmin_{(w,b)}\sum_{i=1}^m(y_i-wx_i-b)^2

这里有两种方式:

  • 一种是“最小二乘法”(least square method),可直接求解;
  • 另一种是梯度下降(gradient descent),有关梯度下降的方法原理可参考我之前这篇文章 -

# 2) 最小二乘法

基于均方误差最小化来进行模型求解的方法称为最小二乘法

简单讲

y^1=wxi+b\widehat{y}_1=wx_i+b

min[(y1y^1)2+(y2y^2)2+...+(ydy^d)2]min[(y_1-\widehat{y}_1)^2+(y_2-\widehat{y}_2)^2+...+(y_d-\widehat{y}_d)^2]

化成了关于w和b函数,方法叫做最小二乘法

# 参数估计

具体过程如下,也叫作最小二乘的参数估计

1. 对w求偏导

E(w,b)w=2(wi=1mxi2i=1m(yib)xi)\frac{\partial E_{(w,b)}}{\partial w}=2(w\sum_{i=1}^mx_i^2-\sum_{i=1}^m(y_i-b)x_i)

2. 对b求偏导

E(w,b)b=2(mbi=1m(yiwxi))\frac{\partial E_{(w,b)}}{\partial b}=2(mb-\sum_{i=1}^m(y_i-wx_i))

3. 求出的解为

w=i=1myi(xix)i=1mxi21m(i=1mxi)2w=\frac{\sum_{i=1}^my_i(x_i-\overline{x})}{\sum_{i=1}^mx_i^2-\frac{1}{m}(\sum_{i=1}^mx_i)^2}

b=1mi=1m(yiwxi)b=\frac{1}{m}\sum_{i=1}^m(y_i-wx_i)

x=1mi=1mxi\overline{x}=\frac{1}{m}\sum_{i=1}^mx_i的值

# 3) 梯度下降

https://zhuanlan.zhihu.com/p/36616740
1

在文章最下面就有梯度下降的更新公式xxαf(x)x^\prime \leftarrow x-\alpha \nabla f(x)

可得wwbb的更新公式为:

wwαLww\leftarrow w-\alpha \frac{\partial L}{\partial w}

bbαLbb\leftarrow b-\alpha \frac{\partial L}{\partial b}

wwα1ni=1n(wxi+byi)xiw \leftarrow w-\alpha \frac{1}{n}\sum_{i=1}^n(wx_i+b-y_i)x_i

bbα1ni=1n(wxi+byi)xib \leftarrow b-\alpha \frac{1}{n}\sum_{i=1}^n(wx_i+b-y_i)x_i

其中α\alpha一个大于0的正数,通常称之为步长或学习率(learning rate)。

# 2.2.3 多元线性回归

# 1) 问题描述

数据集D是开头的属性描述,样本由d个属性描述,我们试图学得

f(xi)=wTxi+bf(x_i)=w^Tx_i+b,使得f(xi)yif(x_i)\simeq y_i

# 2) 求解过程

前提准备,进行转置

矩阵转置,行列式结果不变。

(AB)T=BTAT(AB)^T=B^TA^T

y=wTX=(wTX)T=XTwy=w^TX=(w^TX)^T=X^Tw

为了便于讨论,我们把w和b吸收入向量形式

w^(d+1)×1=[w1w2wdb]\widehat{w}_{(d+1)\times 1}=\begin{bmatrix}w_1\\ w_2\\ \vdots\\w_d\\ b\end{bmatrix}

X9T=[x1T1x2T1xmT1]=[x11x12...x1d1x21x22...x2d1xm1xm2...xmd1]X_{9}^T=\begin{bmatrix}x_1^T&1\\ x_2^T&1\\ \vdots&\vdots\\x_m^T&1\end{bmatrix}=\begin{bmatrix}x_{11}&x_{12}&...&x_{1d}&1\\ x_{21}&x_{22}&...&x_{2d}&1\\ \vdots& \vdots &\ddots & \vdots&\vdots\\ x_{m1}&x_{m2}&...&x_{md}&1\end{bmatrix}

y^m×1=Xm×(d+1)Tw^(d+1)×1=[x11x12...x1d1x21x22...x2d1xm1xm2...xmd1][w1w2wdb]=[x11w1+x12w2+...+x1dwd+bx21w1+x22w2+...+x2dwd+bxm1w1+xm2w2+...+xmdwd+b]=[y1y2ym]\widehat{y}_{m\times 1}= X_{m\times (d+1)}^T\widehat{w}_{(d+1)\times 1} =\begin{bmatrix}x_{11}&x_{12}&...&x_{1d}&1\\ x_{21}&x_{22}&...&x_{2d}&1\\ \vdots& \vdots &\ddots & \vdots&\vdots\\ x_{m1}&x_{m2}&...&x_{md}&1\end{bmatrix}\begin{bmatrix}w_1\\ w_2\\ \vdots\\w_d\\ b\end{bmatrix} \\ =\begin{bmatrix}x_{11}w_1+x_{12}w_2+...+x_{1d}w_d+b\\ x_{21}w_1+x_{22}w_2+...+x_{2d}w_d+b\\ \vdots\\ x_{m1}w_1+x_{m2}w_2+...+x_{md}w_d+b\end{bmatrix} \\ =\begin{bmatrix}y_1\\ y_2\\ \vdots\\ y_m\end{bmatrix}

m×(d+1)m\times(d+1)的矩阵和(d+1)×m(d+1)\times m的矩阵,结果为m×1m\times 1的矩阵

yy也是一个m×1m\times 1的矩阵,然后(y^y)2(\widehat{y}-y)^2,进行计算

之前的一元线性回归

$argmin_{(w,b)}\sum_{i=1}m(y_i-wx_i-b)2 转变成转变成argmin_{(w,b)}(y-X\widehat{w})^T(y-\widehat{X}\widehat{w})$

(yXw^)T(yX^w^)=[y1y1^y2y2^ymym^][y1y1^y2y2^ymym^]=(y1y1^)2+(y2y2^)2+...+(ymym^)2(y-X\widehat{w})^T(y-\widehat{X}\widehat{w})\\ =\begin{bmatrix}y_1-\widehat{y_1}&y_2-\widehat{y_2}&\dots&y_m-\widehat{y_m}\end{bmatrix}\cdot \begin{bmatrix}y_1-\widehat{y_1}\\ y_2-\widehat{y_2}\\ \vdots\\ y_m-\widehat{y_m}\end{bmatrix}\\ =(y_1-\widehat{y_1})^2+(y_2-\widehat{y_2})^2+...+(y_m-\widehat{y_m})^2

求出的解为

f(x^i)=x^iT(XTX)1XTyf(\widehat{x}_i)=\widehat{x}_i^T(X^TX)^{-1}X^Ty

x^i=[xi1xi2xid1]\widehat{x}_i=\begin{bmatrix}x_{i1}\\ x_{i2}\\ \vdots\\x_{id}\\ 1\end{bmatrix}

XT=[x1T1x2T1xmT1]X^T=\begin{bmatrix}x_1^T&1\\ x_2^T&1\\ \vdots&\vdots\\x_m^T&1\end{bmatrix}

$\widehat{x}_i^T $是1×(d+1)1\times(d+1)的矩阵

(XTX)1(X^TX)^{-1}(d+1)×(d+1)(d+1)\times (d+1)矩阵

XTX^T(d+1)×m(d+1)\times m的矩阵

yym×1m\times 1

# 2.2.3 对数线性回归

我们可以把线性回归模型简写成

lny=wTx+b,y=ewTx+blny=w^Tx+b,y=e^{w^Tx+b}

# 2.2.4 广义线性模型

y=g1(wTx+b)y=g^{-1}(w^Tx+b)

很显然对数线性回归是广义线性模型g()=ln()g(\cdot)=ln(\cdot)时的特例

逻辑回归和线性回归都是广义的线性回归

# 2.3 对数几率回归(逻辑回归)

逻辑回归

1.1什么是分类和回归 区分回归问题和分类问题:

  • 回归问题:输入变量和输出变量均为连续变量的问题;
  • 分类问题:输出变量为有限个离散变量的问题。

因此分类及回归分别为研究这两类问题的方法。

逻辑回归既可以看做是回归算法,也可以看做是分类算法,通常作为分类算法用,只可以解决二分类问题。对于多分类问题,逻辑回归一般不可以解决。

相应有哪些常用方法

常见的分类方法: 逻辑回归、决策树分类、KNN(K-近邻)分类、贝叶斯分类、人工神经网络、支持向量机(SVM)等

常见的回归方法: 线性回归、多项式回归、逐步回归等 (常见的聚类方法:K-Means(K均值)聚类等)

# 2.3.1 概念简述

因为逻辑回归本质是个概率函数,并根据概率值来进行分类,假设概率值为p,假设当概率值大于等于0.5时,则将结果分类为1,否则分类为0,比如肿瘤预测,当概率值大于等于0.5则为恶性肿瘤,小于0.5则为良性肿瘤,根据样本x的输入,得到的概率函数如下所示:

p^=f(x),y^={1,p^0.50,p^<0.5\hat{p}=f(x),\hat{y}=\begin{cases}1,\hat{p}\ge 0.5\\ 0,\hat{p}<0.5 \end{cases}

如何用线性回归模型z=wT+b做分类\color{red}\text{如何用线性回归模型}z=w^T+b\text{做分类}

最简单的就是“单位阶跃函数”(unit-step function),如下图所示

f(x)={0,z<0;0.5,z=0;1,z<0f(x)=\begin{cases}0,z<0;\\ 0.5,z=0;\\ 1,z<0\end{cases}

但是由于单位阶跃函数不连续。这里就用到了对数几率函数 (形状如图中黑色曲线所示):

对数几率函数

目的: 用线性回归模型的结果与逼近真实标记的对数几率

img

函数如下:

y=11+ezy=\frac{1}{1+e^{-z}}

=11+e(wT+b)=\frac{1}{1+e^{-(w^T+b)}}

wT+b=lny1y\Rightarrow w^T+b=ln\frac{y}{1-y}

# 2.3.2 原理

https://zhuanlan.zhihu.com/p/36670444
https://blog.csdn.net/murphy852/article/details/107353753
1
2

# 1) 损失函数

对于任何机器学习问题,都需要先明确损失函数,LR模型也不例外,在遇到回归问题时,通常我们会直接想到如下的损失函数形式 (平均误差平方损失 MSE):

L=1ni=1n(y^y)2L=\frac{1}{n}\sum_{i=1}^n(\hat{y}-y)^2

但在 LR 模型要解决的二分类问题中,损失函数式什么样的呢?先给出这个损失函数的形式,可以看一看思考一下,然后再做解释。

L=[ylogy^+(1y)log(1y^)]L=-[ylog\hat{y}+(1-y)log(1-\hat{y})]

这个损失函数通常称作为 对数损失 (logloss),这里的对数底为自然对数ee ,其中真实值yy是有 0/1 两种情况,而推测值y^\hat{y}由于借助对数几率函数,其输出是介于0~1之间连续概率值。仔细查看,不难发现,当真实值y=0y=0第一项为0,当真实值y=1y=1,第二项为0,所以,这个损失函数其实在每次计算时永远都只有一项在发挥作用,那这不就可以转换为分段函数了吗,分段的形式如下:

L={log(y^),y=1,log(1y^),y=0L=\begin{cases}-log(\hat{y}),y=1,\\ -log(1-\hat{y}),y=0\end{cases}

# 2) 优化求解

直接写结果,更新函数为

wwα(y^y)xw\leftarrow w-\alpha (\hat{y}-y)x

bbα(y^y)b\leftarrow b-\alpha (\hat{y}-y)

考虑所有样本点Y={y1,y2,,yn}Y=\{y_1,y_2,\cdots,y_n\}计算方法为:

wkwkα1ni=1n(y^iyi)xi(k)w_k\leftarrow w_k-\alpha \frac{1}{n}\sum_{i=1}^n(\hat{y}_i-y_i)\cdot x_i^{(k)}

bkbkα1ni=1n(y^iyi)b_k\leftarrow b_k-\alpha \frac{1}{n}\sum_{i=1}^n(\hat{y}_i-y_i)

转换成矩阵的计算方式为

WWαXT(Y^Y)W\leftarrow W-\alpha X^T(\hat{Y}-Y)

bbα(Y^Y)b\leftarrow b-\alpha (\hat{Y}-Y)

# 2.3.3 区别

逻辑回归和线性回归的区别于联系

  • 逻辑回归和线性回归首先都是广义的线性回归。
  • 经典线性模型的优化目标函数是最小二乘,而逻辑回归则是似然函数。
  • 线性回归在整个实数域范围内进行预测,敏感度一致,而分类范围,需要在[0,1]。逻辑 回归就是一种减小预测范围,将预测值限定为[0,1]间的一种回归模型,因而对于这类问题来说,逻辑回归的鲁棒性比线性回归的要好。
  • 线性回归模型无法做到sigmoid的非线性形式,sigmoid可以轻松处理0/1分类问题。

# 2.3.4 小结

逻辑回归损失函数推导:

img

逻辑回归参数迭代公式:

img

其中:

img

# 2.4 线性判别分析LDA

先看

https://zhuanlan.zhihu.com/p/32658341
1

线性判别分析叫做LDA,**LDA是一种监督学习的降维技术,**也就是说它的数据集的每个样本是有类别输出的。LDA在模式识别领域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用

主要是用于降维和分类的,

# 2.4.1 思想

给定训练样例集,设法将样例投影到一条直线上,使得同样样例的投影点尽可能接近,异类样例的投影点尽可能远离,在对新鲜样例进行分类时,将其投影到同样的这条直线上,再根据投影点的位置确定新样本的类别

img

例子

假设有两类数据,分别为红色和蓝色,如下图所示,这些数据特征是二维的,希望将这些数据投影到一维的一条直线,让每一种类别数据的投影点尽可能的接近,而红色和蓝色数据中心之间的距离尽可能的大。

img

上图中提供了两种投影方式,哪一种能更好的满足我们的标准呢?从直观上可以看出,**右图要比左图的投影效果好,因为右图的黑色数据和蓝色数据各个较为集中,且类别之间的距离明显。**左图则在边界处数据混杂。以上就是LDA的主要思想了,当然在实际应用中,数据是多个类别的,我们的原始数据一般也是超过二维的,投影后的也一般不是直线,而是一个低维的超平面。

# 2.4.2 瑞利商与广义瑞利商

https://www.cnblogs.com/pinard/p/6244265.html
1

# 2.4.3 二类LDA原理

# 2.4.4 多类LDA原理

# 2.4.5 LDA原理与流程

# 1) 书上流程

0?wx_fmt=png

0?wx_fmt=png

0?wx_fmt=png

0?wx_fmt=png

# 2) 前期数学准备

协方差矩阵

img

# 3) 具体流程

1. 前期的字母定义

给定数据集D={(xi,yi)}i=1m,yi{0,1},D=\{(x_i,y_i)\}_{i=1}^m,y_i\in\{0,1\},

Ni,Xi,μi,iN_i,X_i,\mu_i,\sum_i分别表示第i{0,1}i\in\{0,1\}类示例的样本个数,样本集合,均值向量,协方差矩阵

$\mu_i 的表达式的表达式\mu_i=\frac{1}{N_i}\sum_{x\in X_i}x(i=0,1)$

i\sum_i的表达式为i=xXi(xμi)(xμi)T\sum_i=\sum_{x\in X_i}(x-\mu_i)(x-\mu_i)^T

任意样本xix_i在直线w上的投影为wTxiw^Tx_i

两类类别的中心点μ0,μ1\mu_0,\mu_1,对应的投影点分别为wTμ0,wTμ1w^T\mu_0,w^T\mu_1

2. 目标函数寻找

求解问题是什么?什么是最佳的w,能够使得投影后的两类样本中心点尽量分类的直线是最好的直线

用数学表达为argminJ(w)=wTμ0wTμ122argminJ(w)=\mid \mid w^T \mu_0-w^T\mu_1\mid \mid ^2_2

但是只考虑J(w)J(w)行不行?不行

img

样本点均匀分布在椭圆里,投影到横轴 X1X_1 上时能够获得更大的中心点间距 J(w)J(w) ,但是由于有重叠, x1x_1不能分离样本点。投影到纵轴x2x_2上,虽然 J(w)J(w)较小,但是能够分离样本点。因此我们还需要考虑同类样本点之间的方差,同类样本点之间方差越小, 就越难以分离

我们引入另外一个度量值,称作散列值( scatter),对投影后的类求散列值,如下:

S~2=xXi(wTxμ~i)2\tilde{S}^2=\sum_{x\in X_i}(w^Tx-\tilde{\mu}_i)^2

而我们想要的投影后的样本点的样子是:不同类别的样本点越分开越好,同类的越聚集越好也就是均值差越大越好,散列值越小越好。 正好,我们同时考虑使用 J(w)J(w)SS来度量,则可得到欲最大化的目标:

J(w)=wTμ0wTμ122S~02+S~12J(w)=\frac{\mid \mid w^T \mu_0-w^T\mu_1\mid \mid ^2_2}{\tilde{S}_0^2+\tilde{S}_1^2}

接下来的事就比较明显了,我们只需寻找使J(w)J(w)最大的w

3. 替换分母

展开散列值

S~2=xXi(wTxμ~i)2=xXiwT(xμi)(xμi)Tw\tilde{S}^2=\sum_{x\in X_i}(w^Tx-\tilde{\mu}_i)^2=\sum_{x\in X_i}w^T(x-\mu_i)(x-\mu_i)^Tw

中间的部分就是我们之前定义的协方差矩阵

i=xXi(xμi)(xμi)T\sum_i=\sum_{x\in X_i}(x-\mu_i)(x-\mu_i)^T

我们直接替换

S~02=wT0w\tilde{S}_0^2=w^T\sum_0w

S~12=wT1w\tilde{S}_1^2=w^T\sum_1w

S~02+S~12=wT0w+wT1w=wT(0+1)w\tilde{S}_0^2+\tilde{S}_1^2=w^T\sum_0w+w^T\sum_1w=w^T(\sum_0+\sum_1)w

这个公式的样子不就是少除以样例数的协方差矩阵么,称为散列矩阵( scatter matrices)。

J(w)=wTμ0wTμ122wT(0+1)wJ(w)=\frac{\mid \mid w^T \mu_0-w^T\mu_1\mid \mid ^2_2}{w^T(\sum_0+\sum_1)w}

4. 替换分子

wTμ0wTμ122=wT(μ0μ1)(μ0μ1)Tw\mid \mid w^T \mu_0-w^T\mu_1\mid \mid ^2_2=w^T(\mu_0-\mu_1)(\mu_0-\mu_1)^Tw

J(w)=wT(μ0μ1)(μ0μ1)TwwT(0+1)wJ(w)=\frac{w^T(\mu_0-\mu_1)(\mu_0-\mu_1)^Tw}{w^T(\sum_0+\sum_1)w}

5. 定义变量,替换目标函数

Sw=0+1S_w=\sum_0+\sum_1

=xX0(xμ0)(xμ0)T+xX1(xμ1)(xμ1)T=\sum_{x\in X_0}(x-\mu_0)(x-\mu_0)^T+\sum_{x\in X_1}(x-\mu_1)(x-\mu_1)^T

Sb=(μ0μ1)(μ0μ1)TS_b=(\mu_0-\mu_1)(\mu_0-\mu_1)^T

上面的目标函数变成了

J=wTSbwwTSwwJ=\frac{w^TS_bw}{w^TS_ww}

这就是LDA 最大化目标,SbS_bSwS_w的广义瑞利商

6. 求解w

注意到J(w)J(w)式子中的分子和分母都是关于w的二项式,因此J(w)J(w)的解和w的长度无关,只与其方向有关(w为投影后直线的方向)。

wTSwW=1w^TS_wW=1,求min(wTSbw)\min(-w^TS_bw)

用拉格朗日乘子法等价于

c(w)=wTSbw+λ(wTSww1)c(w)=-w^TS_bw+\lambda(w^TS_ww-1)

dcdw=2Sbw+2λSww=0\frac{dc}{dw}=-2S_bw+2\lambda S_ww=0

Sbw=λSwwS_bw=\lambda S_ww

其中λ\lambda 为拉格朗日乘子,注意到SbwS_bw的方向恒为μ0μ1\mu_0-\mu_1

Sbw=λ(μ0μ1)S_bw=\lambda(\mu_0-\mu_1)

w=Sw1(μ0μ1)得w=S_w^{-1}(\mu_0-\mu_1)

# 2.4.6 LDA与PCA

LDA用于降维,和PCA有很多相同,也有很多不同的地方,因此值得好好的比较一下两者的降维异同点。

相同点

**1)**两者均可以对数据进行降维。

**2)**两者在降维时均使用了矩阵特征分解的思想。

**3)**两者都假设数据符合高斯分布。

不同点

**1)**LDA是有监督的降维方法,而PCA是无监督的降维方法

**2)**LDA降维最多降到类别数k-1的维数,而PCA没有这个限制。

**3)**LDA除了可以用于降维,还可以用于分类。

**4)**LDA选择分类性能最好的投影方向,而PCA选择样本点投影具有最大方差的方向。这点可以从下图形象的看出,在某些数据分布下LDA比PCA降维较优。

# 2.4.7 小结

**LDA算法既可以用来降维,又可以用来分类,但是目前来说,主要还是用于降维。****在进行图像识别相关的数据分析时,LDA是一个有力的工具。**下面总结下LDA算法的优缺点。

优点

**1)**在降维过程中可以使用类别的先验知识经验,而像PCA这样的无监督学习则无法使用类别先验知识。

**2)**LDA在样本分类信息依赖均值而不是方差的时候,比PCA之类的算法较优。

缺点

**1)**LDA不适合对非高斯分布样本进行降维,PCA也有这个问题。

**2)**LDA降维最多降到类别数k-1的维数,如果我们降维的维度大于k-1,则不能使用LDA。当然目前有一些LDA的进化版算法可以绕过这个问题。

**3)**LDA在样本分类信息依赖方差而不是均值的时候,降维效果不好。

**4)**LDA可能过度拟合数据。

# 2.5 多分类学习

把多分类任务拆分成若干个二分类任务,最经典的三个拆分策略

  • 一对一(OvO)
  • 1对其余(OvR)
  • 多对多(MvM)

# 2.6 类别不平衡

类别不平衡就是指分类任务中不同类别的训练样例数目差别很大的情况,不失一般性。比如有998个反例,但是正例有2个

正常的分类器决策规则为

y1y>1\frac{y}{1-y}>1 时,预测为正例

当正反例子数目不同时,

m+m^+为正例,mm^-为反例。分类器的决策规则为$\frac{y\prime}{1-y\prime}=\frac{y}{1-y}\times\frac{m-}{m+}>1 $时为正例

# 2.7 梯度下降

梯度下降法 —— 经典的优化方法

# 2.7.1 概述

梯度下降(gradient descent)在机器学习中应用十分的广泛,不论是在线性回归还是Logistic回归中,它的主要目的是通过迭代找到目标函数的最小值,或者收敛到最小值。

尤其是在深度学习(神经网络)模型中,BP反向传播方法的核心就是对每层的权重参数不断使用梯度下降来进行优化。

梯度下降法(gradient descent)是一种常用的一阶(first-order)优化方法,是求解无约束优化问题最简单、最经典的方法之一。

更新公式xt+1xtαf(x)x_{t+1}\leftarrow x_t-\alpha \nabla f(x)

img

# 2.7.2 场景假设

一个人被困在山上,需要从山上下来(找到山的最低点,也就是山谷)。但此时山上的浓雾很大,导致可视度很低;因此,下山的路径就无法确定,必须利用自己周围的信息一步一步地找到下山的路。这个时候,便可利用梯度下降算法来帮助自己下山。怎么做呢,首先以他当前的所处的位置为基准,寻找这个位置最陡峭的地方,然后朝着下降方向走一步,然后又继续以当前位置为基准,再找最陡峭的地方,再走直到最后到达最低处;同理上山也是如此,只是这时候就变成梯度上升算法了 在这里插入图片描述

同理

首先,我们有一个可微分的函数。这个函数就代表着一座山。我们的目标就是找到这个函数的最小值,也就是山底。根据之前的场景假设,最快的下山的方式就是找到当前位置最陡峭的方向,然后沿着此方向向下走,对应到函数中,就是找到给定点的梯度 ,然后朝着梯度相反的方向,就能让函数值下降的最快!因为梯度的方向就是函数之变化最快的方向

# 2.7.3 前期数学准备

资料参考

https://blog.csdn.net/walilk/article/details/50978864
1

# 1) 导数

经典的导数与微分示意图

这是高数中的一张经典图,如果忘记了导数微分的概念,基本看着这张图就能全部想起来。

导数定义如下:

导数定义

反映的是函数y=f(x)y=f(x)在某一点处沿x轴正方向的变化率。再强调一遍,是函数f(x)f(x)在x轴上某一点处沿着x轴正方向的变化率/变化趋势。直观地看,也就是在x轴上某一点处,如果f(x)>0f^\prime(x)>0,说明f(x)的函数值在x点沿x轴正方向是趋于增加的;如果f(x)<0f^\prime(x)<0,说明f(x)的函数值在x点沿x轴正方向是趋于减少的。

这里补充上图中的Δy、dy等符号的意义及关系如下:  Δx:x的变化量;  dx:x的变化量Δx趋于0时,则记作微元dx;  Δy:Δy=f(x0+Δx)-f(x0),是函数的增量;  dy:dy=f’(x0)dx,是切线的增量;  当Δx→0时,dy与Δy都是无穷小,dy是Δy的主部,即Δy=dy+o(Δx).

# 2) 导数和偏导数

偏导数的定义如下:

偏导数定义

可以看到,导数与偏导数本质是一致的,都是当自变量的变化量趋于0时,函数值的变化量与自变量变化量比值的极限。直观地说,偏导数也就是函数在某一点上沿坐标轴正方向的的变化率。 区别在于:

  • 导数,指的是一元函数中,函数y=f(x)在某一点处沿x轴正方向的变化率;
  • 偏导数,指的是多元函数中,函数y=f(x1,x2,,xn)y=f(x_1,x_2,…,x_n)在某一点处沿某一坐标轴(x1,x2,,xn)(x_1,x_2,…,x_n)正方向的变化率。

# 3) 导数和梯度

梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。

梯度定义

梯度的提出只为回答一个问题:

函数在变量空间的某一点处,沿着哪一个方向有最大的变化率?

梯度定义如下:

函数在某一点的梯度是这样一个向量,它的方向与取得最大方向导数的方向一致,而它的模为方向导数的最大值。 这里注意三点:  1)梯度是一个向量,即有方向有大小;  2)梯度的方向是最大方向导数的方向;  3)梯度的值是最大方向导数的值。

# 4) 梯度意义

  • 在单变量的函数中,梯度其实就是函数的微分,代表着函数在某个给定点的切线的斜率
  • 在多变量函数中,梯度是一个向量,向量有方向,梯度的方向就指出了函数在给定点的上升最快的方向

知道了梯度的意义,就知道了为什么我们需要千方百计的求取梯度

我们需要到达山底,就需要在每一步观测到此时最陡峭的地方,梯度就恰巧告诉了我们这个方向。梯度的方向是函数在给定点上升最快的方向,那么梯度的反方向就是函数在给定点下降最快的方向,这正是我们所需要的。所以我们只要沿着梯度的方向一直走,就能走到局部的最低点

# 5) 一阶泰勒展开式

f(θ)f(θ0)+(θθ0)f(θ0)f(\theta)\approx f(\theta_0)+(\theta-\theta_0)\nabla f(\theta_0)

不懂上面的公式?没有关系。我用下面这张图来解释。 在这里插入图片描述

凸函数f(θ)f(\theta)的某一小段[θ0,θ][\theta_0,\theta]由上图黑色曲线表示,可以利用线性近似的思想求出f(θ)f(\theta)的值,如上图红色直线。该直线的斜率等于θ\thetaθ0\theta_0处的导数。则根据直线方程,很容易得到θ\theta的近似表达式为:

f(θ)f(θ0)+(θθ0)f(θ0)f(\theta)\approx f(\theta_0)+(\theta-\theta_0)\nabla f(\theta_0)

# 2.7.4 推导

我么来考虑一个无约束优化问题求f(x)的最小值minf(x),minf(x),

其中f(x)f(x)为连续可微函数,如果我们能够构造一个序列x0,x1,x2,x_0,x_1,x_2,

并能够满足f(xt+1)<f(xt),t=0,1,2,3..f(x_{t+1})<f(x_t),t=0,1,2,3..

那么我们就能够不断执行该过程即可收敛到局部极小点,可参考下图。

img

如何找到以下一个点xt+1x_{t+1},并且保障f(xt+1)<f(xt)f(x_{t+1})<f(x_t)

假设我们当前的函数 f(x)f(x) 的形式是上图的形状,现在我们随机找了个初始的点 x1x_1 ,对于一元函数来说,函数值只会随着 x 的变化而变化,那么我们就设计下一个xt+1x_{t+1}是从上一个xtx_t沿着某一方向走一小步Δx\Delta x得到的。此处的关键问题就是:这一小步的方向是朝向哪里?

对于一元函数来说, x是会存在两个方向:要么是正方向(Δx>0\Delta x>0),要么是负方向(Δx<0\Delta x<0 ),如何选择每一步的方向,就需要用到大名鼎鼎的泰勒公式,先看一下下面这个泰勒展式:

f(x+Δx)f(x)+Δxf(x)f(x+\Delta x) \approx f(x)+\Delta x\nabla f(x)

=df(x)dx\nabla =\frac{df(x)}{dx}

矢量微分算符\nabla

f(x)f(x)表示关于xx的函数,xx表示梯度

f(x)\nabla f(x)表示函数在当前位置的导数

左边就是当前的x移动一小步Δx\Delta x之后的下一个点位,它近似等于右边。

前面我们说了关键问题是找到一个方向,使得 f(x+Δx)<f(x)f(x+\Delta x)<f(x)

那么根据上面的泰勒展式,显然我们需要保证:

目标是

Δxf(x)<0\Delta x\nabla f(x)<0

下面是求解过程

  1. 可选择令:

    Δx=αf(x),(α>0)\Delta x=-\alpha \nabla f(x),(\alpha >0),

  2. 其中步长α\alpha 是一个比较小的正数,从而

    Δxf(x)=α(f(x)2)\Delta x\nabla f(x)=-\alpha(\nabla f(x)^2)

  3. 由于任何不为0 的数的平方均大于0 ,保证了Δxf(x)<0\Delta x\nabla f(x) <0,从而设定

    f(x+Δx)=f(xαf(x))f(x+\Delta x)=f(x-\alpha \nabla f(x))

    保证f(x+Δx)<f(x)f(x+\Delta x)<f(x)

  4. 确定xt+1x_{t+1}的方式就很简单了,

    按照公式xt+1xtαf(x)x_{t+1}\leftarrow x_t-\alpha \nabla f(x)

结果就是xt+1xtαf(x)x_{t+1}\leftarrow x_t-\alpha \nabla f(x)

这就是所谓的沿负梯度方向走一小步

到此为止,这就是梯度下降的全部原理。

如果稍有不清楚的地方,再用下图重新回顾一下具体的设计过程:

img

代码参考

import numpy as np
import matplotlib.pyplot as plt


def f(x):
    return np.power(x, 2)

def d_f_1(x):
    return 2.0 * x

def d_f_2(f, x, delta=1e-4):
    return (f(x+delta) - f(x-delta)) / (2 * delta)


# plot the function
xs = np.arange(-10, 11)
plt.plot(xs, f(xs))
plt.show()

learning_rate = 0.1
max_loop = 30

x_init = 10.0
x = x_init
lr = 0.1
for i in range(max_loop):
    d_f_x = d_f_2(f, x)
    x = x - learning_rate * d_f_x
    print(x)

print('initial x =', x_init)
print('arg min f(x) of x =', x)
print('f(x) =', f(x))
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33

示例二-和上面图像无关

from numpy import *

# 数据集大小 即20个数据点
m = 20
# x的坐标以及对应的矩阵
X0 = ones((m, 1))  # 生成一个m行1列的向量,也就是x0,全是1
X1 = arange(1, m+1).reshape(m, 1)  # 生成一个m行1列的向量,也就是x1,从1到m
X = hstack((X0, X1))  # 按照列堆叠形成数组,其实就是样本数据
# 对应的y坐标
Y = array([
    3, 4, 5, 5, 2, 4, 7, 8, 11, 8, 12,
    11, 13, 13, 16, 17, 18, 17, 19, 21
]).reshape(m, 1)
# 学习率
alpha = 0.01


# 定义代价函数
def cost_function(theta, X, Y):
    diff = dot(X, theta) - Y  # dot() 数组需要像矩阵那样相乘,就需要用到dot()
    return (1/(2*m)) * dot(diff.transpose(), diff)


# 定义代价函数对应的梯度函数
def gradient_function(theta, X, Y):
    diff = dot(X, theta) - Y
    return (1/m) * dot(X.transpose(), diff)


# 梯度下降迭代
def gradient_descent(X, Y, alpha):
    theta = array([1, 1]).reshape(2, 1)
    gradient = gradient_function(theta, X, Y)
    while not all(abs(gradient) <= 1e-5):
        theta = theta - alpha * gradient
        gradient = gradient_function(theta, X, Y)
    return theta


optimal = gradient_descent(X, Y, alpha)
print('optimal:', optimal)
print('cost function:', cost_function(optimal, X, Y)[0][0])


# 根据数据画出对应的图像
def plot(X, Y, theta):
    import matplotlib.pyplot as plt
    ax = plt.subplot(111)  # 这是我改的
    ax.scatter(X, Y, s=30, c="red", marker="s")
    plt.xlabel("X")
    plt.ylabel("Y")
    x = arange(0, 21, 0.2)  # x的范围
    y = theta[0] + theta[1]*x
    ax.plot(x, y)
    plt.show()


plot(X1, Y, optimal)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58

# 2.7.5 梯度下降法大家族

# 1) 批量梯度下降法

(Batch Gradient Descent)-BGD

批量梯度下降法,是梯度下降法最常用的形式,具体做法也就是在更新参数时使用所有的样本来进行更新,这个方法对应于前面的线性回归的梯度下降算法,也就是说的梯度下降算法就是批量梯度下降法。

更新公式θi=θiαi=1m(hθ(x0(j),x1(j),x2(j)...xn(j))y(j))xi(j)\theta_i=\theta_i-\alpha \sum_{i=1}^m(h_{\theta}(x_0^{(j)},x_1^{(j)},x_2^{(j)}...x_n^{(j)})-y^{(j)})x_i^{(j)}

# 2) 随机梯度下降法

SGD(Stochastic Gradient Descent)

随机梯度下降法,其实和批量梯度下降法原理类似,区别在与求梯度时没有用所有的m个样本的数据,而是仅仅选取一个样本j来求梯度。

目标函数J(i)(θ0,θ1)=12(hθ(x(i))y(i))2J^{(i)}(\theta_0,\theta_1)=\frac{1}{2}(h_\theta(x^{(i)})-y^{(i)})^2

求偏导ΔJ(i)(θ0,θ1)θj=(hθ(x(i))y(i))xj(i)\frac{\Delta J^{(i)(\theta_0,\theta_1)}}{\theta_j}=(h_\theta(x^{(i)})-y^{(i)})x_j^{(i)}

更新公式θj=θjα(hθ(x0(i),x1(i),x2(i)...xn(i))y(i))xj(i)\theta_j=\theta_j-\alpha (h_{\theta}(x_0^{(i)},x_1^{(i)},x_2^{(i)}...x_n^{(i)})-y^{(i)})x_j^{(i)}

SGD可以看作是MBGD的一个特例

# 3) 小批量梯度下降法

MBGD(Mini-batch Gradient Descent)

小批量梯度下降法是批量梯度下降法和随机梯度下降法的折衷,也就是对于m个样本,我们采用x个样子来迭代,1<x<m。一般可以取x=10,当然根据样本的数据,可以调整这个x的值。

更新公式:θi=θiαi=1t+x1(hθ(x0(j),x1(j),x2(j)...xn(j))y(j))xi(j)\theta_i=\theta_i-\alpha \sum_{i=1}^{t+x-1}(h_{\theta}(x_0^{(j)},x_1^{(j)},x_2^{(j)}...x_n^{(j)})-y^{(j)})x_i^{(j)}

算法 用途 优点 缺点
批量梯度下降法 由于我们有m个样本,这里求梯度的时候就用了所有m个样本的梯度数据。
针对的是整个数据集,通过对所有的样本的计算来求解梯度的方向。
全局最优解;易于并行实现; 当样本数据很多时,计算量开销大,计算速度慢
小批量梯度下降法 把数据分为若干个批,按批来更新参数,这样,一个批中的一组数据共同决定了本次梯度的方向,下降起来就不容易跑偏,减少了随机性 减少了计算的开销量,降低了随机性
随机梯度下降法 每个数据都计算算一下损失函数,然后求梯度更新参数。 计算速度快 收敛性能不好

# 2.7.6 比较

在机器学习中的无约束优化算法,除了梯度下降以外,还有前面提到的最小二乘法,此外还有牛顿法和拟牛顿法。

梯度下降法和最小二乘法相比,梯度下降法需要选择步长,而最小二乘法不需要。梯度下降法是迭代求解,最小二乘法是计算解析解。如果样本量不算很大,且存在解析解,最小二乘法比起梯度下降法要有优势,计算速度很快。但是如果样本量很大,用最小二乘法由于需要求一个超级大的逆矩阵,这时就很难或者很慢才能求解解析解了,使用迭代的梯度下降法比较有优势。

梯度下降法和牛顿法/拟牛顿法相比,两者都是迭代求解,不过梯度下降法是梯度求解,而牛顿法/拟牛顿法是用二阶的海森矩阵的逆矩阵或伪逆矩阵求解。相对而言,使用牛顿法/拟牛顿法收敛更快。但是每次迭代的时间比梯度下降法长。