感知机(perception)
statistic
本文字数:3.3k 字 | 阅读时长 ≈ 15 min

感知机(perception)

statistic
本文字数:3.3k 字 | 阅读时长 ≈ 15 min

1. 基本介绍

感知机是二元分类线性模型,输入为特征向量,输出为实例的类别,取值为 +1-1

对于线性可分的输入实例,感知机可以通过梯度下降法学习一个分离超平面,将实例分开

1.1 数学定义

假设输入空间(特征空间)是$X \subseteq \mathbb{R}^{n}$ ,输出空间是$y={+1, -1}$。输入$x \in X$表示实例的特征向量,对应于输入空间(特征空间)的点;输出$y \in Y$表示实例的类别。由输入空间到输出空间的如下函数:
$$
f(x) = sign(w \cdot x + b)
$$
称为感知机,其中$w$和$b$为感知机模型参数,$w \in \mathbb{R}^{n}$叫做权值(weight)或权值向量(weight vector),$b \in \mathbb{R}$为偏置(bias),$w \cdot x$为内积,$sign$为符号函数,$sign = \left{\begin{matrix} \begin{aligned}+1 ~~& x \geqslant 0 \ -1 ~~& x < 0 \end{aligned} \end{matrix}\right.$

1.2 图形表示

如图所示,圆和叉分别是特征空间中的点,从图中可以看出他们是线性可分的,线性方程$w \cdot x+b=0$为一个超平面,w是超平面的法向量,b是超平面的截距,超平面将空间中的点分为正负两类

注意:为什么图中的$w$是超平面的法向量呢?

首先我们知道两个向量内积,如果两个向量垂直,那么内积就是0,也就是说$\vec{a} \cdot \vec{b}=0$,可以得到$\vec{a} \perp \vec{b}$,图中的$w$也是如此

每一个点都是一个二维的数据,任取一个点$x_{i}$,包括$[x_{i}^{(1)}, x_{i}{(2)}]{T}$,在计算过程中我们将$w$和$x$的内积展开,也就是说我们得到$w{(1)}x_{i}{(1)}+w{(2)}x_{i}{(2)}+b=0$,我们忽略掉$b$,也就是说$w{(1)}x_{i}{(1)}+w{(2)}x_{i}{(2)}=0$,所以得到$\vec{w} \perp \vec{x}$。那么$b$是什么呢?$b$表示超平面沿着$\vec{w}$移动的距离。

1.3 线性可分

定义:给定一个数据集$T={(x_{1}, y_{1}), (x_{2}, y_{2}),…,(x_{N}, y_{N})}$,其中$x_{i} \in X=\mathbb{R}^{n}$,$y_{i} \in Y={+1, -1}$,$i=1,2,…,N$,如果存在某个超平面$S:w \cdot x+b=0$能够将数据集的正实例点和负实例点完全正确地划分到超平面的两侧,即对所有的$y_{i}=+1$的实例$i$,有$w \cdot x+b>0$,对所有$y_{i}=-1$的实例$i$,有$w \cdot x+b<0$,则称数据集$T$为线性可分数据集(linearly separable data set); 否则,数据集$T$线性不可分。

如下图所示,左边的数据集可以找到一个超平面将其分开,所以是线性可分的;右边数据集找不到一个超平面将其分开,所以是线性不可分的

2. 损失函数

一共有两种定义损失函数的方法

损失函数

空间$\mathbb{R}^{n}$上的某点到超平面$S$的距离
$$
d = \frac{|w \cdot x+b|}{||w||}
$$
对于正确分类点$w \cdot x+b>0$时,$y_{i}=1$;$w \cdot x+b<0$时,$y_{i}=-1$,即$y_{i}(w \cdot x_{i}+b)>0$
对于误分类点$y_{i}(w \cdot x_{i}+b)<0$,即$-y_{i}(w \cdot x_{i}+b)>0$,设误分类点的集合为$M$,则所有误分类点到超平面的总距离为$L(w,b)=-\frac{\sum_{x_{i} \in M}y_{i}(w \cdot x_{i}+b)}{||w||}$,为了计算简便,这里将分母去掉,也就是说感知机的最终的损失函数为
$$
L(w,b)=-\sum_{x_{i}\in M}y_{i}(w \cdot x_{i}+b)
$$
损失函数是非负的,当没有误分类点时,损失函数为0

3. 感知机的求解

3.1 原始形式

(1) 求解过程

首先给出具体的求解过程

给定一个数据集$T={(x_{1}, y_{1}), (x_{2}, y_{2}),…,(x_{N}, y_{N})}$,其中$x_{i} \in X=\mathbb{R}^{n}$,$y_{i} \in Y={+1, -1}$,$i=1,2,…,N$,学习率$\eta(0<\eta \leq 1)$

感知机模型:$f(x) = sign(w \cdot x+b)$

损失函数:$L(w,b)=-\sum_{x_{i}\in M}y_{i}(w \cdot x_{i}+b)$

直观解释:如下图所示,当有一个实例点被误分类时,即位于超平面的错误一侧时,则调整$w, b$的值,使超平面向该误分类点的一侧移动,以减少该误分类点与超平面的距离,直到超平面越过该误分类点使其被正确分类,如下图所示

注意

  1. 在上述更新$w, b$的时候需要计算梯度,即对于$L(w,b)=-\sum_{x_{i}\in M}y_{i}(w \cdot x_{i}+b)$,分别对$w, b$进行求导就可以得到更新的参数形式

$$
\begin{aligned}
\bigtriangledown_{w} L(w, b) = -\sum_{x_{i}\in M}y_{i}x_{i} \
\bigtriangledown_{b} L(w, b) = -\sum_{x_{i}\in M}y_{i}
\end{aligned}
$$

  1. 在更新时采用随机梯度下降法。通过上述求解步骤我们发现在极小化过程中不是对所有误分类点进行求和然后梯度下降,而是一次选取一个误分类点执行梯度下降,所以是SGD

(2) 具体实例

这里引用统计学习课本上的一个实例

如图:正实例点为$x_{1}=(3, 3)^{T}, x_{2}=(4, 3)^{T}$,负实例点是$x_{3}=(1, 1)^{T}$,试用原始形式求感知机模型$f(x) = sign(w \cdot x+b)$,其中$w = (w^{1}, w{2}){T}$,$x = (x^{1}, x{2}){T}$

求解
$$
\underset {w, b}{\operatorname {arg,min}} L(w,b)=-\sum_{x_{i}\in M}y_{i}(w \cdot x_{i}+b)
$$

  1. 初始化$w_{0}=0, b_{0}=0$
  2. 取$x_{1} = (3, 3)^{T}$,$y_{i}(w \cdot x_{i}+b)=1(0\times3+0\times3)=0$,误分类
  3. 更新$w, b$

$$
\begin{aligned}
w_{1} = w_{0}+\eta y_{1}x_{1} = (0, 0)^{T}+1\times (3, 3)^{T} = (3, 3)^{T} \
b_{1} = b_{0}+\eta y_{1} = 0+1\times 1 =1
\end{aligned}
$$

  1. 取$x_{1} = (3, 3)^{T}$,$y_{1}(w_{1} \cdot x_{1}+b_{1})=1(3\times3+3\times3)>0$,正确分类
  2. 取$x_{2} = (4, 3)^{T}$,$y_{2}(w_{1} \cdot x_{2}+b_{1})=1(3\times4+3\times3)>0$,正确分类
  3. 取$x_{3} = (1, 1)^{T}$,$y_{3}(w_{1} \cdot x_{3}+b_{1})=-1(3\times1+3\times1)<0$,误分类
  4. 更新$w, b$
    $$
    \begin{aligned}
    w_{2} = w_{1}+\eta y_{3}x_{3} = (3, 3)^{T}+(-1)\times (1,1)^{T} = (2, 2)^{T} \
    b_{2} = b_{1}+\eta y_{3} = 1+1\times -1 =0
    \end{aligned}
    $$
  5. 如此迭代直到没有误分类点为止

也就是说具体的迭代过程是:首先找$x_{1}$是不是误分类点,是的话更新$w, b$直到他变为正确分类点为止,然后看一看$x_{2}$是不是误分类点,不是的话看看$x_{3}$,如果$x_{3}$是误分类点,那么在更新$w, b$直到$x_{3}$不是误分类点,此时到了关键的一步:不要停止,在从$x_{1}$到$x_{3}$重新计算一遍看看是否有误分类点,假设在更新$x_{3}$的时候超平面$S$进行了移动,那么有可能之前本来已经处于正确分类的点又变回了误分类,哪有人会问,这样后面会影响前面的话他会收敛吗,答案是肯定的,因为已经有人证明当数据是线性可分的时候,必然会进行收敛

注意:在迭代过程中误分类点是随机选取的,也就是说随着选取顺序的不同,最终的超平面也不同,这很容易理解,因为从图上我们可以直观的看出,能够将两种类型的点区分开的超平面不止一个

下面给出迭代过程

3.2 对偶形式

首先我们看一下上述损失函数对$w, b$的梯度
$$
\begin{aligned}
\bigtriangledown_{w} L(w, b) = -\sum_{x_{i}\in M}y_{i}x_{i} \
\bigtriangledown_{b} L(w, b) = -\sum_{x_{i}\in M}y_{i}
\end{aligned}
$$
上述数值就是每次我们进行更新时的梯度大小,可以观察到每次更新的结果与$x_{i}y_{i}$有关,当一个点误分类时我们就将当前的$w,b$进行一次修改,当最终找到超平面时,$w,b$就会利用$x_{i}, y_{i}$修改$n_{i}$次

为了更直观的理解,先给出感知机的对偶形式最终的结果
$$
\begin{aligned}
w = \sum_{i=1}^{N}\alpha_{i} y_{i}x_{i} = \sum_{i=1}^{N}n_{i}\eta y_{i}x_{i} \
b = \sum_{i=1}^{N}\alpha_{i} y_{i} = \sum_{i=1}^{N}n_{i}\eta y_{i}
\end{aligned}
$$
即如果设置$w_{0}=0, b_{0}=0$,那么在进行迭代之后会得到
$$
\begin{aligned}
\Delta w =w_{0} + \sum_{i=1}^{N}n_{i}\eta y_{i}x_{i} = w_{0} + n_{1}\eta y_{1}x_{1} + n_{2}\eta y_{2}x_{2} +…+n_{N}\eta y_{N}x_{N} \
\Delta b =b_{0} + \sum_{i=1}^{N}n_{i}\eta y_{i} =b_{0} + n_{1}\eta y_{1} + n_{2}\eta y_{2} +…+n_{N}\eta y_{N}
\end{aligned}
$$

其中$n_{i}$表示样本点$(x_{i}, y_{i})$在更新时被用了$n_{i}$次,$n_{i}$越大代表这个样本点被经常使用,说明该样本点在超平面附近,当超平面进行微小的变化该样本点就会被误分类,我们知道了$w, b$以后,令$\alpha_{i} = n_{i}\eta$,直接给出感知机模型的形式

感知机模型:$f(x) = sign(w \cdot x+b) = sign(\sum_{i=1}^{N}\alpha_{i} y_{i}x_{i} \cdot x+\sum_{i=1}^{N}\alpha_{i} y_{i})$

感知机的对偶形式在更新时并不是更新$w, b$,而是更新$n_{i}$

算法流程

所以相比于原始形式,对偶形式并没有本质的区别,而是可以将样本点的特征向量以内积的形式存在于感知机的对偶形式算法中,如果事先计算好所有的内积,即 Gram 矩阵,就可以大大加快计算速度

4. 程序实例

下面用 python 展示一个感知机原始形式的计算实例

# 利用Python实现感知机算法的原始形式
import numpy as np
import matplotlib.pyplot as plt

def createData():
    samples = np.array([[1, 2], [2, 3], [3, 3], [2, 1], [3, 2]])
    labels = [1, 1, 1, -1, -1]
    return samples, labels

class Perception:
    def __init__(self, x, y, lr=1):
        self.x = x
        self.y = y
        self.l_rate = lr
        self.w = np.random.rand(x.shape[1], 1)
        self.b = 0
        self.numSimples = x.shape[0]
        self.numFeatures = x.shape[1]

    def sign(self, w, b, x):
        y = np.dot(x, w) + b  # x .w + b
        if y >= 0:
            y = 1
        else:
            y = -1
        return y

    def update(self, label_i, data_i):
        tmp = label_i * self.l_rate * data_i  # w = w + n yx
        tmp = tmp.reshape(self.w.shape)
        self.w = tmp + self.w
        self.b = self.b + label_i * self.l_rate  # b = b + n y

    def train(self):
        isFind = False
        step = 1
        while not isFind:
            count = 0
            for row in range(self.numSimples):
                simY = self.sign(self.w, self.b, self.x[row, :])
                if simY * self.y[row] <= 0:  # 如果是一个误分类实例点
                    print("------------------------step{}----------------------".format(step) )
                    print('误分类点为:', self.x[row, :], '此时的w和b为:', self.w[0], self.w[1], self.b)
                    count += 1
                    step += 1
                    self.update(self.y[row], self.x[row])
            if count == 0:
                print("训练完成:")
                print('最终训练得到的w和b为:', self.w[0], self.w[1], self.b)
                isFind = True
        return self.w, self.b


def plot_figure(samples, w, b):
    plt.figure(1)
    plt.title("Perception Algorithm", size=14)
    plt.xlabel("x1", size=14)
    plt.ylabel("x2", size=14)
    x1 = np.linspace(0, 5, 100)
    x2 = expression(x1, w, b)
    plt.plot(x1, x2, color='r', label='data')

    plt.scatter(samples[0][0], samples[0][1], s=50)
    plt.scatter(samples[1][0], samples[1][1], s=50)
    plt.scatter(samples[2][0], samples[2][1], s=50)
    plt.scatter(samples[3][0], samples[3][1], s=50, marker='x')
    plt.scatter(samples[4][0], samples[4][1], s=50, marker='x')
    plt.savefig('perception.png', dpi=75)
    plt.show()

def expression(x1, w, b):
    x2 = (-b - w[0] * x1) / w[1]
    # 注意在此,把x0,x1当做两个坐标轴,把x1当做自变量,x2为因变量
    return x2

if __name__ == '__main__':
    np.random.seed(2)
    samples, labels = createData()
    myperceptron = Perception(x=samples, y=labels, lr=1)
    weights, bias = myperceptron.train()
    Picture = plot_figure(samples, weights, bias)

'''输出
------------------------step1----------------------
误分类点为: [2 1] 此时的w和b为: [0.4359949] [0.02592623] 0
------------------------step2----------------------
误分类点为: [1 2] 此时的w和b为: [-1.5640051] [-0.97407377] -1
------------------------step3----------------------
误分类点为: [3 2] 此时的w和b为: [-0.5640051] [1.02592623] 0
------------------------step4----------------------
误分类点为: [1 2] 此时的w和b为: [-3.5640051] [-0.97407377] -1
------------------------step5----------------------
误分类点为: [2 3] 此时的w和b为: [-2.5640051] [1.02592623] 0
------------------------step6----------------------
误分类点为: [2 1] 此时的w和b为: [-0.5640051] [4.02592623] 1
训练完成:
最终训练得到的w和b为: [-2.5640051] [3.02592623] 0
'''
4月 06, 2025
3月 10, 2025
12月 31, 2024