
假设我们有如上图的 training data,注意到此时 \(\mathcal{X} \subset \mathbb{R}^{2}\)。
那么 decision boundary \(g\):
即,decision boundary 为某种椭圆,例如:半径为 \(r\) 的圆(\(w_{1} = 1, w_{2} = 1, w_{0}=-r^{2}\)),如上图中的黑圈所示。我们会发现,此时 decision boundary not linear in \(\vec{x}\)。
但是,\(g(\vec{x}) = w_{1} x_{1}^{2} + w_{2} x_{2}^{2} + w_{0}\) 在某些空间里却是线性的:
因此,如果我们对数据进行特征变换(feature transformation):
那么 \(g\) 在 \(\phi -\) transformed feature space 中变为线性的。

generic quadratic boundary 如下:
feature transformation 则为:
generic quadratic boundary 如下:
feature transformation 则为:
给定 \(n\) 个互不相同的数据点:\(\mathcal{X} = \left\{ \vec{x_{1}}, \vec{x_{2}}, \ldots, \vec{x_{n}} \right\}\),总是存在一个 feature transformation \(\phi\),使得无论的 \(\mathcal{S} = \mathcal{X} \times \mathcal{Y}\) 的 label 如何,它在 transformed space 中总是线性可分的。
给定 \(n\) 个数据点,考虑以下映射(映射至 \(\mathbb{R}^{n}\)):
即,映射为一个 one-hot 向量,除第 \(i\) 行处为 \(1\),其它坐标处的值都为 \(0\)。
那么,由 linear weighting \(\vec{w}^{*} = \begin{pmatrix} y_{1} \\ \vdots \\ y_{n} \end{pmatrix}\) 引出的 decision boundary 完美地分割了 input data。
解释:
证明的意思是,输入的数据有 \(n\) 个。对于每一个数据点,feature transform 到一个 one-hot vector,只有这条数据在输入的 \(n\) 个数据中排的位置所对应的坐标处取 \(1\),其余全部取 \(0\)。假设输入三个数据:\(\vec{x_{1}}, \vec{x_{2}}, \vec{x_{3}}\),则:
这样极端的操作有利有弊:
优点:
任意的问题都将变为 linear separable。
缺点:
计算复杂度:
generic kernel transform 的时间复杂度通常是 \(\Omega(n)\),有些常用的 kernel transform 将 input space 映射到 infinite dimensional space 中。
模型复杂度:
模型的概括能力(generalization performance)通常随模型复杂度的下降而下降。即,若向简化模型,通常需要以牺牲模型的表现作为代价。
回顾时间复杂度 \(T(n) = \Omega \big( f(n) \big)\) 的定义:
那么 \(\Omega(n)\) 满足:
也就是说时间复杂度最低也与 \(n\) 呈线性。
如果直接暴露在 generic kernel space \(\phi(\vec{x_{i}})\) 中进行运算,需要时间复杂度 \(\Omega(n)\)。但是相对而言地,kernel space 中的两个数据点的点积可以被更快地求出,即:
在 \(\mathbb{R}^{d}\) 空间中的数据的 quadratic kernel transform:
Explicit transform:\(O(d^{2})\)
Dot products:\(O(d)\)
径向基函数(Radial Basis Function, i.e., RBF):
Explicit transform:infinite dimension!
Dot products:\(O(d)\)
Kernel 变换的诀窍在于,在实现分类算法的时候只通过 “点积” 的方式接触数据。
回忆感知机算法,更新权重向量的核心步骤为:
等价地,算法可以写为:
其中,\(\alpha_{k}\) 为在 \(\vec{x_{k}}\) 上发生错误的次数。
因此,分类问题变为:
其中 \(\vec{x}\) 输入函数 \(f\) 的新数据向量,注意与 \(\vec{x_{k}}\) 区分。
因此,在空间内的分类问题:
若在 tranformed kernel space 中处理,则:
算法具体如下:
在最后注意到,\(\sum\limits_{k=1}^{n} \alpha_{k} y_{k} \big( \phi(\vec{x_{k}}) \cdot \phi(\vec{x}) \big)\) 中的点积 \(\phi(\vec{x_{k}}) \cdot \phi(\vec{x})\) 是相似度(similarity)的一种衡量方式,故自然能够被其它自定义的相似度衡量方式所替换。
所以,我们可以在任意自定义的非线性空间中,隐性地(implicitly)进行运算,而不需要承担可能的巨大计算量成本。
GeneralizingLinearClassification假设我们有如上图的trainingdata,注意到此时\(\mathcal{X}\subset\mathbb{R}^{2}\)。那么decisionboundary\(g\):\[g(\vec{x})=w_{1}x_{1}^{2}+w_{2}x_{2}^{2}+w_{0}\]即,decisionboundary为某种椭圆,例如:半径为\(r\)的圆(\(w_{1}=1,w_{2}=1,w_{0}=-r^{2}\)),如上图中的黑圈所示。我们会发现,此时decisionboundarynotlinearin\(\vec{x}\)。但
GeneralizingLinearClassification假设我们有如上图的trainingdata,注意到此时\(\mathcal{X}\subset\mathbb{R}^{2}\)。那么decisionboundary\(g\):\[g(\vec{x})=w_{1}x_{1}^{2}+w_{2}x_{2}^{2}+w_{0}\]即,decisionboundary为某种椭圆,例如:半径为\(r\)的圆(\(w_{1}=1,w_{2}=1,w_{0}=-r^{2}\)),如上图中的黑圈所示。我们会发现,此时decisionboundarynotlinearin\(\vec{x}\)。但
Theperceptronalgorithmanditsmistakebound.
Theperceptronalgorithmanditsmistakebound.