【机器学习】k-近邻算法(k-nearest neighbor, k-NN)

本文介绍了K近邻算法的基本原理,包括输入实例特征向量、输出实例类别等概念。详细阐述了K近邻法的工作机制,如基于距离度量找出训练集中与测试样本最邻近的K个训练样本,通过多数表决进行预测。此外,还讨论了K值选择、距离度量和分类决策规则等关键要素。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言

kk近邻学习是一种常用的监督学习方法。

k近邻法的输入为实例的特征向量,对应于特征空间的点;输出为实例的类别,可以取多类。

kk近邻法的工作机制很简单:给定测试样本,基于某种距离度量(关于距离度量可以点击此处找出训练集中与其最靠近的k个训练样本,然后基于这kk个“邻居”的信息来进行预测。

分类时,对新的实例,根据其k个最邻近的训练实例的类别(通过距离度量求得),通过多数表决等方式进行预测,也即“投票法”(选择着kk个样本中出现次数最多的类别标记作为预测结果)。因此,k近邻法不具有显示的学习过程,事实上,它是“懒惰学习”的著名代表。

kk近邻法实际上利用训练数据集对特征空间进行划分,并作为其分类的“模型”;k值的选择、距离度量及分类决策规则是kk近邻法的三个基本要素

k近邻算法

输入:训练数据集T={(x1,y1),(x2,y2),...,(xN,yN)}T={(x1,y1),(x2,y2),...,(xN,yN)},其中,xiX=Rnxi∈X=Rn为实例的特征向量,yiY={c1,c2,...,cK}yi∈Y={c1,c2,...,cK}为实例的类别,i=1,2,...,Ni=1,2,...,N;实例特征向量xx

输出:实例x所属的类的yy

(1)根据给定的距离度量,在训练数据集T中找出与xx最邻近的k个点,涵盖这kk个点的x的领域记作Nk(x)Nk(x);
(2)在Nk(x)Nk(x)中根据分类决策规则(如多数表决)决定xx的类别y

y=argmaxcjxiNk(x)I(yi=cj),i=1,2,...,N;j=1,2,...,Ky=argmaxcj∑xi∈Nk(x)I(yi=cj),i=1,2,...,N;j=1,2,...,K

其中,II 为指示函数,即当 yi=cjII 为1,否则为0
k邻近法的特殊情况是k=1的情形,称为最近邻算法;对于输入的实例点(特征向量xx),最近邻法将训练数据集中与x最邻近的点的类作为xx的类。

k近邻模型

kk近邻法中,当训练集、距离度量、k值以及分类决策规则确定后,对于任何一个新的输入实例,它所属的类唯一地确定。这相当于根据上诉要素将特征空间划分为一些子空间,确定子空间里的每个点的属性的类。

下面我们来看看kk近邻分类器的一个示意图。

这里写图片描述

图中可以看出,当k=3时,根据多数表决规则,则分类结果为红点;当k=5k=5时,则分类结果为绿色。显然,kk是一个重要的参数,当k的取不同值时,分类结果会有显著不同。另一方面,如采用不同的距离度量方式,则找出的“近邻”也可能会有显著差别,从而导致不同的分类结果。

注:对于距离度量、kk值选择以及分类决策规则,下篇博客中更新。
参考文献 :李航《统计学习分析》、图灵书籍《机器学习实战》

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值