文章目录
- DBSCAN算法原理
- DBSCAN算法流程
- DBSCAN的参数选择
- DBSCAN优缺点总结
K-Means算法和Mean Shift算法都是基于距离的聚类算法,基于距离的聚类算法的聚类结果是球状的簇,当数据集中的聚类结果是非球状结构时,基于距离的聚类算法的聚类效果并不好。
文章图片
与基于距离的聚类算法不同的是,基于密度的聚类算法可以发现任意形状的聚类。在基于密度的聚类算法中,通过在数据集中寻找被低密度区域分离的高密度区域,将分离出的高密度区域作为一个独立的类别。DBSCAN(Density-Based Spatial Clustering of Application with Noise)是一种典型的基于密度的聚类算法。
DBSCAN算法原理 DBSCAN(Density-Based Spatial Clustering of Applications with Noise,具有噪声的基于密度的聚类方法)是一种基于密度的空间聚类算法。该算法将具有足够密度的区域划分为簇,并在具有噪声的空间数据库中发现任意形状的簇,它将簇定义为密度相连的点的最大集合。
在DBSCAN算法中将数据点分为三类:
- 核心点(Core point)。若样本xi的ε邻域内至少包含了MinPts个样本,即Nε(Xi)≥MinPts,则称样本点xi为核心点。
- 边界点(Border point)。若样本xi的ε邻域内包含的样本数目小于MinPts,但是它在其他核心点的邻域内,则称样本点xi为边界点。
- 噪音点(Noise)。既不是核心点也不是边界点的点
文章图片
在DBSCAN算法中,还定义了如下一些概念:
- 密度直达(directly density-reachable):我们称样本点 p 是由样本点 q 对于参数 {Eps,MinPts} 密度直达的,如果它们满足 p∈NEps(q) 且 |NEps(q)|≥MinPts (即样本点 q 是核心点),也就是说|pq|之间的距离小于半径
- 密度可达(density-reachable):我们称样本点 p 是由样本点 q 对于参数{Eps,MinPts}密度可达的,如果存在一系列的样本点 p1,…,pn(其中 p1=q,pn=p)使得对于i=1,…,n?1,样本点 pi+1 可由样本点 pi 密度可达, p i + 1 ? p i p_{i+1}-p_i pi+1??pi?密度可达,实际上是直接密度可达的“传播”
- 密度相连(density-connected):我们称样本点 p 与样本点 q 对于参数 {Eps,MinPts} 是密度相连的,如果存在一个样本点 o,使得 p 和 q 均由样本点 o 密度可达。
文章图片
基于密度的聚类算法通过寻找被低密度区域分离的高密度区域,并将高密度区域作为一个聚类的“簇”。在DBSCAN算法中,聚类“簇”定义为:由密度可达关系导出的最大的密度连接样本的集合。
DBSCAN算法流程 在DBSCAN算法中,有核心对象出发,找到与该核心对象密度可达的所有样本形成“簇”。DBSCAN算法的流程为:
- 根据给定的邻域参数Eps和MinPts确定所有的核心对象
- 对每一个核心对象
- 选择一个未处理过的核心对象,找到由其密度可达的的样本生成聚类“簇”
- 重复以上过程
(1) 首先将数据集D中的所有对象标记为未处理状态
(2) for(数据集D中每个对象p) do
(3)if (p已经归入某个簇或标记为噪声) then
(4)continue;
(5)else
(6)检查对象p的Eps邻域 NEps(p) ;
(7)if (NEps(p)包含的对象数小于MinPts) then
(8)标记对象p为边界点或噪声点;
(9)else
(10)标记对象p为核心点,并建立新簇C, 并将p邻域内所有点加入C
(11)for (NEps(p)中所有尚未被处理的对象q)do
(12)检查其Eps邻域NEps(q),若NEps(q)包含至少MinPts个对象,则将NEps(q)中未归入任何一个簇的对象加入C;
(13)end for
(14)end if
(15)end if
(16) end for
DBSCAN的参数选择 MinPts
这个参数建议根据数据量及具体的业务进行自行设定
E p s Eps Eps
《Python机器学习算法》这本书上给出了一个计算公式,但是没有解释中间的原因,并不清楚理论依据是什么,算法如下:
def epsilon(data, MinPts):
'''计算最佳半径
input:data(mat):训练数据
MinPts(int):半径内的数据点的个数
output: eps(float):半径
'''
m, n = np.shape(data)
xMax = np.max(data, 0)
xMin = np.min(data, 0)
eps = ((np.prod(xMax - xMin) * MinPts * math.gamma(0.5 * n + 1)) / (m * math.sqrt(math.pi ** n))) ** (1.0 / n)
return eps
DBSCAN优缺点总结 优点:
- 相比K-Means,DBSCAN 不需要预先声明聚类数量。
- 可以对任意形状的稠密数据集进行聚类,相对的,K-Means之类的聚类算法一般只适用于凸数据集。
- 可以在聚类的同时发现异常点,对数据集中的异常点不敏感。
- 聚类结果没有偏倚,相对的,K-Means之类的聚类算法初始值对聚类结果有很大影响。
- 当空间聚类的密度不均匀、聚类间距差相差很大时,聚类质量较差,因为这种情况下参数MinPts和Eps选取困难。
- 如果样本集较大时,聚类收敛时间较长,此时可以对搜索最近邻时建立的KD树或者球树进行规模限制来改进。
- 在两个聚类交界边缘的点会视乎它在数据库的次序决定加入哪个聚类,幸运地,这种情况并不常见,而且对整体的聚类结果影响不大(DBSCAN*变种算法,把交界点视为噪音,达到完全决定性的结果。)
- 调参相对于传统的K-Means之类的聚类算法稍复杂,主要需要对距离阈值eps,邻域样本数阈值MinPts联合调参,不同的参数组合对最后的聚类效果有较大影响。
推荐阅读
- #|人工智能——DBSCAN密度聚类(Python)
- 数据聚类|聚类——密度聚类(DBSCAN、OPTICS、DENCLUE)
- 人工智能大数据|聚类模型、聚类分析
- 机器学习|吴恩达机器学习课后作业1——单变量线性回归(Linear regression with one variable)
- #|【机器学习-样例】聚类模型
- 吴恩达机器学习笔记|吴恩达机器学习课后作业——支持向量机
- 吴恩达机器学习笔记|吴恩达机器学习课后作业——KMeans和PCA
- 机器学习|吴恩达机器学习课后作业——多元分类
- 机器学习算法入门|机器学习算法入门梳理——逻辑回归的分类预测详解