聚类算法python函数 python 聚类函数

kmeans算法用Python怎么实现1、从Kmeans说起
Kmeans是一个非常基础的聚类算法,使用了迭代的思想,关于其原理这里不说了 。下面说一下如何在matlab中使用kmeans算法 。
创建7个二维的数据点:
复制代码 代码如下:
x=[randn(3,2)*.4;randn(4,2)*.5 ones(4,1)*[4 4]];
使用kmeans函数:
复制代码 代码如下:
class = kmeans(x, 2);
x是数据点,x的每一行代表一个数据;2指定要有2个中心点,也就是聚类结果要有2个簇 。class将是一个具有70个元素的列向量,这些元素依次对应70个数据点,元素值代表着其对应的数据点所处的分类号 。某次运行后,class的值是:
复制代码 代码如下:
2
2
2
1
1
1
1
这说明x的前三个数据点属于簇2,而后四个数据点属于簇1 。kmeans函数也可以像下面这样使用:
复制代码 代码如下:
[class, C, sumd, D] = kmeans(x, 2)
class =
2
2
2
1
1
1
1
C =
4.06294.0845
-0.13410.1201
sumd =
1.2017
0.2939
D =
34.37270.0184
29.56440.1858
36.35110.0898
0.124737.4801
0.753724.0659
0.197936.7666
0.125636.2149
class依旧代表着每个数据点的分类;C包含最终的中心点 , 一行代表一个中心点;sumd代表着每个中心点与所属簇内各个数据点的距离之和;D的
每一行也对应一个数据点,行中的数值依次是该数据点与各个中心点之间的距离,Kmeans默认使用的距离是欧几里得距离(参考资料[3])的平方值 。
kmeans函数使用的距离,也可以是曼哈顿距离(L1-距离),以及其他类型的距离 , 可以通过添加参数指定 。
kmeans有几个缺点(这在很多资料上都有说明):
1、最终簇的类别数目(即中心点或者说种子点的数目)k并不一定能事先知道,所以如何选一个合适的k的值是一个问题 。
2、最开始的种子点的选择的好坏会影响到聚类结果 。
3、对噪声和离群点敏感 。
4、等等 。
2、kmeans算法的基本思路
kmeans算法的主要工作体现在种子点的选择上 , 基本原则是使得各个种子点之间的距离尽可能的大,但是又得排除噪声的影响 。以下为基本思路:
1、从输入的数据点集合(要求有k个聚类)中随机选择一个点作为第一个聚类中心
2、对于数据集中的每一个点x,计算它与最近聚类中心(指已选择的聚类中心)的距离D(x)
3、选择一个新的数据点作为新的聚类中心,选择的原则是:D(x)较大的点,被选取作为聚类中心的概率较大
4、重复2和3直到k个聚类中心被选出来
5、利用这k个初始的聚类中心来运行标准的k-means算法
假定数据点集合X有n个数据点,依次用X(1)、X(2)、……、X(n)表示,那么,在第2步中依次计算每个数据点与最近的种子点(聚类中心)的
距离,依次得到D(1)、D(2)、……、D(n)构成的集合D 。在D中 , 为了避免噪声,不能直接选取值最大的元素 , 应该选择值较大的元素,然后将其对应
的数据点作为种子点 。
如何选择值较大的元素呢,下面是一种思路(暂未找到最初的来源,在资料[2]等地方均有提及 , 笔者换了一种让自己更好理解的说法):
把集合D中的每个元素D(x)想象为一根线L(x),线的长度就是元素的值 。将这些线依次按照L(1)、L(2)、……、L(n)的顺序连接起来,组成长
线L 。L(1)、L(2)、……、L(n)称为L的子线 。根据概率的相关知识,如果我们在L上随机选择一个点,那么这个点所在的子线很有可能是比较长的子
线,而这个子线对应的数据点就可以作为种子点 。下文中kmeans的两种实现均是这个原理 。
3、python版本的kmeans
在 中能找到多种编程语言版本的Kmeans实现 。下面的内容是基于python的实现(中文注释是笔者添加的):
复制代码 代码如下:
from math import pi, sin, cos
from collections import namedtuple
from random import random, choice
from copy import copy
try:
import psyco
psyco.full()
except ImportError:
pass
FLOAT_MAX = 1e100
【聚类算法python函数 python 聚类函数】class Point:
__slots__ = ["x", "y", "group"]
def __init__(self, x=0.0, y=0.0, group=0):
self.x, self.y, self.group = x, y, group
def generate_points(npoints, radius):
points = [Point() for _ in xrange(npoints)]
# note: this is not a uniform 2-d distribution
for p in points:
r = random() * radius
ang = random() * 2 * pi
p.x = r * cos(ang)
p.y = r * sin(ang)
return points
def nearest_cluster_center(point, cluster_centers):
"""Distance and index of the closest cluster center"""
def sqr_distance_2D(a, b):
return (a.x - b.x) ** 2(a.y - b.y) ** 2
min_index = point.group
min_dist = FLOAT_MAX
for i, cc in enumerate(cluster_centers):
d = sqr_distance_2D(cc, point)
if min_distd:
min_dist = d
min_index = i
return (min_index, min_dist)
'''
points是数据点 , nclusters是给定的簇类数目
cluster_centers包含初始化的nclusters个中心点,开始都是对象-(0,0,0)
'''
def kpp(points, cluster_centers):
cluster_centers[0] = copy(choice(points)) #随机选取第一个中心点
d = [0.0 for _ in xrange(len(points))]#列表,长度为len(points),保存每个点离最近的中心点的距离
for i in xrange(1, len(cluster_centers)):# i=1...len(c_c)-1
sum = 0
for j, p in enumerate(points):
d[j] = nearest_cluster_center(p, cluster_centers[:i])[1] #第j个数据点p与各个中心点距离的最小值
sum= d[j]
sum *= random()
for j, di in enumerate(d):
sum -= di
if sum0:
continue
cluster_centers[i] = copy(points[j])
break
for p in points:
p.group = nearest_cluster_center(p, cluster_centers)[0]
'''
points是数据点,nclusters是给定的簇类数目
'''
def lloyd(points, nclusters):
cluster_centers = [Point() for _ in xrange(nclusters)]#根据指定的中心点个数,初始化中心点,均为(0,0,0)
# call kinit
kpp(points, cluster_centers)#选择初始种子点
# 下面是kmeans
lenpts10 = len(points)10
changed = 0
while True:
# group element for centroids are used as counters
for cc in cluster_centers:
cc.x = 0
cc.y = 0
cc.group = 0
for p in points:
cluster_centers[p.group].group= 1#与该种子点在同一簇的数据点的个数
cluster_centers[p.group].x= p.x
cluster_centers[p.group].y= p.y
for cc in cluster_centers:#生成新的中心点
cc.x /= cc.group
cc.y /= cc.group
# find closest centroid of each PointPtr
changed = 0#记录所属簇发生变化的数据点的个数
for p in points:
min_i = nearest_cluster_center(p, cluster_centers)[0]
if min_i != p.group:
changed= 1
p.group = min_i
# stop when 99.9% of points are good
if changed = lenpts10:
break
for i, cc in enumerate(cluster_centers):
cc.group = i
return cluster_centers
def print_eps(points, cluster_centers, W=400, H=400):
Color = namedtuple("Color", "r g b");
colors = []
for i in xrange(len(cluster_centers)):
colors.append(Color((3 * (i1) % 11) / 11.0,
(7 * i % 11) / 11.0,
(9 * i % 11) / 11.0))
max_x = max_y = -FLOAT_MAX
min_x = min_y = FLOAT_MAX
for p in points:
if max_xp.x: max_x = p.x
if min_xp.x: min_x = p.x
if max_yp.y: max_y = p.y
if min_yp.y: min_y = p.y
scale = min(W / (max_x - min_x),
H / (max_y - min_y))
cx = (max_xmin_x) / 2
cy = (max_ymin_y) / 2
print "%%!PS-Adobe-3.0\n%%%%BoundingBox: -5 -5 %d %d" % (W10, H10)
print ("/l {rlineto} def /m {rmoveto} def\n"
"/c { .25 sub exch .25 sub exch .5 0 360 arc fill } def\n"
"/s { moveto -2 0 m 2 2 l 2 -2 l -2 -2 l closepath "
"gsave 1 setgray fill grestore gsave 3 setlinewidth"
" 1 setgray stroke grestore 0 setgray stroke }def")
for i, cc in enumerate(cluster_centers):
print ("%g %g %g setrgbcolor" %
(colors[i].r, colors[i].g, colors[i].b))
for p in points:
if p.group != i:
continue
print ("%.3f %.3f c" % ((p.x - cx) * scaleW / 2,
(p.y - cy) * scaleH / 2))
print ("\n0 setgray %g %g s" % ((cc.x - cx) * scaleW / 2,
(cc.y - cy) * scaleH / 2))
print "\n%%%%EOF"
def main():
npoints = 30000
k = 7 # # clusters
points = generate_points(npoints, 10)
cluster_centers = lloyd(points, k)
print_eps(points, cluster_centers)
main()
上述代码实现的算法是针对二维数据的,所以Point对象有三个属性,分别是在x轴上的值、在y轴上的值、以及所属的簇的标识 。函数lloyd是
kmeans算法的整体实现 , 其先是通过kpp函数选取合适的种子点,然后对数据集实行kmeans算法进行聚类 。kpp函数的实现完全符合上述
kmeans的基本思路的2、3、4步 。
谱聚类(Spectral clustering)(python实现)谱聚类概念 :
谱聚类是一种基于图论的聚类方法聚类算法python函数,通过对样本数据的拉普拉斯矩阵的特征向量进行聚类聚类算法python函数,从而达到对样本数据聚类的母的 。谱聚类可以理解为将高维空间的数据映射到低维,然后在低维空间用其它聚类算法(如KMeans)进行聚类 。
算法步骤
1 计算相似度矩阵 W
2计算度矩阵 D
3计算拉普拉斯矩阵L=D-W
4计算L的特征值,将特征值从小到大排序,取前k个特征值.将这个特征值向量转换为矩阵
5通过其聚类算法python函数他聚类算法对其进行聚类,如k-means
详细公式和概念请到 大佬博客
相比较PCA降维中取前k大的特征值对应的特征向量 , 这里取得是前k小的特征值对应的特征向量 。但是上述的谱聚类算法并不是最优的,接下来聚类算法python函数我们一步一步的分解上面的步骤 , 总结一下在此基础上进行优化的谱聚类的版本 。
python实现
例子一:使用谱聚类从噪声背景中分割目标
效果图
例子2:分割图像中硬币的区域
效果图
注意
1)当聚类的类别个数较小的时候 , 谱聚类的效果会很好,但是当聚类的类别个数较大的时候,则不建议使用谱聚类聚类算法python函数;
(2)谱聚类算法使用了降维的技术 , 所以更加适用于高维数据的聚类;
(3)谱聚类只需要数据之间的相似度矩阵,因此对于处理稀疏数据的聚类很有效 。这点传统聚类算法(比如K-Means)很难做到
(4)谱聚类算法建立在谱图理论基础上,与传统的聚类算法相比,它具有能在任意形状的样本空间上聚类且收敛于全局最优解
(5)谱聚类对相似度图的改变和聚类参数的选择非常的敏感;
(6)谱聚类适用于均衡分类问题 , 即各簇之间点的个数相差不大,对于簇之间点个数相差悬殊的聚类问题,谱聚类则不适用;
参考
谱聚类算法介绍
sklearn官网
python代码如何应用系统聚类和K-means聚类法进行聚类分析? 然后选择变量,建立适当的模型?-Means聚类算法
k-means算法以k为参数 , 把n个对象分成k个簇 , 使簇内具有较高的相似度,而簇间的相似度较低 。
随机选择k个点作为初始的聚类中心 。
对于剩下的点,根据其与聚类中心的距离,将其归入最近的簇 。
对每个簇,计算所有点的均值作为新的聚类中心 。
重复2,3直到聚类中心不再发生改变
Figure 1
K-means的应用
数据介绍:
现有1999年全国31个省份城镇居民家庭平均每人全年消费性支出的八大主要变量数据,这八大变量分别是:食品、衣着、家庭设备用品及服务、医疗保健、交通和通讯、娱乐教育文化服务、居住以及杂项商品和服务 。利用已有数据,对31个省份进行聚类 。
实验目的:
通过聚类,了解1999年各个省份的消费水平在国内的情况 。
技术路线:
sklearn.cluster.Kmeans
数据实例:
建议收藏!10 种 Python 聚类算法完整操作示例 聚类或聚类分析是无监督学习问题 。它通常被用作数据分析技术,用于发现数据中的有趣模式 , 例如基于其行为的客户群 。有许多聚类算法可供选择,对于所有情况,没有单一的最佳聚类算法 。相反 , 最好探索一系列聚类算法以及每种算法的不同配置 。在本教程中,你将发现如何在 python 中安装和使用顶级聚类算法 。完成本教程后,你将知道:
聚类分析 , 即聚类,是一项无监督的机器学习任务 。它包括自动发现数据中的自然分组 。与监督学习(类似预测建模)不同 , 聚类算法只解释输入数据,并在特征空间中找到自然组或群集 。
群集通常是特征空间中的密度区域,其中来自域的示例(观测或数据行)比其他群集更接近群集 。群集可以具有作为样本或点特征空间的中心(质心),并且可以具有边界或范围 。
聚类可以作为数据分析活动提供帮助,以便了解更多关于问题域的信息 , 即所谓的模式发现或知识发现 。例如:
聚类还可用作特征工程的类型,其中现有的和新的示例可被映射并标记为属于数据中所标识的群集之一 。虽然确实存在许多特定于群集的定量措施,但是对所识别的群集的评估是主观的,并且可能需要领域专家 。通常,聚类算法在人工合成数据集上与预先定义的群集进行学术比较,预计算法会发现这些群集 。
有许多类型的聚类算法 。许多算法在特征空间中的示例之间使用相似度或距离度量,以发现密集的观测区域 。因此,在使用聚类算法之前,扩展数据通常是良好的实践 。
一些聚类算法要求您指定或猜测数据中要发现的群集的数量 , 而另一些算法要求指定观测之间的最小距离,其中示例可以被视为“关闭”或“连接” 。因此,聚类分析是一个迭代过程,在该过程中,对所识别的群集的主观评估被反馈回算法配置的改变中,直到达到期望的或适当的结果 。scikit-learn 库提供了一套不同的聚类算法供选择 。下面列出了10种比较流行的算法:
每个算法都提供了一种不同的方法来应对数据中发现自然组的挑战 。没有最好的聚类算法 , 也没有简单的方法来找到最好的算法为您的数据没有使用控制实验 。在本教程中,我们将回顾如何使用来自 scikit-learn 库的这10个流行的聚类算法中的每一个 。这些示例将为您复制粘贴示例并在自己的数据上测试方法提供基础 。我们不会深入研究算法如何工作的理论,也不会直接比较它们 。让我们深入研究一下 。
在本节中,我们将回顾如何在 scikit-learn 中使用10个流行的聚类算法 。这包括一个拟合模型的例子和可视化结果的例子 。这些示例用于将粘贴复制到您自己的项目中,并将方法应用于您自己的数据 。
1.库安装
首先,让我们安装库 。不要跳过此步骤,因为你需要确保安装了最新版本 。你可以使用 pip Python 安装程序安装 scikit-learn 存储库,如下所示:
接下来,让我们确认已经安装了库,并且您正在使用一个现代版本 。运行以下脚本以输出库版本号 。
运行该示例时,您应该看到以下版本号或更高版本 。
2.聚类数据集
我们将使用 make _ classification ()函数创建一个测试二分类数据集 。数据集将有1000个示例 , 每个类有两个输入要素和一个群集 。这些群集在两个维度上是可见的,因此我们可以用散点图绘制数据,并通过指定的群集对图中的点进行颜色绘制 。这将有助于了解,至少在测试问题上 , 群集的识别能力如何 。该测试问题中的群集基于多变量高斯,并非所有聚类算法都能有效地识别这些类型的群集 。因此,本教程中的结果不应用作比较一般方法的基础 。下面列出了创建和汇总合成聚类数据集的示例 。
运行该示例将创建合成的聚类数据集 , 然后创建输入数据的散点图,其中点由类标签(理想化的群集)着色 。我们可以清楚地看到两个不同的数据组在两个维度,并希望一个自动的聚类算法可以检测这些分组 。
已知聚类着色点的合成聚类数据集的散点图接下来,我们可以开始查看应用于此数据集的聚类算法的示例 。我已经做了一些最小的尝试来调整每个方法到数据集 。3.亲和力传播亲和力传播包括找到一组最能概括数据的范例 。
它是通过 AffinityPropagation 类实现的,要调整的主要配置是将“ 阻尼 ”设置为0.5到1,甚至可能是“首选项” 。下面列出了完整的示例 。
运行该示例符合训练数据集上的模型,并预测数据集中每个示例的群集 。然后创建一个散点图,并由其指定的群集着色 。在这种情况下,我无法取得良好的结果 。
数据集的散点图,具有使用亲和力传播识别的聚类
4.聚合聚类
聚合聚类涉及合并示例,直到达到所需的群集数量为止 。它是层次聚类方法的更广泛类的一部分,通过 AgglomerationClustering 类实现的,主要配置是“ n _ clusters ”集,这是对数据中的群集数量的估计,例如2 。下面列出了完整的示例 。
运行该示例符合训练数据集上的模型,并预测数据集中每个示例的群集 。然后创建一个散点图,并由其指定的群集着色 。在这种情况下 , 可以找到一个合理的分组 。
使用聚集聚类识别出具有聚类的数据集的散点图
5.BIRCHBIRCH
聚类( BIRCH 是平衡迭代减少的缩写,聚类使用层次结构)包括构造一个树状结构,从中提取聚类质心 。
它是通过 Birch 类实现的 , 主要配置是“ threshold ”和“ n _ clusters ”超参数,后者提供了群集数量的估计 。下面列出了完整的示例 。
运行该示例符合训练数据集上的模型,并预测数据集中每个示例的群集 。然后创建一个散点图,并由其指定的群集着色 。在这种情况下,可以找到一个很好的分组 。
使用BIRCH聚类确定具有聚类的数据集的散点图
6.DBSCANDBSCAN
聚类(其中 DBSCAN 是基于密度的空间聚类的噪声应用程序)涉及在域中寻找高密度区域,并将其周围的特征空间区域扩展为群集 。
它是通过 DBSCAN 类实现的,主要配置是“ eps ”和“ min _ samples ”超参数 。下面列出了完整的示例 。
运行该示例符合训练数据集上的模型,并预测数据集中每个示例的群集 。然后创建一个散点图,并由其指定的群集着色 。在这种情况下,尽管需要更多的调整,但是找到了合理的分组 。
使用DBSCAN集群识别出具有集群的数据集的散点图
7.K均值
K-均值聚类可以是最常见的聚类算法,并涉及向群集分配示例,以尽量减少每个群集内的方差 。
它是通过 K-均值类实现的,要优化的主要配置是“ n _ clusters ”超参数设置为数据中估计的群集数量 。下面列出了完整的示例 。
运行该示例符合训练数据集上的模型,并预测数据集中每个示例的群集 。然后创建一个散点图,并由其指定的群集着色 。在这种情况下,可以找到一个合理的分组,尽管每个维度中的不等等方差使得该方法不太适合该数据集 。
使用K均值聚类识别出具有聚类的数据集的散点图
8.Mini-Batch
K-均值Mini-Batch K-均值是 K-均值的修改版本,它使用小批量的样本而不是整个数据集对群集质心进行更新,这可以使大数据集的更新速度更快,并且可能对统计噪声更健壮 。
它是通过 MiniBatchKMeans 类实现的,要优化的主配置是“ n _ clusters ”超参数,设置为数据中估计的群集数量 。下面列出了完整的示例 。
运行该示例符合训练数据集上的模型 , 并预测数据集中每个示例的群集 。然后创建一个散点图,并由其指定的群集着色 。在这种情况下,会找到与标准 K-均值算法相当的结果 。
带有最小批次K均值聚类的聚类数据集的散点图
9.均值漂移聚类
均值漂移聚类涉及到根据特征空间中的实例密度来寻找和调整质心 。
它是通过 MeanShift 类实现的,主要配置是“带宽”超参数 。下面列出了完整的示例 。
运行该示例符合训练数据集上的模型,并预测数据集中每个示例的群集 。然后创建一个散点图,并由其指定的群集着色 。在这种情况下,可以在数据中找到一组合理的群集 。
具有均值漂移聚类的聚类数据集散点图
10.OPTICSOPTICS
聚类( OPTICS 短于订购点数以标识聚类结构)是上述 DBSCAN 的修改版本 。
它是通过 OPTICS 类实现的,主要配置是“ eps ”和“ min _ samples ”超参数 。下面列出了完整的示例 。
运行该示例符合训练数据集上的模型,并预测数据集中每个示例的群集 。然后创建一个散点图 , 并由其指定的群集着色 。在这种情况下,我无法在此数据集上获得合理的结果 。
使用OPTICS聚类确定具有聚类的数据集的散点图
11.光谱聚类
光谱聚类是一类通用的聚类方法 , 取自线性线性代数 。
它是通过 Spectral 聚类类实现的,而主要的 Spectral 聚类是一个由聚类方法组成的通用类,取自线性线性代数 。要优化的是“ n _ clusters ”超参数,用于指定数据中的估计群集数量 。下面列出了完整的示例 。
运行该示例符合训练数据集上的模型 , 并预测数据集中每个示例的群集 。然后创建一个散点图 , 并由其指定的群集着色 。在这种情况下,找到了合理的集群 。
使用光谱聚类聚类识别出具有聚类的数据集的散点图
12.高斯混合模型
高斯混合模型总结了一个多变量概率密度函数,顾名思义就是混合了高斯概率分布 。它是通过 Gaussian Mixture 类实现的,要优化的主要配置是“ n _ clusters ”超参数,用于指定数据中估计的群集数量 。下面列出了完整的示例 。
运行该示例符合训练数据集上的模型,并预测数据集中每个示例的群集 。然后创建一个散点图 , 并由其指定的群集着色 。在这种情况下,我们可以看到群集被完美地识别 。这并不奇怪,因为数据集是作为 Gaussian 的混合生成的 。
使用高斯混合聚类识别出具有聚类的数据集的散点图
在本文中,你发现了如何在 python 中安装和使用顶级聚类算法 。具体来说 , 你学到了:
聚类算法之K均值算法(k-means)的Python实现K-means算法是硬聚类算法 , 是典型的基于原型的目标函数聚类方法的代表,它是数据点到原型的某种距离作为优化的目标函数 , 利用函数求极值的方法得到迭代运算的调整规则 。K-means算法以欧式距离作为相似度测度 , 它是求对应某一初始聚类中心向量V最优分类,使得评价指标J最小 。算法采用误差平方和准则函数作为聚类准则函数 。
通常 , 人们根据样本间的某种距离或者相似性来定义聚类,即把相似的(或距离近的)样本聚为同一类,而把不相似的(或距离远的)样本归在其他类 。
所谓聚类问题,就是给定一个元素集合D,其中每个元素具有n个可观察属性,使用某种算法将D划分成k个子集,要求每个子集内部的元素之间相异度尽可能低,而不同子集的元素相异度尽可能高 。其中每个子集叫做一个簇 。
k-means算法是一种很常见的聚类算法,它的基本思想是:通过迭代寻找k个聚类的一种划分方案,使得用这k个聚类的均值来代表相应各类样本时所得的总体误差最小 。
看起来还不错
分析一个公司的客户分类 , 这样可以对不同的客户使用不同的商业策略,或是电子商务中分析商品相似度,归类商品 , 从而可以使用一些不同的销售策略,等等 。
减法聚类如何用Python实现下面是一个k-means聚类算法在python2.7.5上面的具体实现,你需要先安装Numpy和Matplotlib:
from numpy import *
import time
import matplotlib.pyplot as plt
# calculate Euclidean distance
def euclDistance(vector1, vector2):
return sqrt(sum(power(vector2 - vector1, 2)))
# init centroids with random samples
def initCentroids(dataSet, k):
numSamples, dim = dataSet.shape
centroids = zeros((k, dim))
for i in range(k):
index = int(random.uniform(0, numSamples))
centroids[i, :] = dataSet[index, :]
return centroids
# k-means cluster
def kmeans(dataSet, k):
numSamples = dataSet.shape[0]
# first column stores which cluster this sample belongs to,
# second column stores the error between this sample and its centroid
clusterAssment = mat(zeros((numSamples, 2)))
clusterChanged = True
## step 1: init centroids
centroids = initCentroids(dataSet, k)
while clusterChanged:
clusterChanged = False
## for each sample
for i in xrange(numSamples):
minDist= 100000.0
minIndex = 0
## for each centroid
## step 2: find the centroid who is closest
for j in range(k):
distance = euclDistance(centroids[j, :], dataSet[i, :])
if distanceminDist:
minDist= distance
minIndex = j
## step 3: update its cluster
if clusterAssment[i, 0] != minIndex:
clusterChanged = True
clusterAssment[i, :] = minIndex, minDist**2
## step 4: update centroids
for j in range(k):
pointsInCluster = dataSet[nonzero(clusterAssment[:, 0].A == j)[0]]
centroids[j, :] = mean(pointsInCluster, axis = 0)
print 'Congratulations, cluster complete!'
return centroids, clusterAssment
# show your cluster only available with 2-D data
def showCluster(dataSet, k, centroids, clusterAssment):
numSamples, dim = dataSet.shape
if dim != 2:
print "Sorry! I can not draw because the dimension of your data is not 2!"
return 1
mark = ['or', 'ob', 'og', 'ok', '^r', ' r', 'sr', 'dr', 'r', 'pr']
if klen(mark):
print "Sorry! Your k is too large! please contact Zouxy"
return 1
# draw all samples
for i in xrange(numSamples):
markIndex = int(clusterAssment[i, 0])
plt.plot(dataSet[i, 0], dataSet[i, 1], mark[markIndex])
mark = ['Dr', 'Db', 'Dg', 'Dk', '^b', ' b', 'sb', 'db', 'b', 'pb']
# draw the centroids
for i in range(k):
plt.plot(centroids[i, 0], centroids[i, 1], mark[i], markersize = 12)
plt.show()
聚类算法python函数的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于python 聚类函数、聚类算法python函数的信息别忘了在本站进行查找喔 。

    推荐阅读