主要内容

kmeans

k-均值聚类

描述

例子

idx= kmeans (Xk)执行k-均值聚类对观测数据进行分区n——- - - - - -p数据矩阵Xk,并返回n-by-1向量(idx),包含每个观测的聚类指数。行X对应点,列对应变量。

默认情况下,kmeans使用平方欧几里得距离度量和k——+ +算法用于集群中心初始化。

例子

idx= kmeans (Xk名称,值)返回带有一个或多个指定的附加选项的集群索引名称,值对参数。

例如,指定余弦距离、使用新初始值重复聚类的次数或使用并行计算的次数。

例子

idxC]=kmeans(___)返回k集群中的质心位置k——- - - - - -p矩阵C

例子

idxCsumd]=kmeans(___)中的点到质心距离的簇内和k1的向量sumd

例子

idxCsumdD]=kmeans(___)返回从每个点到图形中每个质心的距离n——- - - - - -k矩阵D

例子

全部折叠

使用群集数据k-表示聚类,然后绘制聚类区域。

载入费雪的虹膜数据集。使用花瓣的长度和宽度作为预测因素。

负载鱼腥草X =量(:,3:4);图;情节(X (: 1) X (:, 2),“k*”“MarkerSize”,5);头衔“费舍尔的虹膜数据”;xlabel‘花瓣长度(厘米)’;ylabel“花瓣宽度(cm)”

图中包含axes对象。标题为Fisher's Iris Data的axes对象包含line类型的对象。

较大的簇似乎被分成一个低方差区域和一个高方差区域。这可能表明较大的簇是两个重叠的簇。

集群的数据。指定k= 3集群。

rng(1);%的再现性[idx,C]=kmeans(X,3);

idx是与中的观测值相对应的预测聚类指数向量XC是一个包含最终质心位置的3 × 2矩阵。

使用kmeans计算从每个质心到网格上各点的距离。要做到这一点,通过质心(C),并在网格上指向kmeans,并实现算法的一次迭代。

x1 = min (X(: 1)): 0.01:马克斯(X (: 1));x2 = min (X(:, 2)): 0.01:马克斯(X (:, 2));[x1G, x2G] = meshgrid (x1, x2);XGrid = [x1G (:), x2G (:));在plot上定义一个精细的网格idx2Region = kmeans (XGrid 3“MaxIter”,1,“开始”C);
警告:未能在1次迭代中收敛。
%将栅格中的每个节点指定给最近的质心

kmeans显示一条警告,指出算法没有收敛,这是您应该预料到的,因为软件只实现了一次迭代。

绘制集群区域。

图:gscatter(XGrid(:,1),XGrid(:,2),idx2区域,...[0, 0.75, 0.75, 0.75, 0, 0.75, 0.75, 0.75, 0],“. .”); 持有;情节(X (: 1) X (:, 2),“k*”“MarkerSize”,5);头衔“费舍尔的虹膜数据”;xlabel‘花瓣长度(厘米)’;ylabel“花瓣宽度(cm)”;传奇(“地区1”《区域2》区域3的“数据”“位置”“东南”); 持有

图中包含一个Axis对象。标题为Fisher's Iris Data的Axis对象包含4个line类型的对象。这些对象表示区域1、区域2、区域3、数据。

随机生成样本数据。

rng违约%的再现性X=[randn(100,2)*0.75+一(100,2);randn(100,2)*0.5-一(100,2)];图;图(X(:,1),X(:,2),“。”);标题随机生成的数据的

图中包含axes对象。标题为随机生成数据的axes对象包含line类型的对象。

数据中似乎有两个集群。

将数据划分为两个集群,并在五个初始化中选择最佳的安排。显示最终输出。

选择= statset (“显示”“决赛”);[idx,C]=kmeans(X,2,“距离”“城市街区”...“复制品”5,“选项”,opts);
重复1,3次迭代,总距离之和= 201.533。重复2,5次迭代,总距离之和= 201.533。重复3,3次迭代,总距离之和= 201.533。重复4,3次迭代,总距离之和= 201.533。重复5次,2次迭代,总距离之和= 201.533。距离的最佳总和= 201.533

默认情况下,软件将单独初始化复制k——+ +。

画出星团和星团中心。

图;情节(X (idx = = 1,1) X (idx = = 1、2),“r”。“MarkerSize”等一下情节(X (idx = = 2, 1), X (idx = = 2, 2),“b”。“MarkerSize”图(C(:,1),C(:,2),“kx”...“MarkerSize”,15,“线宽”3)传说(“集群1”“集群2”“重心”...“位置”“西北”)标题“群集分配和质心”持有

图中包含一个轴对象。具有标题簇指定和质心的轴对象包含3个类型为line的对象。这些对象表示簇1、簇2和质心。

您可以通过传递来确定集群的分离程度idx轮廓

聚集大型数据集可能需要时间,特别是在使用在线更新(默认设置)的情况下。如果您有一个并行计算工具箱™许可,并且设置了并行计算的选项,那么kmeans并行运行每个群集任务(或复制)。如果复制>1,则并行计算减少了收敛时间。

从高斯混合模型中随机生成一个大数据集。

μ= bsxfun (@times(20、30),(1:20)');%高斯混合均值rn30=随机数(30,30);西格玛=rn30'*rn30;%对称正定协方差Mdl = gmdistribution(μ、σ);%定义高斯混合分布rng(1);%的再现性X =随机(Mdl, 10000);

Mdl是一个30维的gmdistribution模型包含20个组件。X一个10000 × 30的数据矩阵是从哪里产生的Mdl

指定并行计算的选项。

流= RandStream (“mlfg6331_64”);%随机数流选择= statset (“UseParallel”,1,“使用子流”,1,...“溪流”、流);

输入参数“mlfg6331_64”兰德斯特朗指定使用乘法滞后的斐波那契生成算法。选项是一个结构数组,其字段指定用于控制估计的选项。

使用以下方法聚类数据k——集群。指定有k=数据中的20个群集,并增加迭代次数。通常,目标函数包含局部最小值。指定10个副本以帮助找到较低的局部最小值。

抽搐;启动秒表计时器[idx,C,sumd,D]=kmeans(X,20,“选项”选项,“MaxIter”, 10000,...“显示”“决赛”“复制品”10);
使用“local”配置文件启动并行池(parpool)…连接到6个工人。复制5,72次迭代,总距离之和= 7.73161e+06。重复1,64次迭代,总距离之和= 7.72988e+06。重复3,68次,总距离之和= 7.72576e+06。重复4,84次,总距离之和= 7.72696e+06。重复6,82次迭代,总距离之和= 7.73006e+06。重复7,40次迭代,总距离之和= 7.73451e+06。重复2,194次迭代,总距离之和= 7.72953e+06。重复9,105次迭代,总距离之和= 7.72064e+06。 Replicate 10, 125 iterations, total sum of distances = 7.72816e+06. Replicate 8, 70 iterations, total sum of distances = 7.73188e+06. Best total sum of distances = 7.72064e+06
toc终止秒表计时器
运行时间为61.915955秒。

命令窗口表示有6个工作人员可用。在您的系统中,工作人员的数量可能会有所不同。命令窗口显示每个复制的迭代次数和终端目标函数值。输出参数包含复制9的结果,因为它的距离总和最低。

kmeans执行k-表示聚类将数据划分为k集群。当您有一个新的数据集要集群时,您可以使用kmeans这个kmeans函数支持C/ c+万博1manbetx+代码生成,因此您可以生成接受训练数据并返回集群结果的代码,然后将代码部署到设备上。在这个工作流中,您必须通过训练数据,这些数据可能相当大。为了节省设备上的内存,您可以使用分离训练和预测kmeanspdist2,分别。

使用kmeans在MATLAB®中创建集群并使用pdist2在生成的代码中将新数据分配给现有集群。对于代码生成,定义一个入口点函数,该函数接受集群质心位置和新的数据集,并返回最近的集群的索引。然后,生成入口点函数的代码。

生成C/C++代码需要MATLAB®编码器™.

执行k-均值聚类

使用三个分布生成一个训练数据集。

rng (“默认”)%的再现性X = [randn(100 2) * 0.75 +(100 2)的;randn(100 2) * 0.5的(100 2);randn (100 2) * 0.75);

将训练数据分成三个聚类kmeans

[idx,C]=kmeans(X,3);

画出星团和星团中心。

图gscatter (X (: 1), (:, 2), idx,“bgm”)持有情节(C (: 1), C (:, 2),“kx”)传奇(“集群1”“集群2”“第三组”聚类质心的)

图中包含一个Axis对象。Axis对象包含4个line类型的对象。这些对象表示簇1、簇2、簇3、簇质心。

将新数据分配给现有集群

生成一个测试数据集。

Xtest = [randn(10, 2) * 0.75 +的(10,2);randn(10, 2) * 0.5的(10,2);randn (10, 2) * 0.75);

使用现有的集群对测试数据集进行分类。使用。找到每个测试数据点最近的质心pdist2

[~, idx_test] = pdist2 (C Xtest“欧几里得”“最小的”1);

绘制测试数据并使用标记测试数据idx_test通过使用gscatter

gscatter (Xtest (: 1) Xtest (:, 2), idx_test,“bgm”“哦”)传奇(“集群1”“集群2”“第三组”聚类质心的...“分类到群集1的数据”“分类到群集2的数据”...“分类到群集3的数据”)

图中包含一个Axis对象。Axis对象包含7个line类型的对象。这些对象表示簇1、簇2、簇3、簇质心、分类为簇1的数据、分类为簇2的数据、分类为簇3的数据。

生成代码

生成为现有集群分配新数据的C代码。请注意,生成C/C++代码需要MATLAB®编码器™.

定义一个入口点函数名为findNearestCentroid它接受质心位置和新数据,然后通过使用pdist2

添加%#编码基因编译器指令(或pragma)到函数签名后的入口点函数,以指示您打算为MATLAB算法生成代码。添加此指令将指示MATLAB代码分析器帮助您诊断和修复在代码生成期间可能导致错误的违规。

类型findNearestCentroid%显示findNearestCentroid.m的内容
函数idx = findNearestCentroid(C,X) %#codegen [~,idx] = pdist2(C,X,'欧几里得','最小',1);找到最近的质心

注:如果你点击这个页面右上角的按钮,并在MATLAB®中打开这个示例,那么MATLAB®将打开示例文件夹。这个文件夹包括入口点函数文件。

使用以下命令生成代码codegen(MATLAB编码器)因为C和C++是静态类型的语言,所以必须在编译时确定入口点函数中所有变量的属性。findNearestCentroid,传递一个MATLAB表达式,该表达式表示具有特定数据类型和数组大小的值集,使用arg游戏选择。有关详细信息,请参见指定用于代码生成的可变大小参数

codegenfindNearestCentroidarg游戏{C,Xtest}
代码生成成功。

codegen生成MEX函数findNearestCentroid_mex与平台相关的扩展。

验证生成的代码。

myIndx=findNearestCentroid(C,Xtest);myIndex_-mex=findNearestCentroid_-mex(C,Xtest);verifyMEX=isequal(idx_测试,myIndx,myIndex_-mex)
verifyMEX =逻辑1

isequal返回逻辑1 (真正的),这意味着所有的输入都是相等的。比较确认pdist2功能findNearestCentroid函数,而MEX函数返回相同的索引。

您还可以使用GPU编码器™生成优化的CUDA®代码。

cfg = coder.gpuConfig (墨西哥人的);codegen配置cfgfindNearestCentroidarg游戏{C,Xtest}

有关代码生成的更多信息,请参见通用代码生成工作流。有关GPU编码器的更多信息,请参阅开始与GPU编码器(GPU编码器)万博1manbetx支持函数(GPU编码器)

输入参数

全部折叠

数据,指定为数字矩阵X对应于观察值,列对应于变量。

如果X是数字向量吗kmeans把它当作n-by-1数据矩阵,不管它的方向。

该软件将年代X删除丢失的数据并删除X至少包含一个.删除行X减少样本量。的kmeans函数返回获取输出参数中相应的值idx

数据类型:|

数据中的群集数,指定为正整数。

数据类型:|

名称-值参数

指定可选的逗号分隔的对名称,值论据。的名字参数名和价值为对应值。的名字必须出现在引号内。可以以任意顺序指定多个名称和值对参数名称1,值1,…,名称,值

例子:“距离”、“余弦”,“复制”,10日,“选项”,statset (UseParallel, 1)指定余弦距离,10以不同的起始值复制集群,并使用并行计算。

要在命令窗口中显示的输出级别,指定为由逗号分隔的对组成“显示”以及下列选项之一:

  • “决赛”-显示最终迭代的结果

  • “通路”-显示每个迭代的结果

  • “关”-不显示任何内容

例子:“显示”,“最终”

距离度量单位,单位为p维空间,用于最小化,指定为由逗号分隔的对组成“距离”“平方欧几里德”“城市街区”的余弦“相关性”,或“汉明”

kmeans为支持的距离度量以不同的方式计算质心集群。万博1manbetx该表总结了可用的距离度量。在公式,x是一个观察(即,一行X),c是质心(行向量)。

距离度量 描述 公式
“平方欧几里德”

平方欧氏距离(默认值)。每个质心是该簇中点的平均值。

d x c ) x c ) x c )

“城市街区”

绝对差值之和,即l1的距离。每个质心是该集群中各点的分量中值。

d x c ) j 1 p | x j c j |

的余弦

1减去点之间夹角的余弦值(作为向量)。每个质心是该聚类中的点的均值,将这些点归一化为单位欧几里得长度。

d x c ) 1 x c x x ) c c )

“相关性”

一减去点之间的样本相关性(作为值的序列处理)。每个质心是该聚类中各点的分量均值,对这些点进行中心和归一化,使其均值和单位标准差为零。

d x c ) 1 x x ¯ ) c c ¯ ) x x ¯ ) x x ¯ ) c c ¯ ) c c ¯ )

哪里

  • x ¯ 1 p j 1 p x j ) 1 p

  • c ¯ 1 p j 1 p c j ) 1 p

  • 1 p 行向量是p的人。

“汉明”

这个度量仅适用于二进制数据。

它是不同位的比例。每个质心是该集群中各点的分量中值。

d x y ) 1 p j 1 p x j y j

哪里为指标函数。

例子:“距离”,“城市街区”

如果集群失去了所有的成员观测值,则执行该操作“EmptyAction”和下列选项之一。

价值 描述
“错误”

将空集群视为错误。

“下降”

删除任何变为空的集群。kmeans中设置相应的返回值CD

“单身”

创建一个新的集群,由离中心最远的一个点组成(默认)。

例子:“清空操作”,“错误”

最大迭代次数,由逗号分隔对组成“MaxIter”一个正整数。

例子:麦克斯特,1000年

数据类型:|

在线更新标志,指定为逗号分隔对,由“在线阶段”“关”“上”

如果OnlinePhase,然后kmeans除批量更新阶段外,还执行在线更新阶段。对于大型数据集来说,在线阶段可能会很耗时,但可以保证解决方案是距离标准的局部最小值。换句话说,软件找到一个数据分区,在这个分区中,将任何一个单点移动到不同的集群中,都会增加距离的总和。

例子:“OnlinePhase”,“上”

用于控制最小化拟合准则的迭代算法的选项,指定为由逗号分隔的对组成“选项”和返回的结构数组statset.万博1manbetx结构数组支持的字段指定控制迭代算法的选项。

该表总结了受支持的字段。万博1manbetx注意,受支持的字段需要Par万博1manbetxallel Computing Toolbox™。

描述
“溪流”

一个兰德斯特朗对象或此类对象的单元格数组。如果没有指定kmeans使用默认流。如果指定,使用单个对象,除非存在以下所有条件:

  • 你有一个开放的平行池。

  • UseParallel真正的

  • UseSubstreams

在本例中,使用与并行池相同大小的单元格数组。如果并行池未打开,则必须提供一个随机数字流。

“UseParallel”
  • 如果真正的复制>1那么kmeans实现了k-表示并行处理每个副本的算法。

  • 如果未安装并行计算工具箱,则以串行方式进行计算。默认值是,表示串行计算。

“使用子流” 设置为真正的以可复制的方式并行计算。默认值为.要重复计算,请设置对于允许子流的类型:“mlfg6331_64”“mrg32k3a”

为了确保更可预测的结果,使用parpool(并行计算工具箱)并在调用之前显式地创建并行池kmeans和背景“选项”,statset (UseParallel, 1)

例子:“选项”,statset (UseParallel, 1)

数据类型:结构体

使用新的初始集群质心位置重复集群的次数,指定为逗号分隔的对组成“复制品”和一个整数。kmeans返回最低的解sumd

你可以设置“复制品”方法的值可以隐式地提供一个3-D数组“开始”名称-值对的论点。

例子:“复制品”,5

数据类型:|

选择初始簇质心位置的方法(或种子),指定为逗号分隔的对,由“开始”“集群”“加”“样本”“制服”,数字矩阵或数字数组。该表总结了选择种子的可用选项。

价值 描述
“集群”

对随机的10%子样本执行初步聚类阶段X当子样本中的观测数大于k。此初始阶段本身使用初始化“样本”

如果10%的随机子样本中的观测数小于k,然后软件选择k来自X在随机的。

“加”(默认) 选择k通过实现k——+ +算法用于集群中心初始化。
“样本” 选择k来自X在随机的。
“制服” 选择k点的范围均匀地随机分布X.对于汉明距离无效。
数字矩阵 k——- - - - - -p质心起始位置矩阵。的行开始对应于种子。软件的推断k从第一个维度开始,所以你可以通过[]k
数字数组 k——- - - - - -p——- - - - - -r质心起始位置数组。每页的行对应种子。第三个维度调用集群例程的复制。页面j包含用于复制的种子集j.软件推断复制的数量(由“复制品”名称-值对参数)从第三维的大小。

例子:“开始”、“样本”

数据类型:字符|一串||

输出参数

全部折叠

作为数字列向量返回的群集索引。idx有多少行X,每行表示相应观测的群集分配。

群集中心位置,以数字矩阵的形式返回。C是一个k——- - - - - -p矩阵,行j簇的质心是什么j

在点到质心距离的簇和内,作为数字列向量返回。sumd是一个k-by-1向量,其中元素j簇内点到质心距离的总和j.默认情况下,kmeans使用欧几里得距离的平方(见“距离”指标)。

每个点到每个质心的距离,以数字矩阵的形式返回。D是一个n——- - - - - -k矩阵,其中元素(j)距离观察的距离是多少j为重心.默认情况下,kmeans使用欧几里得距离的平方(见“距离”指标)。

更多关于

全部折叠

k-均值聚类

k - means聚类,或劳埃德算法[2],是一种迭代的数据分区算法,用于分配n对其中一个的观测k由质心定义的簇,其中k在算法开始之前选择。

算法进行如下:

  1. 选择k初始集群中心(重心).例如,选择k随机观察(使用“开始”、“样本”)或使用k——+ +算法用于群集中心初始化(默认设置)。

  2. 计算所有观测值到每个质心的点到簇质心距离。

  3. 有两种方式进行(由OnlinePhase):

    • 批量更新-将每个观测值分配到离中心最近的星系团。

    • 在线更新-如果重新分配减少了簇内点到簇心距离的平方和和,则单独将观测值分配到不同的质心。

    有关详细信息,请参阅算法

  4. 计算每个簇中观测值的平均值,以获得k新的重心位置。

  5. 重复步骤2到步骤4,直到集群分配不变,或者达到最大迭代次数。

k——+ +算法

k——+ +算法用启发式方法寻找质心种子k——集群。根据亚瑟和瓦西里维茨基的说法[1]k-means++提高了Lloyd 's算法的运行时间,以及最终解决方案的质量。

k-means++算法选择种子如下,假设簇的数量为k

  1. 从数据集中均匀随机选取一个观测值,X这个chosen observation is the first centroid, and is denotedc1

  2. 计算从每个观测到的距离c1.表示距离cj和观察作为 d x c j )

  3. 选择下一个质心,c2随机从X有可能

    d 2 x c 1 ) j 1 n d 2 x j c 1 )

  4. 选择中心j

    1. 计算从每个观测到每个质心的距离,并将每个观测分配到其最近的质心。

    2. = 1,...,np= 1,...,j–1,选择质心j随机从X有可能

      d 2 x c p ) h x h C p d 2 x h c p )

      哪里Cp是最接近质心的所有观测值集cpx属于Cp

      也就是说,选择每个后续中心的概率与它自身到已经选择的最近中心的距离成正比。

  5. 重复步骤4,直到k选上的重心。

亚瑟和Vassilvitskii[1]通过对多个集群方向的模拟研究,证明k-means++比Lloyd算法更快地收敛到更低的簇内平方和点到簇质心距离。

算法

  • kmeans使用两阶段迭代算法最小化点到质心的距离之和,在所有情况下求和k集群。

    1. 第一阶段使用批量更新,其中每次迭代包括一次将点重新分配到最近的簇质心,然后重新计算簇质心。此阶段偶尔不会收敛到局部最小值的解决方案。也就是说,将任何单个点移动到不同簇会增加距离的总和这更可能适用于小数据集。批处理阶段很快,但可能仅近似于作为第二阶段起点的解决方案。

    2. 第二阶段使用在线更新,如果这样做可以减少距离的总和,那么将单独重新分配点,并且在每次重新分配后重新计算聚类质心。在此阶段的每个迭代包含一次遍历所有点。这个相位收敛到一个局部最小值,尽管可能有其他具有更小的总距离和的局部最小值。一般来说,寻找全局最小值是通过穷尽地选择起始点来解决的,但是使用几个随机起始点的重复通常会得到一个全局最小值的解。

  • 如果复制r>1及开始+(默认值),然后软件进行选择r可能是不同的种子根据k——+ +算法

  • 如果启用UseParallel选择权选择权复制> 1,然后每个工蜂并行选择种子和集群。

工具书类

亚瑟,大卫和塞吉·瓦西里维茨基。" K-means++:小心播种的好处"SODA ' 07:第十八届ACM-SIAM年度离散算法研讨会论文集.2007年,页1027 - 1035。

[2] Lloyd, Stuart P. < PCM中的最小二乘量化>IEEE信息理论汇刊1982年第28卷,第129-137页。

[3] 塞伯,G.A.F。多变量观测.John Wiley & Sons, Inc., 1984。

[4] 斯帕特,H。聚类剖析与分析:理论,FORTRAN程序,实例.J.戈德施密特(J. Goldschmidt)翻译。纽约:霍尔斯特德出版社,1985年。

扩展能力

之前介绍过的R2006a