大数据分析-第七章 聚类

大数据分析-第七章 聚类Lecture7 聚类 针对高维数据 我们有一个数据点云 并且我们想要理解其结构 1 什么是聚类 聚类是一种无监督学习 有时候被叫做被统计学分类 被物理学家排序 被营销人员分段 将数据划分成类 并且满足以下两个条件 类内相似度高 类间相似度低 不同于分类问题的是

大家好,我是讯享网,很高兴认识大家。

Lecture7-聚类

针对高维数据,我们有一个数据点云,并且我们想要理解其结构

1. 什么是聚类

  1. 聚类是一种无监督学习,有时候被叫做被统计学分类、被物理学家排序、被营销人员分段
  2. 将数据划分成类,并且满足以下两个条件:
    1. 类内相似度高
    2. 类间相似度低
  3. 不同于分类问题的是,我们直接从数据中获取到类标签和类的数量,也就是找到自然分类。

2. 聚类的应用

应用方向 描述
市场营销 帮助市场营销人员根据他们的用户发现独特的分组,然后使用这个发现(只是)来发展有针对性营销程序
土地使用 在地球观测数据库中确定类似土地利用的区域
保险 发现具有索赔成本的汽车保险持有人分组
城市规划 根据房屋类型识别房屋组,重视地理位置
地震学 观察到的地震震中应沿大陆断层聚集

3. 聚类度量

3.1. 度量距离

  1. 定义:令 O 1 O_1 O1 O 2 O_2 O2是来自可能对象集合的两个对象。 O 1 O_1 O1 O 2 O_2 O2之间的距离是一个实数,表示为 D ( O 1 , O 2 ) D(O_1, O_2) D(O1,O2)


讯享网

3.1.1. 度量距离的性质引入

我们观察黑盒,我们可以发现关于两个变量的一个函数,这个哈数可能比较简单,也可能比较复杂,但是我们很自然的想要知道这个函数有什么性质。

3.1.2. 度量距离的性质

性质 形式化表述 描述
对称性 D(A, B) = D(B, A) 不然A和B相似,但是B和A不相似
自相似常量 D(A, A) = 0 不然A比B还像B
正向性 D(A, B) = 0 iff A = B 不然你的世界里有不同的物体,但是你不能分辨他们
三角不等式 D ( A , B ) ≤ D ( A , C ) + D ( B , C ) D(A, B) \leq D(A, C) + D(B, C) D(A,B)D(A,C)+D(B,C) A非常像B,A非常像C,但是B很不像C

3.2. 编辑距离

  1. 我们是可以只使用替换、插入和删除将字符串Q转换为字符串C
  2. 假设每一个操作都有一个代价与之相关联
  3. 两个字符串之间的相似度被从字符串Q转换为字符串C的最小代价

3.3. 聚类算法的理想特性

  1. 时间和空间上规模可控,对输入顺序不敏感,可以结合用户给定的约束
  2. 有能力处理不同的数据类型:可以处理二维及以上平面
  3. 有能力去处理噪声和离群点
  4. 需要极少的领域知识去了解输入变量参数
  5. 可解释容易使用

4. 聚类问题定义

  1. 给定一组点,并带有点之间的距离的概念,将这些点分组为一定数量的簇,以便
    1. 一个簇中的成员彼此之间足够相似
    2. 不同簇间的成员彼此并不相似
  2. 通常:
    1. 数据点是在高维空间
    2. 相似度是通过举例度量来定义:欧几里得,余弦,雅卡德,编辑距离等

4.1. 类簇和离群点

4.2. 难点与挑战

  1. 二维空间下的聚类问题相对比较简单,然而在很多的应用中,并不是在二维空间上操作,而是十维或者更高维度。
  2. 小数据量的聚类问题相对比较简单,然而在很多的应用中,数据量是相对比较大的。
  3. 在大多数情况下,外观并不具有欺骗性(指类的形状)
  4. 高维空间则是不一样,几乎所有成对的点都在大约相同的距离处

4.3. 星系问题

  1. 20亿个"天体"的目录通过其在7个维度(频带)中的辐射来表示对象
  2. 问题:聚集到类似的物体中,例如星系,附近的恒星,类星体等
  3. 斯隆数字天空调查

4.4. 音乐CD问题

  1. 音乐分为几类,客户更喜欢几类
  2. 问题:类别到底是什么?
  3. 由一组购买CD的客户代表CD
  4. 相似的CD具有相似的客户群,反之亦然
  5. 所有CD的空间:
    1. 想一个暗淡的空间。对于每个客户
      1. 向量中的值只能是0(未购买)或1(已购买)
      2. CD是此空间中的一个点( x 1 , x 2 , . . . , x k ) x_1, x_2, ..., x_k) x1,x2,...,xk),如果第i个客户购买了CD,则 x i = 1 x_i=1 xi=1
    2. 对于亚马逊,规模为数千万甚至更多。
    3. 任务:查找相似的CD的簇

4.5. 文档

  1. 使用向量来代表一个文档: ( x 1 , x 2 , . . . , x k ) (x_1,x_2,...,x_k) (x1,x2,...,xk) 如果在排列中第i个位置上的单词出现在文档中,则 x i = 1 x_i = 1 xi=1
  2. 如果k是无限的也没有什么问题,我们不限制词集的大小
  3. 带有相似词集的文档可能涉及同一主题

4.5.1. 距离度量

  1. 理想:语义相似。
  2. 实用:术语统计相似性
    1. 我们将使用余弦相似度
    2. 文档被存储成向量
    3. 对于许多算法,更容易根据文档之间的距离(而不是相似性)来考虑。
    4. 我们将主要讲欧几里德距离:但是实际实现上使用的是余弦相似度
  3. 与CD一样,当我们将文档视为单词时,我们可以选择:
    1. 集合作为向量:使用余弦夹角
    2. 集合作为集合:使用Jaccard距离:用1-Jaccard index(相交元素处理其并集)
    3. 集合作为点:使用欧几里得距离

4.5.2. 硬聚类和软聚类

  1. 硬聚类:每个文档恰好属于一个聚类(更简单,更容易做到)
  2. 软聚类:一个文档可以属于多个聚类
    1. 对于创建可浏览层次结构的应用程序更有意义
    2. 您可能希望将一双运动鞋分为两类:
      1. 运动服装
      2. 鞋子
    3. 您只能使用软聚类方法来做到这一点。

5. 聚类方法

  1. 划分方法
  2. 基于层次的方法
  3. 基于模型的方法
  4. 基于密度的方法

5.1. 划分方法

  1. 分割方法:将n个对象的数据库D的分区构造为k个聚类的集合
  2. 给定一个k,找到一个k簇的分区,以优化所选分区标准
    1. 全局优化:详尽列举所有分区,属于启发式算法
    2. 启发式方法:k-mean和k-medoids算法
    3. k-mean法:每个聚类由聚类的中心表示,聚类中心不一定是实际存在的点
    4. k-medoids法:每个聚类由聚类中的一个对象表示

5.2. 启发式

  1. 启发式方法用于快速得出希望接近**答案的解决方案,即"**解决方案"。
  2. 启发式是"经验法则",有根据的猜测,直观的判断或简单的常识。
  3. 启发式是解决问题的一种通用方法。启发式作为名词是启发式方法的另一个名称。

5.3. 启发式算法

  1. 仿动物类的算法
    1. 粒子群优化
    2. 蚂蚁优化
    3. 鱼群算法
    4. 蜂群算法
  2. 仿植物类的算法
    1. 向光性算法
    2. 杂草优化算法
  3. 仿人类的算法
    1. 和声搜索算法

6. k-mean算法(启发式算法)

  1. 假设文档是一个实数向量
  2. 基于类中点的centroid(也称为重心或均值)的类

μ ( c ) = 1 ∣ c ∣ ∑ x ∈ c x \mu(c) = \frac{1}{|c|}\sum\limits_{x \in c}x μ(c)=c1xcx

  1. 将实例重新分配给类是基于到当前类centroid的距离:或者可以用相似性来等同地表述

6.1. 欧式空间的k-mean算法描述

  1. 假设是欧几里得空间/距离,k-mean算法过程
    1. 首先确定k(簇数)
    2. 随机选择k个点作为k个聚类的中心来初始化聚类,保证每一点都与其他的点尽可能的远
    3. 填充每个聚类
      1. 对于每个点,将其放置在当前centroid最近的聚类中
      2. 分配所有点后,更新k个聚类的centroid的位置
      3. 将所有点重新分配到它们最近的centroid:有时在群集之间移动点
      4. 重复2和3直到收敛,收敛被定义为点在簇之间不移动,centroid稳定
  2. 终止条件:(有很多的候选条件)
    1. 一个固定数量的循环次数
    2. 文档向量分簇不变
    3. centroid的位置不变

6.2. k-mean算法示例

6.2.1. 例子一

6.2.2. 例子二

6.3. 如何正确的选择k值

  1. 尝试不同的k,观察随着k增大,到centroid的平均距离的变化
  2. 平均值迅速下降直到右k,然后变化很小

K值选择过少 K值选择刚好 K值选择过多
  • k值选择过少:距离centroid长度过大
  • k值选择过多:在平均距离上很难有提升

6.4. k-mean的优缺点

6.4.1. 优点

  1. 相对高效: O(tkn),n是物体数量,k是聚类数量,t是迭代次数,一般来讲:k,t << n
  2. 通常以局部最优值终止。可以使用诸如模拟退火和遗传算法之类的技术找到全局最优值

6.4.2. 缺点

  1. 仅在定义均值时适用
  2. 需要预先指定k,即簇数
  3. 嘈杂的数据和异常值的问题
  4. 不适合发现具有非凸形状的聚类

7. 基于层次的方法

  1. 使用距离矩阵作为聚类标准。此方法不需要输入簇数k,但是需要终止条件

  1. 数据点的划分:数据点属于一个簇或者是数据点属于最近的一个簇

7.1. 基于层次的方法分类

  1. 基于聚合(自下而上):AGNES,最初每一个点都是一个簇,重复将两个最近的群集合并为一个
  2. 基于切分(自上而下):DIANA,从一个簇开始,进行递归拆分

7.2. 基于层次的核心操作

重复合并(或拆分)距离最近的两个簇

7.3. 度量簇距离的变量

  1. 单链接:大多数余弦相似度(单链接)的相似度
  2. 全链接:最远点的相似度,最小余弦相似度
  3. 质心:centroid最接近余弦的聚类
  4. 平均链接:成对元素之间的平均余弦

7.4. 基于层次的方法的三个重要问题

分为欧式空间和非欧式空间进行讨论:在非欧式空间中,我们唯一可以谈论的"位置"就是数据点本身,没有两点的"平均值"

  1. 您如何表示一个多点的簇?
  2. 您如何确定簇的附近?
  3. 什么时候停止合并簇?

7.4.1. 您如何表示一个多点的簇?

  1. 欧式空间:
    • centroid = 数据点的均值
    • 我们选择使用质心centroid作为簇的代表
  2. 非欧式空间:
    • clustroid = (数据)点与其他点"最近"
    • 最近的含义:
      • 最小化每个点之间的最大距离
      • 最小化每个点之间的平均距离
      • 最小化和其他店之间的距离平方和:对于距离矩阵d,簇C的中心c是: min ⁡ c ∑ x ∈ C d ( x , c ) 2 \min\limits_c\sum\limits_{x \in C} d(x, c)^2 cminxCd(x,c)2

7.4.2. 如何确定簇的附近

  1. 欧式空间:
    • 我们使用centroid的距离来度量簇的距离
  2. 非欧式空间
    • 当计算类间距离时,我们把clustroid作为centroid
    • clustroid的计算方法
      • 簇内距离:任何两个点之间的最小距离,每个群集中的一个
      • 选择簇的"内聚"概念,例如距clusteroid的最大距离,合并两个簇如果这两个簇的并集是最内聚的。
    • 内聚的定义:
      • 方法一:使用合并簇的直径=簇中点之间的最大距离
      • 方法二:使用簇中点之间的平均距离
      • 方法三:使用基于密度的方法,取直径或平均值。 距离,例如,除以群集中的点数

7.4.3. 欧式空间的合并层次方法实例

7.5. 基于层次的聚类的实现

  1. 在每个步骤中,计算所有簇对之间的成对距离,然后合并
  2. 时间复杂度: O ( N 3 ) O(N^3) O(N3)
  3. 如果我们使用优先级队列可以将时间复杂度降解到 O ( N 2 log ⁡ N ) O(N^2 \log N) O(N2logN),但是对于无法容纳在内存的大型数据集来说仍然太昂贵

7.6. 其他层次聚类方法

  1. 聚集聚类方法的主要缺点
    1. 伸缩性不好:时间复杂度至少为 O ( n 2 ) O(n^2) O(n2),其中n是对象总数
    2. 永远不能撤销以前所做的事情
  2. 将层次结构与基于距离的聚类集成
    1. BIRCH:使用CF树并逐步调整子簇的质量
    2. CURE:从聚类中选择分散良好的点,然后将它们向聚类中心缩小指定比例

7.7. BIRCH(层次聚类方法改进) TODO

  1. BIRCH:平衡迭代减少和聚类使用层次结构(Zhang,Ramakrishnan&Livny,1996)
  2. 逐步构建CF(聚类特征)树
    1. 参数:最大直径,最大子代数
    2. 阶段1:扫描数据库以构建初始的内存CF树(每个节点:#points,总和,平方和)
    3. 阶段2:使用任意聚类算法对CF树的叶子节点进行聚类
  3. 线性扩展:通过一次扫描即可找到良好的聚类,并通过几次其他扫描来提高质量
  4. 弱点:仅处理对数据记录顺序敏感的数字数据。

7.7.1. 聚类特征向量

7.7.2. CF Tree

7.8. CURE(Clustering Using REpresentatives),层次聚类方法的改进

  1. CURE:非球形簇,鲁棒的离群值
    1. 使用多个代表点评估群集之间的距离
    2. 如果一个级别包含k个簇,则停止创建簇层次结构

7.8.1. 基于平方误差的聚类方法的缺点

  1. 基于平方误差的聚类方法的弊端
    1. 仅考虑一个点作为簇的代表
    2. 仅适用于大小和密度相似的凸簇,并且如果可以合理估计k

7.8.2. CURE算法

  1. 抽取随机样本s
  2. 分区样本为大小为 s p \frac{s}{p} ps的p个分区
  3. 部分簇分区为 s p q \frac{s}{pq} pqs
  4. 簇部分簇,不断缩小中心点
  5. 磁盘上的标签数据

7.8.3. 数据划分和聚类

7.8.4. 缩小代表点

  • 将多个代表点向重心缩小几分之一。
  • 多个代表捕获簇的形状

8. 模型方法(Model-based methods)

  1. 基本思想:
    1. 把聚类作为概率估计
    2. 每个簇一个模型,提供一些参数
  2. 主要使用的是生成模型(Generative Model):假设数据是通过典型的概率分布生成的,满足相应的概率模型
    1. 选择簇的可能性
    2. 在簇中生成对象的可能性
    3. 推荐阅读:LDA的推导
  3. 找到最大似然或MAP模型
  4. 使用EM算法
  5. 聚类的质量:测试集的结果

8.1. 使用高斯方法合并

  1. 聚类模型:正态分布(均值,协方差)
  2. 假设:对角协方差,已知方差,所有聚类均相同
  3. 最大可能性:平均值 = 样本均值
  4. 但是给定簇的样本是什么?对应点属于簇的概率
  5. 平均值=点数和权的加权平均值,权就是概率
  6. 但要估计概率。我们需要模型
  7. "鸡和鸡蛋"问题:使用EM算法

8.2. 使用EM算法合并

  1. 初始化:随机选择均值
  2. E步骤:
    1. 对于所有的point和mean,计算 P r o b ( p o i n t ∣ m e a n ) Prob(point|mean) Prob(pointmean)
    2. P r o b ( m e a n ∣ p o i n t ) = P r o b ( p o i n t ∣ m e a n ) P r o b ( p o i n t ) Prob(mean|point) = \frac{Prob(point|mean)}{Prob(point)} Prob(meanpoint)=Prob(point)Prob(pointmean)
  3. M步骤
    1. 每一个mean都等于所有点的加权(Weight)均值
    2. 权(Weight) = Prob(mean|point)
  4. 重复直到收敛
  5. 保证收敛到局部最优
  6. K均值算法是EM算法的特例

8.3. EM算法

【机器学习基础】EM算法

8.4. 使用自分类合并

  1. 由NASA发明,使用了贝叶斯模型,在实践中被广泛使用
  2. Prob(attribute|class)的各种可能模型
  3. 缺少信息:每个样本点的类簇
  4. 像以前一样应用EM算法
  5. 缺少值的学习贝叶斯网的特殊情况

8.5. COBWEB方法

  1. 生成聚类树
  2. 每一个节点都有P(cluster)P(attribute|cluster)对每一个属性
  3. 物体被线性按序表示
  4. 操作:添加节点、新节点、合并、划分
  5. 质量度量:类别实用程序:增加属性/簇的可预测性

8.6. 神经网络方法

  1. 神经元 = 簇 = 内部空间的centroid
  2. 层 = 层次的级别
  3. 每层中有几个竞争的簇集
  4. 将对象顺序呈现给网络
  5. 在每个集合中,神经元竞争赢得对象
  6. 获胜的神经元移向物体
  7. 可以看作是从低级功能到高级功能的映射

8.7. 自组织特征映射(Self-organizing Feature Maps)

  1. 通过让多个单元竞争当前对象来执行聚类
  2. 权重向量最接近当前物体的单位获胜
  3. 获胜者及其邻居通过调整权重来学习
  4. SOM被认为类似于大脑中可能发生的过程
  5. 有助于可视化二维或3-D空间中的高维数据

8.8. 基于密度的方法

可以处理非凸数据

  1. 基于密度(局部聚类标准)的聚类,例如密度连接点
  2. 主要特点:
    1. 发现任意形状的簇
    2. 处理噪音
    3. 一次扫描
    4. 需要密度参数作为终止条件
  3. 代表性算法:
    1. DBSCAN(Ester等,1996)
    2. DENCLUE(Hinneburg&Keim,1998)

8.8.1. 基于密度的方法的参数

  1. 两个参数
    1. Eps:最大邻域半径
    2. MinPts:点的Eps邻域中的最小点数

N E p s ( p ) = { q ∈ D ∣ d i s t ( p , q ) ≤ E p s } N_{Eps}(p) = \{q \in D | dist(p, q) \leq Eps\} NEps(p)={ qDdist(p,q)Eps}

  1. 直接密度可达:一个点和另一个点直接密度可达,当且仅当q关于Eps, MinPts满足如下条件
    1. p ∈ N E p s ( q ) p \in N_{Eps}(q) pNEps(q)
    2. q是关键点: ∣ N E p s ( q ) ∣ ≥ M i n P t s |N_{Eps}(q)|\geq MinPts NEps(q)MinPts
  2. 如果使用p进行计算,没有找到点,则为边界点,然后使用下一个点进行查找

  1. 密度可达:如果有一条链 p 1 , . . . , p n , p 1 = q , p 2 = p p_1,...,p_n, p_1 = q,p_2 = p p1,...,pn,p1=q,p2=p,并且 p i p_i pi p i + 1 p_{i+1} pi+1两两可达,则点p和点q关于Eps、MinPts密度可达
  2. 密度连接:如果这里有一个点o,对于点p和点q都是点o关于Eps、MinPts密度可达,则点p和点q密度连接
Density-reachable Density-connected

8.8.2. BNSCAN:Density Based Spatial Clustering of Applications with Noise

  • 依靠基于密度的聚类概念:聚类定义为密度连接点的最大集合
  • 发现带有噪声的空间数据库中任意形状的簇

8.8.3. DENCLUE:使用密度函数

  • 基于密度的簇(Hinneburg&Keim,1998)
  • 主要特点
    • 适用于噪声较大的数据集
    • 允许对高维数据集中任意形状的簇进行紧凑的数学描述
    • 比其他算法快很多(比DBSCAN快45倍),但是需要大量参数
  • 使用网格单元,但仅保留有关确实包含数据点的网格单元的信息,并在基于树的访问结构中管理这些单元。
  • 影响功能:描述数据点在其邻域内的影响。
  • 数据空间的整体密度可以计算为所有数据点的影响函数的总和。
  • 可通过识别密度吸引子以数学方式确定聚类。
  • 密度吸引子是整体密度函数的局部最大值。
  • 影响函数例子

f G u a s s i a n ( x , y ) = e − d ( x , y ) 2 2 δ 2 f G a u s s i a n D ( x ) = ∑ i = 1 N e − d ( x , x i ) 2 2 δ 2 ▽ f G a u s s i a n ( x , x i ) D ( x , x i ) = ∑ i = 1 N ( x i − x ) e − d ( x , x i ) 2 2 δ 2 \begin{array}{l} f_{Guassian}(x,y) = e^{-\frac{d(x,y)^2}{2\delta^2}} \\ f^D_{Gaussian}(x) = \sum\limits_{i=1}^{N} e^{-\frac{d(x, x_i)^2}{2\delta^2}} \\ \triangledown f_{Gaussian(x, x_i)}^D(x, x_i) = \sum\limits_{i=1}^{N} (x_i - x) e^{-\frac{d(x, x_i)^2}{2\delta^2}} \end{array} fGuassian(x,y)=e2δ2d(x,y)2fGaussianD(x)=i=1Ne2δ2d(x,xi)2fGaussian(x,xi)D(x,xi)=i=1N(xix)e2δ2d(x,xi)2

9. 评价聚类的好坏

9.1. 内部标准

良好的簇将产生高质量的簇,其中:

  1. 组内(即组内)相似度很高
  2. 组间相似度低
  3. 群集的测量质量取决于文档表示形式和所使用的相似性度量

9.2. 外部标准

  1. 通过发现黄金标准数据中某些或所有隐藏模式或潜在类别的能力来衡量质量
  2. 评估关于真正的聚类:需要标记的数据
  3. 假设文档使用C黄金标准类,而我们的聚类算法将生成带有 n i n_i ni个成员的K个聚类 w 1 , w 2 , . . . , w n w_1, w_2, ..., w_n w1,w2,...,wn

9.2.1. 简单的度量:纯度

  1. 群集πi中的优势类与群集ωi的大小之比

P u r i t y ( w i ) = 1 n i max ⁡ j ( n i j ) , j ∈ C Purity(w_i) = \frac{1}{n_i}\max\limits_{j}(n_{ij}), j \in C Purity(wi)=ni1jmax(nij),jC

  1. 有偏差,因为具有n个簇使纯度最大化
  2. 其他是簇中类的熵(或类与簇之间的相互信息)

9.2.2. 配对决策之间的兰德指数度量(RI = 0.68)

9.2.3. Rand Index和簇F度量

R I = A + D A + B + C + D RI = \frac{A + D}{A + B + C + D} RI=A+B+C+DA+D

  1. 比较标准准确率和召回率

P = A A + B R = A A + C \begin{array}{l} P = \frac{A}{A + B} \\ R = \frac{A}{A + C} \\ \end{array} P=A+BAR=A+CA

  1. 人们还定义和使用簇F度量,这可能是更好的度量。

10. 总结

  1. 在聚类中,无需人工输入即可从数据推断聚类(无监督学习)
  2. 但是,在实践中,还不太清楚:影响聚类结果的方法有很多:聚类数,相似性度量,文档表示,
小讯
上一篇 2025-04-03 19:21
下一篇 2025-02-15 19:15

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/56772.html