通俗易懂讲透模糊C均值聚类(FCM)
通俗易懂讲透模糊C均值聚类FCM本科生/研究生一看就懂模糊C均值Fuzzy C-Means简称FCM是软聚类最经典的算法和K-Means最大的区别一个点可以同时属于多个类只是隶属程度不同。本文用大白话生活例子核心公式可直接运行代码对比总结适合课堂笔记、实验报告。一、先搞懂什么是模糊聚类硬聚类K-Means一个样本只属于一类非黑即白。例这个水果100%苹果不可能是梨。软聚类FCM一个样本按概率属于多类边界更真实。例一个青苹果70%像苹果30%像梨。一句话总结FCM 带“隶属度”的K-Means更贴近现实世界的模糊边界。二、FCM 核心思想超通俗先设定要分几类c给每个点随机分配隶属度属于每一类的概率和为1用隶属度加权计算簇中心根据距离更新隶属度重复迭代直到簇中心几乎不动就像先瞎猜归属 → 算中心 → 看远近 → 修正概率 → 稳定为止三、核心符号与目标函数报告直接用基本符号N样本数c簇数xix_ixi第i个样本cjc_jcj第j个簇中心uiju_{ij}uij样本i属于簇j的隶属度∈[0,1]且每行和为1m模糊系数m1常用2m越大越模糊目标函数最小化Jm∑i1N∑j1cuijm⋅∥xi−cj∥2J_m\sum_{i1}^N\sum_{j1}^c u_{ij}^m \cdot \|x_i-c_j\|^2Jm∑i1N∑j1cuijm⋅∥xi−cj∥2含义加权距离和越小越好权重是隶属度的m次方。四、两个核心更新公式必须背1. 簇中心更新加权平均cj∑i1Nuijm⋅xi∑i1Nuijmc_j \frac{\sum_{i1}^N u_{ij}^m \cdot x_i}{\sum_{i1}^N u_{ij}^m}cj∑i1Nuijm∑i1Nuijm⋅xi不是普通平均是隶属度越大权重越高2. 隶属度更新uij1∑k1c(∥xi−cj∥∥xi−ck∥)2m−1u_{ij} \frac{1}{\sum_{k1}^c \left( \frac{\|x_i-c_j\|}{\|x_i-c_k\|} \right)^{\frac{2}{m-1}}}uij∑k1c(∥xi−ck∥∥xi−cj∥)m−121离哪个中心越近隶属度越高距离相等 → 隶属度平均五、FCM 完整算法流程初始化随机生成隶属度矩阵U每行归一化和为1。更新簇中心用上面加权公式计算。更新隶属度按距离重新计算。收敛判断中心变化很小就停止。输出簇中心 隶属度矩阵。硬标签取np.argmax(U, axis1)六、关键参数 m模糊系数m1退化成K-Means硬聚类m2最常用平衡模糊与聚类效果m↑边界越模糊隶属度越平均推荐范围1.5 ~ 2.5七、实战代码红酒数据集聚类可直接复制包含FCM手写实现 PCA可视化 隶属度曲线 收敛曲线# 安装依赖# pip install numpy scikit-learn matplotlibimportnumpyasnpimportmatplotlib.pyplotaspltfromsklearn.datasetsimportload_winefromsklearn.preprocessingimportStandardScalerfromsklearn.decompositionimportPCA# 1. FCM 算法实现 deffuzzy_c_means(X,c,m2.0,max_iter200,error1e-6):NX.shape[0]# 初始化隶属度矩阵Unp.random.rand(N,c)UU/U.sum(axis1,keepdimsTrue)J_history[]for_inrange(max_iter):U_oldU.copy()# 更新簇中心umU**m centers(um.T X)/um.sum(axis0,keepdimsTrue).T# 计算距离Dnp.linalg.norm(X[:,None]-centers,axis2)Dnp.clip(D,1e-12,None)# 更新隶属度exp2/(m-1)U1/np.sum((D[:,:,None]/D[:,None,:])**exp,axis2)# 目标函数Jnp.sum((U**m)*(D**2))J_history.append(J)# 收敛ifnp.linalg.norm(U-U_old)error:breakreturncenters,U,J_history# 2. 数据加载与预处理 dataload_wine()Xdata.data scalerStandardScaler()X_scaledscaler.fit_transform(X)# PCA降维到2DpcaPCA(n_components2)X_pcapca.fit_transform(X_scaled)# 3. 运行FCM n_clusters3m2.0centers,U,J_historyfuzzy_c_means(X_pca,n_clusters,mm)labelsnp.argmax(U,axis1)# 4. 可视化 # 4.1 聚类结果图plt.figure(figsize(9,6))colors[red,green,blue]foriinrange(n_clusters):plt.scatter(X_pca[labelsi,0],X_pca[labelsi,1],ccolors[i],labelfCluster{i1},s40)plt.scatter(centers[:,0],centers[:,1],cyellow,s300,marker*,labelCenter)plt.title(FCM Clustering (Wine Dataset))plt.legend()plt.show()# 4.2 隶属度曲线plt.figure(figsize(10,4))foriinrange(n_clusters):plt.plot(U[:,i],labelfCluster{i1})plt.title(Membership Degree)plt.ylabel(Uij)plt.legend()plt.show()# 4.3 收敛曲线plt.figure(figsize(6,4))plt.plot(J_history)plt.title(Objective Function Convergence)plt.xlabel(Iter)plt.ylabel(Jm)plt.show()代码输出三张图聚类散点图清晰看到簇与中心隶属度曲线边界点呈现多类混合收敛曲线证明算法稳定下降八、FCM 优缺点面试/报告必背✅ 优点软分类更真实描述边界模糊数据可调模糊程度用m控制软硬输出隶属度可直接用于决策、加权、融合原理接近K-Means容易理解与实现❌ 缺点必须指定簇数c对初始值敏感易局部最优计算比K-Means慢对异常值敏感欧式距离通病九、FCM vs K-Means vs GMM超清晰对比算法类型簇数需指定对噪声输出适用场景K-Means硬聚类是差标签大数据、快速聚类FCM软聚类是中隶属度边界模糊、医学/图像分割GMM概率软聚类是较好概率数据服从高斯分布十、什么时候用 FCM数据边界不清晰存在交叠需要隶属度做后续分析图像分割、医学信号、用户偏好分析中小规模数据不适合超大数据 → 用K-Means/Mini-Batch K-Means任意形状、带噪声 → 用DBSCAN不知道簇数 → 用Mean Shift/层次聚类十一、一句话总结模糊C均值FCM是带隶属度的软聚类算法通过迭代优化加权距离让每个样本按概率属于多类特别适合边界模糊、需要精细划分的场景。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2526740.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!