别再只用K-Means了!用MATLAB手把手教你搞定更抗噪的K-Medoids聚类(附完整代码)
超越K-Means用MATLAB实战K-Medoids聚类算法解决噪声数据难题当你的数据集里混入了异常值K-Means的表现往往会让你失望——那些偏离群体的数据点像磁铁一样把聚类中心拽离合理位置。这时候K-Medoids算法就该登场了。与K-Means不同K-Medoids选择实际存在的样本点作为聚类中心medoids这种特性让它对噪声和异常值有着天然的抵抗力。1. 为什么K-Means在噪声数据上会失败K-Means算法通过计算簇内数据点的均值来确定新的聚类中心这个看似合理的策略在面对异常值时却成了致命弱点。想象一下在一个客户消费数据集中99%的客户月消费在1000-5000元之间但有少数几个极端客户消费高达50万元。这些异常值会显著拉高均值导致聚类中心严重偏离大多数数据点的真实分布。K-Means的核心问题对异常值极度敏感聚类中心可能落在没有实际数据点的位置使用欧氏距离对数据分布形状有特定假设相比之下K-Medoids选择实际存在的数据点作为中心避免了均值带来的偏差。在同一个客户消费数据集中即使存在极端高消费客户K-Medoids也会选择一个最能代表群体的实际客户作为中心点而不是计算可能没有实际意义的平均值。2. K-Medoids算法原理深度解析K-Medoids算法的核心思想可以概括为选择能够最小化簇内不相似度的实际数据点作为代表。这种策略让它特别适合处理以下场景数据包含噪声和异常值距离度量不是欧氏距离如曼哈顿距离需要聚类中心有实际意义如零售选址问题2.1 算法步骤详解K-Medoids的标准实现PAM算法包含以下关键步骤初始化随机选择k个数据点作为初始medoids分配阶段将每个非medoid点分配到最近的medoid所在的簇交换阶段尝试用非medoid点替换当前medoid计算总代价变化迭代重复步骤2-3直到medoids不再变化或达到最大迭代次数% PAM算法核心交换阶段伪代码 for each medoid m for each non-medoid point o temp_medoids medoids; temp_medoids(m) o; total_cost calculate_total_cost(temp_medoids); if total_cost current_cost medoids temp_medoids; current_cost total_cost; end end end2.2 代价函数设计K-Medoids算法的优化目标是最小化总绝对误差Total Absolute ErrorTAE Σ Σ d(p, m_i) i p∈C_i其中d是距离度量常用曼哈顿距离m_i是第i个簇的medoidC_i是第i个簇的所有点。距离度量选择对比度量类型公式对异常值敏感度适用场景欧氏距离√(Σ(x_i-y_i)²)高球形分布数据曼哈顿距离Σx_i-y_i余弦相似度(x·y)/(x3. MATLAB实战从数据准备到结果可视化让我们通过一个完整的MATLAB示例演示如何处理含噪声数据的聚类问题。3.1 生成模拟数据首先创建包含三个簇和随机噪声的测试数据% 生成三个清晰簇 cluster1 randn(100,2) * 0.5 repmat([2,2],100,1); cluster2 randn(80,2) * 0.6 repmat([6,3],80,1); cluster3 randn(120,2) * 0.4 repmat([4,7],120,1); % 添加噪声点 noise [rand(10,2)*10; [8,0.5]; [1,8]; [0.5,0.5]; [9,9]]; % 合并数据 X [cluster1; cluster2; cluster3; noise]; % 可视化原始数据 figure; scatter(X(:,1), X(:,2), filled); title(含噪声的原始数据分布);3.2 实现K-Medoids算法下面是完整的K-Medoids算法MATLAB实现function [medoids, clusters] kmedoids(X, k, max_iter) % 输入参数 % X - 数据矩阵(n×d) % k - 簇数量 % max_iter - 最大迭代次数 [n, d] size(X); % 1. 随机初始化medoids rng(42); % 设置随机种子保证可重复性 medoid_indices randperm(n, k); medoids X(medoid_indices, :); % 2. 初始化变量 clusters zeros(n, 1); prev_medoids zeros(size(medoids)); iter 0; % 3. 主循环 while ~isequal(medoids, prev_medoids) iter max_iter prev_medoids medoids; % 3.1 分配点到最近的medoid distances pdist2(X, medoids, cityblock); % 使用曼哈顿距离 [~, clusters] min(distances, [], 2); % 3.2 更新每个簇的medoid for i 1:k cluster_points X(clusters i, :); if ~isempty(cluster_points) % 计算所有点作为medoid的代价 intra_distances pdist2(cluster_points, cluster_points, cityblock); total_cost sum(intra_distances, 2); % 选择代价最小的点作为新medoid [~, min_idx] min(total_cost); medoids(i, :) cluster_points(min_idx, :); end end iter iter 1; fprintf(迭代 %d: medoids变化量 %.4f\n, iter, norm(medoids - prev_medoids)); end end3.3 结果可视化与分析运行算法并可视化结果% 运行K-Medoids k 3; [medoids, clusters] kmedoids(X, k, 100); % 可视化聚类结果 figure; colors [r, g, b, c, m, y, k]; for i 1:k scatter(X(clustersi,1), X(clustersi,2), filled, MarkerFaceColor, colors(i)); hold on; end % 标记medoids scatter(medoids(:,1), medoids(:,2), 200, k, p, filled); title(K-Medoids聚类结果); legend(簇1, 簇2, 簇3, Medoids); hold off;提示在实际应用中建议多次运行算法不同随机初始化并选择代价最小的结果以减少局部最优的影响。4. 高级技巧与实战建议4.1 如何确定最佳K值确定合适的簇数量k是聚类分析中的关键挑战。以下是几种实用方法肘部法则绘制不同k值对应的总代价曲线选择拐点轮廓系数计算每个点的轮廓系数并取平均值Gap统计量比较实际数据与参考分布的聚类质量差异% 肘部法则实现示例 k_range 1:8; costs zeros(size(k_range)); for i 1:length(k_range) [~, ~, distances] kmedoids(X, k_range(i), 100); costs(i) sum(min(distances, [], 2)); end figure; plot(k_range, costs, -o); xlabel(簇数量 k); ylabel(总代价); title(肘部法则确定最佳k值);4.2 处理大规模数据的优化策略标准PAM算法的时间复杂度为O(k(n-k)²)对于大规模数据效率较低。可以考虑以下优化CLARA算法在数据子集上应用PAM选择最佳结果并行计算利用MATLAB的并行计算工具箱加速距离计算近似算法如FastPAM等改进版本算法变体对比算法时间复杂度适用数据规模精度PAMO(k(n-k)²)小规模(1000)高CLARAO(ks² k(n-k))中大规模中FastPAMO(n²)中等规模高BanditPAMO(n log n)大规模较高4.3 常见问题排查当K-Medoids表现不佳时可以检查以下方面距离度量选择不当尝试不同的距离度量如欧氏距离、曼哈顿距离、余弦距离异常值过多考虑先进行异常值检测和过滤数据尺度不一致对特征进行标准化处理初始medoids选择不佳尝试k-means风格的初始化% 改进的medoids初始化类似k-means function medoids kmedoids_plusplus(X, k) [n, ~] size(X); medoids zeros(k, size(X,2)); % 1. 随机选择第一个medoid medoids(1,:) X(randi(n),:); for i 2:k % 2. 计算每个点到最近medoid的距离 distances pdist2(X, medoids(1:i-1,:), cityblock); min_distances min(distances, [], 2); % 3. 按距离平方的概率选择下一个medoid probabilities min_distances.^2 / sum(min_distances.^2); medoids(i,:) X(find(rand cumsum(probabilities), 1), :); end end5. K-Medoids在实际项目中的应用案例5.1 零售店铺选址分析在连锁零售店铺选址中K-Medoids可以帮助识别具有相似特征的区域中心。与K-Means相比它的优势在于选择的中心点是实际存在的位置如现有商圈对异常区域如机场、火车站等特殊商圈不敏感结果更容易解释和落地% 店铺选址数据示例 load(store_locations.mat); % 加载经纬度数据 % 使用K-Medoids寻找区域中心 k 5; % 计划开设5家新店 [medoids, ~] kmedoids(store_locations, k, 50); % 在地图上可视化 figure; geoscatter(store_locations(:,1), store_locations(:,2), 20, b, filled); hold on; geoscatter(medoids(:,1), medoids(:,2), 200, r, p, filled); title(零售店铺选址分析 - K-Medoids聚类结果); legend(现有店铺, 推荐新店位置);5.2 医疗图像分析在医疗图像分割中K-Medoids可用于识别组织样本中的典型细胞形态选择最具代表性的细胞作为medoids排除异常细胞如病变细胞对聚类中心的干扰结果更符合医生的诊断习惯基于实际样本实际项目经验在处理病理切片图像时我们发现K-Medoids选择的代表性细胞比K-Means的虚拟中心更能帮助医生理解算法决策过程。特别是在排除异常细胞影响方面K-Medoids的表现明显优于K-Means。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2558021.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!