019、无监督学习:聚类分析与降维技术(K-Means, PCA)
上周排查一个嵌入式设备的内存泄漏问题dump出来的堆内存数据有十几万条记录肉眼根本看不出规律。后来把每条内存分配记录抽象成分配大小、存活时间、调用栈哈希三个特征扔进K-Means里跑了三分钟五个聚类中心清晰地暴露了五种泄漏模式——这种从混沌数据里自动发现结构的能力就是无监督学习的魅力。聚类当数据没有标签时现实项目里带标签的数据永远是稀缺品。生产线传感器采集的振动信号、用户行为埋点日志、芯片测试的时序波形大多是没有明确分类的原始数据。聚类分析就是在这样的数据里寻找“物以类聚”的天然分组。K-Means实战踩坑记录直接上代码这是我在分析物联网设备网络流量时的片段# 错误示范直接对原始数据跑K-Meansfromsklearn.clusterimportKMeans kmeansKMeans(n_clusters3)clusterskmeans.fit_predict(raw_data)# 这里踩过大坑问题在哪原始数据里可能同时存在“连接时长”0-3600秒和“数据包大小”0-1500字节这类量纲不同的特征直接聚类会被大数值特征主导。必须标准化fromsklearn.preprocessingimportStandardScaler scalerStandardScaler()scaled_datascaler.fit_transform(raw_data)# 减去均值除以标准差# 肘部法则确定K值实际项目里别盲目用inertias[]forkinrange(2,10):kmeansKMeans(n_clustersk,random_state42,n_init10)# n_init必须指定kmeans.fit(scaled_data)inertias.append(kmeans.inertia_)# 画图找拐点但真实场景要结合业务理解更实际的场景是芯片测试数据聚类。我们曾经收集了5000颗芯片的72项测试参数用K-Means分出三个簇簇0是合格芯片簇1是功耗偏高的边缘芯片簇2是明显有缺陷的芯片。关键是聚类后要人工检查每个簇的统计特征# 查看每个簇的特征均值foriinrange(3):cluster_samplesraw_data[labelsi]print(f簇{i}样本数{len(cluster_samples)})print(f平均频率{cluster_samples[freq].mean():.2f}MHz)print(f平均漏电流{cluster_samples[leakage].mean():.2f}nA)print(-*40)注意几个细节K-Means对初始中心点敏感跑多次取最优高维数据可能要用MiniBatchKMeans加速球形簇假设不一定成立试试DBSCAN。降维从信息冗余到特征精华嵌入式开发的朋友肯定熟悉这种场景ADC采集的1024点波形、图像传感器的256维特征向量、协议栈的128维状态编码——维度灾难真实存在。降维不是为了炫技是为了让后续算法跑得更快、结果更可解释。PCA主成分分析实战最近优化一个图像识别模型输入是224x224的灰度图直接展开成50176维向量训练慢到无法忍受。PCA出场fromsklearn.decompositionimportPCA# 先别急着降维看看方差解释率pca_fullPCA()pca_full.fit(training_images)cumulative_variancenp.cumsum(pca_full.explained_variance_ratio_)# 找到保留95%方差的维度n_componentsnp.argmax(cumulative_variance0.95)1print(f保留95%方差需要{n_components}个主成分)# 通常远小于原维度# 正式降维pcaPCA(n_componentsn_components,random_state42)reduced_imagespca.fit_transform(training_images)降维后的数据量从GB级降到MB级训练时间从小时降到分钟。但PCA有前提条件线性假设。如果数据存在非线性结构比如流形得考虑t-SNE或UMAP。不过注意t-SNE适合可视化而不是特征提取。一个真实案例分析Wi-Fi信号强度数据时20个AP的信号强度存在强相关性。PCA降到3维后第一主成分代表“总体信号强度”第二主成分反映“信号均衡度”第三主成分对应“信号稳定性”——物理意义清晰比原始数据好用得多。工程经验杂谈预处理决定上限数据标准化、异常值处理、特征缩放这些脏活累活比选算法更重要。试过用原始ADC数据做聚类结果全是噪声减去基线漂移后聚类效果立竿见影。别迷信肘部法则K-Means的K值选择肘部法则给出的拐点经常模棱两可。实际项目里我更倾向于先用业务知识确定大致范围跑多个K值然后人工检查每个簇的样本和特征。有时候业务上需要5类即使肘部法则说3类更好也得选5。PCA不是万能的主成分方向受异常值影响极大。有一次分析传感器数据某个传感器偶尔输出极大值硬件故障导致第一主成分完全被这个异常传感器主导。必须先做异常检测或者用RobustPCA。降维后特征可解释性PCA转换后的特征失去了物理意义如果后续要交给硬件团队分析可能需要保留原始特征。或者用因子分析这类可解释性更好的方法。嵌入式场景的特殊性在资源受限设备上跑聚类可以考虑在线学习版本的K-Means或者用PCA降维后再传输数据能省不少带宽和存储。最后说个观点无监督学习更像探索性数据分析工具而不是精确预测工具。它的价值在于发现未知模式、压缩数据规模、提升后续流程效率。调试时遇到复杂数据不妨先用这些方法看看数据结构可能会有意外发现——就像那次内存泄漏分析聚类直接指向了某个第三方库的递归调用问题。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2485020.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!