从零到一!CWRU轴承数据集Python实战:数据加载、预处理与特征工程全解析
1. CWRU轴承数据集入门指南第一次接触CWRU轴承数据集时我也被它庞大的数据量和复杂的目录结构搞得晕头转向。这个由美国凯斯西储大学发布的经典数据集包含了从正常运转到各种故障状态的轴承振动信号是机械故障诊断领域的MNIST。但和MNIST不同它的原始数据是.mat格式的振动信号需要经过专业处理才能用于机器学习。数据集主要包含四种负载条件下的数据0马力、1马力、2马力和3马力。每种负载下又有四种故障类型内圈故障、外圈故障、滚动体故障以及正常状态。故障直径也分为0.007英寸、0.014英寸和0.021英寸三种规格。这种精细的分类让CWRU成为验证故障诊断算法的黄金标准。我建议初学者先从12k驱动端风扇端数据集入手这个子集数据量适中故障类型全面。下载后你会看到一堆.mat文件每个文件对应一种工况下的振动信号。比如97.mat代表0.007英寸内圈故障在0马力负载下的数据。这种命名方式刚开始确实容易混淆我专门做了个对照表来帮助记忆。2. 数据加载实战技巧加载CWRU数据最让人头疼的就是.mat文件的处理。Python中可以用scipy.io的loadmat函数但直接加载会得到一个嵌套字典结构需要层层解析。我总结了一个万能加载函数import numpy as np from scipy.io import loadmat def load_cwru(filepath): raw_data loadmat(filepath) # 提取振动信号的关键字段 vibration raw_data[X097_DE_time].reshape(-1) # 采样率12kHz是固定的 sample_rate 12000 return vibration, sample_rate这个函数会返回振动信号序列和采样率。注意不同故障类型的字段名会变化如X098对应0.014英寸故障所以实际使用时需要根据文件名动态调整字段名。对于批量加载我推荐使用glob模块遍历文件夹import glob file_list glob.glob(path_to_dataset/*.mat) all_data [load_cwru(f) for f in file_list]加载后的数据建议立即转成NumPy数组这样后续处理会更高效。我习惯用np.stack把所有信号堆叠成一个三维数组样本数×信号长度×通道数虽然CWRU默认是单通道数据但这种格式方便后续扩展。3. 数据预处理全流程原始振动信号往往包含噪声和量纲差异直接喂给模型效果会很差。我的预处理流水线包含五个关键步骤3.1 标准化处理工业振动信号的幅值范围可能相差几个数量级。我常用RobustScaler而不是StandardScaler因为后者对异常值太敏感from sklearn.preprocessing import RobustScaler scaler RobustScaler() normalized_data scaler.fit_transform(raw_data.reshape(-1,1)).flatten()3.2 滑动窗口分割长时序信号需要切成小段。我通常用512-1024个采样点的窗口重叠率50%def sliding_window(data, window_size512, overlap0.5): step int(window_size * (1 - overlap)) return np.lib.stride_tricks.sliding_window_view(data, window_size)[::step]3.3 数据集划分千万不能随机划分要按工况划分训练/验证/测试集否则会数据泄漏。我习惯按7:2:1的比例train processed_data[:int(0.7*len(data))] val processed_data[int(0.7*len(data)):int(0.9*len(data))] test processed_data[int(0.9*len(data)):]3.4 数据增强振动信号很适合做jittering和scaling增强def augment(signal, noise_level0.05): noise np.random.normal(0, noise_level*np.std(signal), len(signal)) return signal * (1 noise_level*np.random.randn()) noise3.5 标签编码故障类别要转成one-hot格式。我建议先用LabelEncoder转数字再用to_categoricalfrom keras.utils import to_categorical from sklearn.preprocessing import LabelEncoder le LabelEncoder() int_labels le.fit_transform(labels) onehot_labels to_categorical(int_labels)4. 特征工程实战宝典好的特征工程能让模型性能提升30%以上。我从时域、频域和时频域三个维度分享几个实用特征4.1 时域特征除了常规的均值、方差这几个特征特别有用波形指标峰值因子、脉冲因子、裕度因子无量纲指标峭度、偏度高阶统计量L2/L3范数计算示例def time_features(signal): peak np.max(np.abs(signal)) rms np.sqrt(np.mean(signal**2)) kurtosis np.mean((signal - np.mean(signal))**4) / np.std(signal)**4 return [peak, rms, kurtosis]4.2 频域特征FFT变换后重点看这些谐波分量幅值频谱重心频带能量比实现代码from scipy.fft import fft def freq_features(signal, sr12000): fft_vals np.abs(fft(signal)) freqs np.linspace(0, sr/2, len(fft_vals)//2) spectral_centroid np.sum(freqs*fft_vals[:len(freqs)])/np.sum(fft_vals[:len(freqs)]) return spectral_centroid4.3 时频域特征我最喜欢用连续小波变换(CWT)import pywt def cwt_features(signal, scalesnp.arange(1,32)): coefficients, _ pywt.cwt(signal, scales, morl) return np.mean(coefficients, axis1)4.4 特征选择技巧先用随机森林看特征重要性再用互信息法验证from sklearn.feature_selection import mutual_info_classif mi_scores mutual_info_classif(X, y) selected_features X[:, mi_scores 0.1]5. 完整代码实战结合上述技术我给出一个端到端的处理流程# 1. 数据加载 files sorted(glob.glob(CWRU/12k_DE/*.mat)) raw_data [load_cwru(f)[0] for f in files] # 2. 预处理 scaler RobustScaler() normalized [scaler.fit_transform(x.reshape(-1,1)).flatten() for x in raw_data] # 3. 特征提取 features [] for signal in normalized: # 时域 tf time_features(signal) # 频域 ff freq_features(signal) # 时频域 cwtf cwt_features(signal) features.append(np.concatenate([tf, ff, cwtf])) # 4. 建模准备 X np.array(features) y np.array(labels) # 需要提前准备好标签 X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.2, stratifyy)这个流程在我的实验中配合简单的随机森林就能达到92%以上的准确率。如果想进一步提升可以尝试深度学习方法把原始信号直接输入1D-CNN或Transformer模型。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2424764.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!