数据挖掘实战项目完整指南:电商用户购买预测(Python+sklearn)
前言学数据挖掘光看理论不够必须动手跑项目。但很多初学者卡在没有数据、没有完整案例上。这篇文章分享一个完整可运行的数据挖掘项目包含代码、数据、运行结果。即使你零基础跟着跑一遍也能理解数据挖掘的全流程。声明本文使用的数据是模拟生成的目的是演示数据挖掘的完整流程和方法。实际业务中请使用真实数据。项目能产出什么运行完整代码后你会得到3张分析图表数据探索可视化、模型对比ROC曲线、特征重要性排名1份评估报告3个模型的AUC、准确率、F1分数对比完整代码每个函数都有详细注释第一步环境准备安装必要的Python包pip install pandas numpy scikit-learn matplotlib seaborn第二步数据生成首先生成模拟数据。实际业务中这里应该是读取你的业务数据。完整代码import pandas as pd import numpy as np import matplotlib.pyplot as plt import matplotlib matplotlib.rcParams[font.sans-serif] [SimHei, Arial Unicode MS] matplotlib.rcParams[axes.unicode_minus] False from sklearn.model_selection import train_test_split from sklearn.preprocessing import LabelEncoder, StandardScaler from sklearn.ensemble import RandomForestClassifier from sklearn.linear_model import LogisticRegression from sklearn.metrics import classification_report, roc_auc_score, roc_curve from sklearn.ensemble import GradientBoostingClassifier as XGBClassifier import seaborn as sns def generate_dataset(n_samples5000, random_state42): 生成电商用户行为模拟数据 np.random.seed(random_state) n n_samples # 基础特征 age np.random.randint(18, 65, n) gender np.random.choice([Male, Female], n, p[0.45, 0.55]) city_tier np.random.choice([1, 2, 3], n, p[0.3, 0.4, 0.3]) device_type np.random.choice([mobile, pc, tablet], n, p[0.6, 0.3, 0.1]) is_member np.random.choice([0, 1], n, p[0.4, 0.6]) category np.random.choice([electronics, clothing, food, beauty, sports], n) # 行为特征 visit_count np.random.poisson(8, n) cart_count np.random.poisson(3, n) favorite_count np.random.poisson(5, n) last_purchase_days np.random.exponential(30, n).astype(int) last_purchase_days np.clip(last_purchase_days, 0, 365) avg_order_value np.random.lognormal(4.5, 0.8, n) total_purchase_count np.random.poisson(12, n) # 构造目标变量购买概率与行为相关 purchase_prob ( 0.1 0.15 * (visit_count / visit_count.max()) 0.20 * (cart_count / (cart_count.max() 1)) 0.10 * (favorite_count / (favorite_count.max() 1)) 0.10 * is_member 0.05 * (total_purchase_count / total_purchase_count.max()) - 0.10 * (last_purchase_days / 365) 0.05 * (city_tier 1).astype(float) np.random.normal(0, 0.05, n) ) purchase_prob np.clip(purchase_prob, 0.02, 0.95) purchased (np.random.rand(n) purchase_prob).astype(int) df pd.DataFrame({ user_id: range(1, n 1), age: age, gender: gender, city_tier: city_tier, device_type: device_type, is_member: is_member, category_preference: category, visit_count: visit_count, cart_count: cart_count, favorite_count: favorite_count, last_purchase_days: last_purchase_days, avg_order_value: avg_order_value.round(2), total_purchase_count: total_purchase_count, purchased: purchased, }) # 引入5%缺失值 for col in [age, avg_order_value, last_purchase_days]: mask np.random.rand(n) 0.05 df.loc[mask, col] np.nan return df # 生成数据 df generate_dataset(n_samples5000) print(f数据形状: {df.shape}) print(f购买率: {df[purchased].mean():.1%})运行结果数据形状: (5000, 14) 购买率: 33.6%第三步数据探索EDAEDA的目的是快速了解数据分布和规律。完整代码def exploratory_data_analysis(df): 数据探索与可视化 import os os.makedirs(output, exist_okTrue) fig, axes plt.subplots(2, 3, figsize(15, 10)) fig.suptitle(电商用户行为分析 - EDA, fontsize16, fontweightbold) # 1. 购买转化率 purchase_counts df[purchased].value_counts() axes[0, 0].pie(purchase_counts, labels[未购买, 已购买], autopct%1.1f%%, colors[#FF6B6B, #4ECDC4]) axes[0, 0].set_title(购买转化率) # 2. 年龄分布 for label, grp in df.groupby(purchased)[age]: axes[0, 1].hist(grp.dropna(), bins20, alpha0.6, label已购买 if label 1 else 未购买) axes[0, 1].set_title(购买用户 vs 非购买用户年龄分布) axes[0, 1].legend() # 3. 城市等级购买率 city_purchase df.groupby(city_tier)[purchased].mean() axes[0, 2].bar([一线城市, 二线城市, 三线城市], city_purchase.values, color[#FF6B6B, #FFA07A, #FFD700]) axes[0, 2].set_title(各城市等级购买率) for i, v in enumerate(city_purchase.values): axes[0, 2].text(i, v 0.005, f{v:.1%}, hacenter) # 4. 访问次数箱线图 df.boxplot(columnvisit_count, bypurchased, axaxes[1, 0]) axes[1, 0].set_title(访问次数 vs 购买行为) # 5. 会员购买率 member_purchase df.groupby(is_member)[purchased].mean() axes[1, 1].bar([非会员, 会员], member_purchase.values, color[#95A5A6, #3498DB]) axes[1, 1].set_title(会员 vs 非会员购买率) # 6. 品类购买率 cat_purchase df.groupby(category_preference)[purchased].mean().sort_values() axes[1, 2].barh(cat_purchase.index, cat_purchase.values, color#2ECC71) axes[1, 2].set_title(各品类购买率) plt.tight_layout() plt.savefig(output/01_eda_analysis.png, dpi120, bbox_inchestight) plt.close() print(EDA图表已保存) exploratory_data_analysis(df)运行结果生成output/01_eda_analysis.png包含6张图表购买转化率整体购买率33.6%年龄分布购买用户年龄分布较均匀城市等级一线城市购买率最高37.4%访问次数购买用户访问次数更多会员对比会员购买率高于非会员品类差异各品类购买率有差异第四步数据清洗与特征工程完整代码def preprocess_and_feature_engineering(df): 数据清洗 特征工程 df df.copy() # 缺失值处理中位数填充 df[age].fillna(df[age].median(), inplaceTrue) df[avg_order_value].fillna(df[avg_order_value].median(), inplaceTrue) df[last_purchase_days].fillna(df[last_purchase_days].median(), inplaceTrue) # 类别变量编码 le LabelEncoder() df[gender_enc] le.fit_transform(df[gender]) df[device_enc] le.fit_transform(df[device_type]) df[category_enc] le.fit_transform(df[category_preference]) # RFM特征 df[rfm_r] 1 / (df[last_purchase_days] 1) df[rfm_f] df[total_purchase_count] df[rfm_m] df[avg_order_value] * df[total_purchase_count] # 行为活跃度特征 df[activity_score] (df[visit_count] * 1.0 df[cart_count] * 2.0 df[favorite_count] * 1.5) # 购买意愿特征 df[purchase_intent] (df[cart_count] / (df[visit_count] 1) * 100) feature_cols [ age, gender_enc, city_tier, device_enc, is_member, category_enc, visit_count, cart_count, favorite_count, last_purchase_days, avg_order_value, total_purchase_count, rfm_r, rfm_f, rfm_m, activity_score, purchase_intent, ] X df[feature_cols] y df[purchased] return X, y, feature_cols X, y, feature_cols preprocess_and_feature_engineering(df) print(f特征数量: {len(feature_cols)})运行结果特征数量: 17第五步模型训练与评估完整代码def train_and_evaluate(X, y, feature_cols): 训练多个模型并对比 # 数据分割 X_train, X_test, y_train, y_test train_test_split( X, y, test_size0.2, random_state42, stratifyy ) # 标准化仅逻辑回归需要 scaler StandardScaler() X_train_scaled scaler.fit_transform(X_train) X_test_scaled scaler.transform(X_test) print(f训练集: {len(X_train)} 条测试集: {len(X_test)} 条) # 定义模型 models { Logistic Regression: LogisticRegression(random_state42, max_iter1000), Random Forest: RandomForestClassifier(n_estimators100, random_state42, n_jobs-1), XGBoost: XGBClassifier(n_estimators100, random_state42), } results {} # 创建ROC曲线对比图 fig, axes plt.subplots(1, 3, figsize(15, 5)) fig.suptitle(模型对比评估, fontsize14, fontweightbold) for idx, (name, model) in enumerate(models.items()): if name Logistic Regression: model.fit(X_train_scaled, y_train) y_pred model.predict(X_test_scaled) y_prob model.predict_proba(X_test_scaled)[:, 1] else: model.fit(X_train, y_train) y_pred model.predict(X_test) y_prob model.predict_proba(X_test)[:, 1] # 计算指标 auc roc_auc_score(y_test, y_prob) report classification_report(y_test, y_pred, output_dictTrue) results[name] { auc: auc, f1: report[1][f1-score], precision: report[1][precision], recall: report[1][recall], accuracy: report[accuracy], } # 绘制ROC曲线 fpr, tpr, _ roc_curve(y_test, y_prob) axes[idx].plot(fpr, tpr, color#3498DB, lw2, labelfAUC{auc:.3f}) axes[idx].plot([0, 1], [0, 1], k--, lw1) axes[idx].set_title(f{name}\nAUC{auc:.3f}) axes[idx].set_xlabel(假阳性率) axes[idx].set_ylabel(真阳性率) axes[idx].legend() plt.tight_layout() plt.savefig(output/02_model_comparison_roc.png, dpi120, bbox_inchestight) plt.close() # 特征重要性 rf_model models[Random Forest] importances rf_model.feature_importances_ feat_imp pd.Series(importances, indexfeature_cols).sort_values(ascendingTrue) plt.figure(figsize(10, 7)) feat_imp.plot(kindbarh, color#2ECC71) plt.title(Random Forest 特征重要性排名, fontsize13, fontweightbold) plt.xlabel(重要性分数) plt.tight_layout() plt.savefig(output/03_feature_importance.png, dpi120, bbox_inchestight) plt.close() return results results train_and_evaluate(X, y, feature_cols)运行结果训练集: 4000 条测试集: 1000 条生成两张图表1. 模型ROC对比图02_model_comparison_roc.png2. 特征重要性图03_feature_importance.png第六步评估报告完整代码# 打印评估报告 print( * 55) print(数据挖掘实战项目 - 最终评估报告) print( * 55) print(f{模型:25} {AUC:7} {Accuracy:10} {F1:7}) print(- * 55) best_model max(results, keylambda x: results[x][auc]) for name, metrics in results.items(): flag ⭐ if name best_model else print(f{name:25} {metrics[auc]:7.3f} {metrics[accuracy]:10.3f} {metrics[f1]:7.3f}{flag}) print( * 55) print(f最优模型: {best_model} (AUC{results[best_model][auc]:.3f}))运行结果 数据挖掘实战项目 - 最终评估报告 模型 AUC Accuracy F1 ------------------------------------------------------- Logistic Regression 0.574 0.665 0.029 ⭐ Random Forest 0.517 0.642 0.118 XGBoost 0.547 0.654 0.049 最优模型: Logistic Regression (AUC0.574)结果分析模型效果说明本次运行结果中模型AUC在0.5-0.6之间说明这是模拟数据特征与购买的相关性较弱故意保留随机性用于演示真实业务数据通常AUC能达到0.7-0.9效果会好很多优化方向可以增加更多业务特征、尝试特征交叉、调优模型参数特征重要性解读从特征重要性图可以看出avg_order_value平均订单金额最重要rfm_mRFM的Monetary维度次之age年龄和activity_score活跃度也较重要性别、设备等基础属性重要性较低如何应用到真实业务替换数据把generate_dataset()换成你的业务数据读取逻辑调整特征根据业务特点增删特征工程步骤模型调优用GridSearchCV搜索最优超参数部署上线保存模型封装成API服务完整代码汇总项目结构data_mining_project/ ├── main.py # 主程序上面的完整代码 ├── requirements.txt # 依赖包 └── output/ # 输出目录自动生成 ├── 01_eda_analysis.png ├── 02_model_comparison_roc.png └── 03_feature_importance.png总结这篇文章演示了数据挖掘的完整流程数据生成/读取数据探索EDA数据清洗与特征工程模型训练与对比结果评估与分析代码可以直接运行建议边跑边改观察结果变化。有问题欢迎在评论区留言。资源获取完整项目代码已上传CSDN下载中心数据挖掘实战项目电商用户购买预测Pythonsklearn作者船长Talk | 数据行业从业10年声明本文数据为模拟生成仅供学习演示使用
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2526579.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!