Pandas数据分析避坑指南:describe()函数里藏着的5个细节,新手必看
Pandas数据分析避坑指南describe()函数里藏着的5个细节新手必看数据分析师小张最近遇到一个奇怪的现象他用describe()函数分析销售数据时发现某产品的平均销量异常高但实际查看原始数据却找不到对应的销售记录。经过排查才发现原来describe()默认忽略了文本列而他的数据中包含大量N/A字符串未被正确处理。这个案例揭示了describe()函数看似简单实则暗藏玄机。1. 非数值型数据的沉默陷阱很多初学者误以为describe()会对所有列进行统计实际上它对不同数据类型采取差异化处理import pandas as pd data { 销售额: [1200, 1500, 900, None, 1800], 产品名称: [A, B, C, D, E], 日期: [2023-01-01, 2023-01-02, 2023-01-03, 2023-01-04, 2023-01-05] } df pd.DataFrame(data) print(df.describe())输出结果将只显示数值列的统计信息销售额 count 4.000000 mean 1350.000000 std 367.423461 min 900.000000 25% 1050.000000 50% 1350.000000 75% 1575.000000 max 1800.000000关键发现字符串列如产品名称会被自动排除日期列即使包含有效日期也不会被分析缺失值None/NaN不计入count统计提示使用includeall参数可以强制显示所有列的统计但非数值列仅显示count、unique等有限指标。2. 缺失值处理的隐形规则describe()中的count值经常被误认为是总行数实际上它统计的是非空值数量。当数据存在缺失值时这会导致一系列连锁反应missing_data { A: [1, 2, None, 4, 5], B: [None, None, 3, 4, 5] } df_missing pd.DataFrame(missing_data) print(df_missing.describe())输出显示A B count 4.000000 3.000000 mean 3.000000 4.000000 std 1.825742 1.000000 min 1.000000 3.000000 25% 1.750000 3.500000 50% 3.000000 4.000000 75% 4.250000 4.500000 max 5.000000 5.000000常见误区误将count当作样本总量计算比例未注意到不同列的样本量差异基于不完整数据计算的平均值可能失真解决方案对比表方法优点缺点df.describe()快速直观忽略缺失值影响df.isna().sum()准确显示缺失数量缺乏其他统计量df.fillna(0).describe()保持数据维度可能引入偏差3. 偏态分布中的统计量陷阱当数据呈现非正态分布时describe()提供的默认统计量可能产生严重误导。假设分析某互联网公司员工薪资salaries [18000, 22000, 25000, 19000, 21000, 20000, 19500, 20500, 23000, 100000] df_salary pd.DataFrame({月薪: salaries}) print(df_salary.describe())输出结果月薪 count 10.000000 mean 27800.000000 std 24933.434698 min 18000.000000 25% 19500.000000 50% 20500.000000 75% 22750.000000 max 100000.000000问题诊断均值(27800)被一个极端值(100000)严重拉高标准差(24933)过大反映数据离散程度失真75分位数(22750)以下数据相对集中更可靠的分析方法结合直方图观察分布形态import matplotlib.pyplot as plt df_salary.hist(bins10) plt.show()使用对数变换处理极端值import numpy as np df_salary[log_月薪] np.log(df_salary[月薪]) print(df_salary.describe())添加稳健统计量from scipy import stats print(中位数:, df_salary[月薪].median()) print(四分位距:, stats.iqr(df_salary[月薪]))4. 参数控制的精准分析技巧describe()的include和exclude参数经常被低估实际上它们能实现精细化的分析控制数值分析专用模式df pd.DataFrame({ 数值列: [1, 2, 3], 文本列: [a, b, c], 布尔列: [True, False, True] }) print(df.describe(include[number]))文本分析专用模式print(df.describe(include[object]))组合排除法print(df.describe(exclude[bool]))百分位点定制技巧# 分析收入分布的重点区间 income_data pd.DataFrame({收入: np.random.lognormal(mean10, sigma0.5, size1000)}) print(income_data.describe(percentiles[0.1, 0.5, 0.9, 0.95, 0.99]))参数组合实战表场景推荐参数典型应用金融数据分析percentiles[0.01, 0.05, 0.95, 0.99]风险价值(VaR)计算质量管控include[number], percentiles[0.001, 0.999]异常值检测用户调研includeall混合型数据分析时间序列include[datetime]日期范围分析5. 可视化验证的双重检查体系单纯依赖describe()的数字输出风险极高必须建立统计量可视化的交叉验证机制箱线图验证法import seaborn as sns sns.boxplot(datadf, x销售额) plt.title(销售额分布箱线图) plt.show()分布对比技巧fig, axes plt.subplots(1, 2, figsize(12, 5)) df[销售额].hist(axaxes[0], bins20) axes[0].set_title(原始分布) np.log(df[销售额]).hist(axaxes[1], bins20) axes[1].set_title(对数变换后分布) plt.show()统计量-可视化对应关系表统计量异常可视化特征可能原因均值 中位数右偏长尾存在极端高值标准差过大图形扁平分散数据异质性高75分位≈max顶部密集存在数值上限count远小于行数图表数据点稀疏大量缺失值实际项目中我习惯在Jupyter Notebook中创建分析面板from IPython.display import display display(df.describe()) display(df.head(3)) fig plt.figure(figsize(10, 4)) df.hist(bins30) plt.tight_layout() plt.show()这种多维度的验证方法曾帮助我发现过一个关键数据问题某电商平台的秒杀活动数据中describe()显示平均订单金额正常但直方图却暴露出双峰分布进一步分析发现是刷单行为导致的异常模式。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2572871.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!