用Python玩转Iris数据集:从数据加载到可视化分析的完整指南
用Python玩转Iris数据集从数据加载到可视化分析的完整指南鸢尾花数据集Iris dataset是机器学习领域最经典的数据集之一它就像编程界的Hello World是每个数据科学初学者必学的案例。这个数据集不仅结构清晰、规模适中更重要的是它包含了真实世界中的分类问题能帮助我们快速理解数据分析和机器学习的基本流程。本文将带你用Python中最流行的pandas和matplotlib库从零开始探索这个神奇的数据集。无论你是刚接触Python的数据分析新手还是想巩固基础的数据爱好者都能通过这篇实战指南获得实用的技能。我们会从数据加载开始一步步进行数据清洗、探索性分析最后用多种可视化方法揭示数据背后的故事。1. 环境准备与数据加载在开始之前确保你的Python环境中已经安装了必要的库。如果你使用Anaconda这些库通常已经预装如果是标准Python环境可以通过pip安装pip install pandas matplotlib seaborn scikit-learn numpyIris数据集在scikit-learn库中内置加载非常方便from sklearn import datasets import pandas as pd # 加载数据集 iris datasets.load_iris() # 转换为pandas DataFrame df pd.DataFrame(datairis.data, columnsiris.feature_names) df[species] iris.target df[species] df[species].map({0: setosa, 1: versicolor, 2: virginica})提示使用pandas DataFrame而不是原始的numpy数组可以更方便地进行数据操作和分析。让我们先快速查看一下数据的基本信息print(df.info()) print(df.describe()) print(df[species].value_counts())输出结果会显示我们有150条记录4个特征列花萼长度、花萼宽度、花瓣长度、花瓣宽度和1个目标列鸢尾花种类且数据完整没有缺失值。三类鸢尾花的样本数量均衡各50个。2. 数据探索与预处理2.1 理解数据结构Iris数据集中的四个特征都是连续数值型数据单位是厘米花萼长度sepal length花萼宽度sepal width花瓣长度petal length花瓣宽度petal width目标变量是分类标签表示三种鸢尾花setosa山鸢尾versicolor变色鸢尾virginica维吉尼亚鸢尾我们可以先看看各类鸢尾花的特征均值有何差异df.groupby(species).mean()2.2 数据清洗虽然Iris数据集已经很干净但在实际项目中数据清洗是必不可少的步骤。这里我们练习一些常见的清洗操作# 检查缺失值 print(df.isnull().sum()) # 检查异常值假设任何特征值小于0都是异常 print(df[(df.select_dtypes(include[float64]) 0).any(axis1)]) # 数据标准化可选 from sklearn.preprocessing import StandardScaler scaler StandardScaler() df_scaled pd.DataFrame(scaler.fit_transform(df.iloc[:, :4]), columnsdf.columns[:4]) df_scaled[species] df[species]注意标准化不是必须的但在某些机器学习算法中能提高性能。3. 单变量与多变量分析3.1 单变量分析了解每个特征的分布情况是数据分析的基础。我们可以绘制直方图来观察每个特征的分布import matplotlib.pyplot as plt df.hist(figsize(12, 8)) plt.tight_layout() plt.show()从直方图中可以观察到花萼宽度的分布接近正态分布花瓣长度和宽度呈现明显的双峰分布setosa的花瓣尺寸明显小于其他两类3.2 双变量分析探索特征之间的关系能帮助我们理解数据的结构。散点图是观察两个连续变量关系的有效工具plt.figure(figsize(12, 6)) plt.scatter(df[petal length (cm)], df[petal width (cm)], ciris.target) plt.xlabel(Petal Length (cm)) plt.ylabel(Petal Width (cm)) plt.colorbar(ticks[0, 1, 2], labelSpecies) plt.show()这个散点图清晰地展示了三类鸢尾花在花瓣尺寸上的差异特别是setosa与其他两类有明显的分隔。3.3 相关性分析计算特征间的相关系数可以帮助我们理解它们之间的线性关系corr_matrix df.iloc[:, :4].corr() print(corr_matrix)我们可以用热图更直观地展示相关性import seaborn as sns plt.figure(figsize(8, 6)) sns.heatmap(corr_matrix, annotTrue, cmapcoolwarm) plt.title(Feature Correlation Heatmap) plt.show()4. 高级可视化技术4.1 箱线图分析箱线图能很好地展示数据的分布和离群值plt.figure(figsize(12, 6)) df.boxplot(byspecies, figsize(12, 8)) plt.suptitle() plt.show()从箱线图可以看出setosa的花萼宽度最大花瓣尺寸最小virginica的花瓣尺寸最大versicolor的各项特征介于两者之间4.2 小提琴图小提琴图结合了箱线图和核密度估计的优点能更全面地展示数据分布plt.figure(figsize(12, 8)) for i, feature in enumerate(df.columns[:4]): plt.subplot(2, 2, i1) sns.violinplot(xspecies, yfeature, datadf) plt.tight_layout() plt.show()4.3 配对图Seaborn的pairplot可以一次性展示所有特征两两之间的关系sns.pairplot(df, huespecies, height2.5) plt.show()这个图不仅展示了每个特征的分布还展示了任意两个特征的散点关系是探索性数据分析的利器。4.4 3D散点图对于更高维度的可视化我们可以使用3D散点图from mpl_toolkits.mplot3d import Axes3D fig plt.figure(figsize(10, 8)) ax fig.add_subplot(111, projection3d) for species, color in zip([setosa, versicolor, virginica], [r, g, b]): subset df[df[species] species] ax.scatter(subset[sepal length (cm)], subset[petal length (cm)], subset[petal width (cm)], labelspecies, ccolor) ax.set_xlabel(Sepal Length) ax.set_ylabel(Petal Length) ax.set_zlabel(Petal Width) ax.legend() plt.show()5. 从可视化到机器学习通过前面的可视化分析我们已经对数据有了深入理解。这些洞察可以直接指导我们的机器学习建模。例如花瓣特征比花萼特征更有区分度setosa与其他两类线性可分versicolor和virginica在部分特征上有重叠基于这些观察我们可以设计更有效的特征工程和模型选择策略。例如可以尝试以下步骤from sklearn.model_selection import train_test_split from sklearn.preprocessing import LabelEncoder from sklearn.ensemble import RandomForestClassifier from sklearn.metrics import classification_report # 准备数据 X df.iloc[:, :4] y LabelEncoder().fit_transform(df[species]) # 划分训练测试集 X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.2, random_state42) # 训练模型 model RandomForestClassifier(random_state42) model.fit(X_train, y_train) # 评估 y_pred model.predict(X_test) print(classification_report(y_test, y_pred, target_namesiris.target_names))可视化不仅帮助我们理解数据还能解释模型的行为。例如我们可以可视化特征重要性importances model.feature_importances_ features df.columns[:4] plt.figure(figsize(10, 6)) plt.barh(features, importances) plt.xlabel(Feature Importance) plt.title(Random Forest Feature Importance) plt.show()这个分析证实了我们之前的观察花瓣尺寸比花萼尺寸对分类更重要。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2459751.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!