机器学习入门核心算法:随机森林(Random Forest)
- 1. 算法逻辑
- 2. 算法原理与数学推导
- 2.1 核心组件
- 2.2 数学推导
- 2.3 OOB(Out-of-Bag)误差
- 3. 模型评估
- 评估指标
- 特征重要性可视化
- 4. 应用案例
- 4.1 医疗诊断
- 4.2 金融风控
- 4.3 遥感图像分类
- 5. 面试题及答案
- 6. 优缺点分析
- **优点**:
- **缺点**:
- 7. 数学推导示例(基尼指数)
1. 算法逻辑
随机森林是一种集成学习算法,通过构建多棵决策树并组合其预测结果来提高模型性能。核心逻辑包含两个关键概念:
- Bagging(自助聚集):通过有放回抽样生成多个训练子集
- 特征随机选择:每棵树分裂时仅考虑随机子集的特征
graph LR
A[原始训练集] --> B1[子集1:有放回抽样]
A --> B2[子集2:有放回抽样]
A --> B3[...]
A --> Bn[子集n:有放回抽样]
B1 --> C1[决策树1]
B2 --> C2[决策树2]
B3 --> C3[...]
Bn --> Cn[决策树n]
C1 --> D[组合预测]
C2 --> D
C3 --> D
Cn --> D
D --> E[最终预测]
2. 算法原理与数学推导
2.1 核心组件
- 决策树基学习器:使用CART(分类与回归树)算法
- 双重随机性:
- 数据随机性:Bootstrap抽样(约63%样本被选中)
- 特征随机性:分裂时考虑 d \sqrt{d} d(分类)或 d / 3 d/3 d/3(回归)个特征
2.2 数学推导
分类问题(多数投票):
y
^
=
mode
{
h
1
(
x
)
,
h
2
(
x
)
,
.
.
.
,
h
T
(
x
)
}
\hat{y} = \text{mode}\{ h_1(x), h_2(x), ..., h_T(x) \}
y^=mode{h1(x),h2(x),...,hT(x)}
其中
h
t
h_t
ht 是第t棵树的预测
回归问题(平均预测):
y
^
=
1
T
∑
t
=
1
T
h
t
(
x
)
\hat{y} = \frac{1}{T} \sum_{t=1}^T h_t(x)
y^=T1t=1∑Tht(x)
特征重要性计算:
Importance
j
=
1
T
∑
t
=
1
T
(
Imp
j
(
t
)
)
\text{Importance}_j = \frac{1}{T} \sum_{t=1}^T \left( \text{Imp}_j^{(t)} \right)
Importancej=T1t=1∑T(Impj(t))
其中
Imp
j
(
t
)
\text{Imp}_j^{(t)}
Impj(t) 是树t中特征j的重要性(通过基尼不纯度减少或MSE减少计算)
2.3 OOB(Out-of-Bag)误差
- 每棵树训练时未使用的样本(约37%):
O O B t = 1 ∣ D oob ( t ) ∣ ∑ i ∈ D oob ( t ) 1 ( y i ≠ h t ( x i ) ) OOB_t = \frac{1}{|D_{\text{oob}}^{(t)}|} \sum_{i \in D_{\text{oob}}^{(t)}} \mathbf{1}(y_i \neq h_t(x_i)) OOBt=∣Doob(t)∣1i∈Doob(t)∑1(yi=ht(xi)) - 整体OOB误差:
O O B = 1 T ∑ t = 1 T O O B t OOB = \frac{1}{T} \sum_{t=1}^T OOB_t OOB=T1t=1∑TOOBt
3. 模型评估
评估指标
任务类型 | 评估指标 |
---|---|
分类 | 准确率、F1-Score、AUC-ROC |
回归 | MSE、MAE、 R 2 R^2 R2 |
特征重要性可视化
import matplotlib.pyplot as plt
from sklearn.ensemble import RandomForestClassifier
model = RandomForestClassifier()
model.fit(X_train, y_train)
plt.barh(feature_names, model.feature_importances_)
plt.title("Feature Importance")
plt.show()
4. 应用案例
4.1 医疗诊断
- 场景:乳腺癌良恶性预测
- 特征:细胞核半径、纹理、周长等30维特征
- 结果:准确率98.5%,AUC=0.995(威斯康星乳腺癌数据集)
4.2 金融风控
- 场景:信用卡欺诈检测
- 处理不平衡数据:采用分层抽样+代价敏感学习
- 效果:召回率92%,误报率仅0.3%
4.3 遥感图像分类
- 挑战:高维特征(数百个光谱波段)
- 解决方案:结合PCA降维
- 精度:土地覆盖分类准确率91.2%
5. 面试题及答案
Q1:为什么随机森林比单棵决策树更优?
A:通过双重随机性降低方差,减少过拟合风险。理论依据:
Var
(
X
ˉ
)
=
Var
(
X
)
n
+
ρ
σ
2
\text{Var}(\bar{X}) = \frac{\text{Var}(X)}{n} + \rho\sigma^2
Var(Xˉ)=nVar(X)+ρσ2
其中
ρ
\rho
ρ是树间相关性,随机森林通过特征随机选择降低
ρ
\rho
ρ
Q2:如何处理高维稀疏数据(如文本)?
A:优先选择:
- 特征选择:基于重要性筛选Top-K特征
- 调整分裂标准:使用信息增益代替基尼指数
- 增加树数量:补偿单棵树的信息损失
Q3:随机森林 vs GBDT?
维度 | 随机森林 | GBDT |
---|---|---|
训练方式 | 并行 | 串行 |
偏差-方差 | 侧重降低方差 | 侧重降低偏差 |
过拟合风险 | 低(天然正则化) | 高(需早停) |
数据敏感度 | 对噪声不敏感 | 对异常值敏感 |
调参复杂度 | 简单(主要调树数量和深度) | 复杂(学习率+树参数) |
6. 优缺点分析
优点:
- 高精度:在多种任务上表现优于单模型
- 抗过拟合:Bagging+特征随机性提供天然正则化
- 处理混合特征:支持数值和类别特征(无需独热编码)
- 内置评估:OOB误差无需交叉验证
- 特征重要性:自动评估特征贡献
缺点:
- 计算开销大:树数量多时训练慢(可并行优化)
- 黑盒模型:解释性差于单棵决策树
- 外推能力差:回归任务中预测值不会超出训练范围
- 内存消耗高:需存储所有树结构
7. 数学推导示例(基尼指数)
分类树分裂准则:最小化基尼不纯度
G
=
∑
k
=
1
K
p
k
(
1
−
p
k
)
G = \sum_{k=1}^K p_k (1 - p_k)
G=k=1∑Kpk(1−pk)
其中
p
k
p_k
pk是节点中第k类样本的比例
特征j在节点s的分裂增益:
Δ
G
(
s
,
j
)
=
G
(
s
)
−
N
left
N
s
G
(
s
left
)
−
N
right
N
s
G
(
s
right
)
\Delta G(s,j) = G(s) - \frac{N_{\text{left}}}{N_s}G(s_{\text{left}}) - \frac{N_{\text{right}}}{N_s}G(s_{\text{right}})
ΔG(s,j)=G(s)−NsNleftG(sleft)−NsNrightG(sright)
选择最大化
Δ
G
\Delta G
ΔG的特征和分裂点
💡 关键洞察:随机森林的核心价值在于双重随机性带来的多样性:
- 数据扰动:Bootstrap抽样产生差异化的训练集
- 特征扰动:分裂时的随机特征子集保证树间低相关性
实际应用建议:
- 分类任务:设置
n_estimators=100-500
,max_depth=None
- 回归任务:增加
n_estimators=500-1000
以稳定预测- 特征工程:优先使用
sklearn
的RandomForestClassifier
实现- 解释性:用SHAP值增强模型可解释性