Sigmoid与Softmax:从二分类到多分类的深度解析 联系 函数性质:二者都是非线性函数 ,也都是指数归一化函数,可将输入值映射为0到1之间的实数 ,都能把输出转化成概率分布的形式,在神经网络中常作为激活函数使用。 Softmax是Sigmoid的推广:从功能角度看,Softmax函数可视为Sigmoid函数在多分类场景下的扩展。当分类问题为二分类时,Softmax函数在一定变换下与Sigmoid函数形式类似 。 区别 函数形式与值域: Sigmoid函数:表达式为 σ ( x )