深度学习深度前馈网络(三)—— 隐藏单元(激活函数)(二十五)
1. 定位导航第 23 篇通过 XOR 理解了"非线性激活"的必要性。第 24 篇详解了输出单元的选择。本篇专攻隐藏单元——网络中间层用的激活函数。核心争议:激活函数的选择是深度学习中最少有"理论指导"、最多依赖经验和直觉的领域之一。Goodfellow 自己说:“设计过程充满了试验和错误。”但近 10 年来已经形成清晰的实践共识:“ReLU 是默认选择,特殊场景换更先进的激活函数。”本篇按场景驱动梳理 8 个主流激活函数。2. 设计激活函数的核心原则2.1 大多数隐藏单元的统一形式绝大多数隐藏单元都可以描述为:h=g(W⊤x+b)\mathbf{h} = g(\mathbf{W}^\top \mathbf{x} + \mathbf{b})
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2552927.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!