深度学习完全指南:从神经元到卷积网络,一文读懂AI的大脑
一、深度学习不是什么玄学——先搞清它的“户口本”很多人一听到“深度学习”四个字,脑海里就浮现出《终结者》里的天网或者《黑客帝国》的矩阵。其实,它远没有那么神秘。1.1 深度学习是机器学习的亲儿子要理解深度学习,先要知道它从哪儿来。机器学习是人工智能的一个分支,简单说就是让计算机从数据中“学习”规律,而不是被人一条一条地编写规则。而深度学习,正是机器学习下面的一个子领域——而且是最受宠的那个。打个比方:机器学习就像一个大厨房,里面有各种做菜的方法(决策树、支持向量机、线性回归……)。深度学习则是其中一套“独家秘制菜谱”,它使用的核心工具叫做“深度神经网络”。这个“深度”二字,指的就是神经网络有很多层——少则三五层,多则成百上千层。1.2 深度学习的“黑箱”名声从何而来?深度学习模型非常复杂,就像一个拥有几十亿个旋钮和开关的黑盒子。你往里面输入一张猫的照片,它告诉你“这是猫”,但你想问它“你是怎么认出猫的?”——它说不清楚。因为这几十亿个参数相互纠缠,连设计它的人也很难解释每一个神经元到底学到了什么。所以,业内常说深度学习的“解释性较差”。但这也正是它的魅力所在:人类不需要手把手教它什么是胡须、什么是耳朵,它自己能从海量数据中悟出来。1.3 深度学习更擅长什么数据?选择题里有一个选项说“深度学习更适合处理结构化的数据”——这个说法是不正确的。什么是结构化数据?就是像Excel表格那样规规矩矩的数据,行是样本,列是特征。深度学习当然也能处理表格数据,但它真正封神的领域是非结构化数据:图像、音频、文本、视频。这些数据没有固定的“列”,你却能从里面读出无限的信息。一张图片是一堆像素点,一段文字是一串字符序列——深度神经网络尤其擅长从这种看似杂乱的数据中提取层次化的特征。二、神经元与神经网络:搭建AI的一砖一瓦2.1 从生物神经元到人工神经元深度学习的灵感确实来自大脑。一个生物神经元有树突(接收信号)、细胞体(处理信号)、轴突(传出信号)。人工神经元模仿了这个过程:它接收多个输入,每个输入乘以一个权重,然后求和,再加上一个偏置,最后扔进一个激活函数里,产生输出。权重:就像音量旋钮,决定某个输入信号有多重要。偏置:就像门槛,决定神经元是容易被激活还是不容易被激活。激活函数:给神经元引入非线性。如果没有它,再深的网络也只是线性变换的堆叠,那还不如直接用一个线性回归。2.2 隐藏层与全连接神经网络的“层”有三种:输入层(接收原始数据)、输出层(给出结果)、以及它们之间的所有层统称为隐藏层(也叫中间层)。隐藏层越多,网络越“深”,表达能力越强。如果某一层的每个神经元都与上一层的所有神经元相连,这种连接方式叫做全连接。早期网络几乎都是全连接的,但缺点也很明显:参数太多,容易过拟合,计算量巨大。后来的卷积网络和循环网络正是为了减少参数而设计的。2.3 信息是如何流动的?数据从输入层进入,经过一层又一层的计算,最后从输出层出来——这个过程叫做前向传播。听起来很高级,其实就是不断重复“加权求和 - 加偏置 - 激活函数”这个流程。三、
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2580865.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!