从“机器会思考”的执念说起,聊聊神经网络到底是个啥(下篇)
一、神经网络的类型别被名字搞晕核心就几种现在叫“神经网络”的东西五花八门但绝大多数都是从下面这几类衍生出去的。1. 前馈神经网络FNN—— 最朴素的直筒子数据从输入层进经过若干隐藏层从输出层出。没有回头路不保存状态。适合表格数据、简单的分类回归。它的变种多层感知机MLP是入门第一个学的网络。2. 卷积神经网络CNN—— 图像领域的霸主这是专门为网格状数据图片、时序信号设计的。核心操作是卷积一个小窗口在数据上滑动提取局部特征。再加上池化降采样逐步扩大感受野。你手机里的人脸识别、相册分类背后几乎都是CNN。3. 循环神经网络RNN—— 处理序列的高手CNN处理不了变长的序列比如一句话、一段音频。RNN引入了“记忆”当前时刻的输出依赖上一时刻的隐藏状态。但简单RNN有梯度消失/爆炸的问题所以实际中常用它的改进版LSTM长短期记忆网络加了“门”结构能记住长期信息GRULSTM的简化版效果差不多计算更快适合机器翻译、语音识别、股票预测、文本生成。4. 生成对抗网络GAN—— 让两个网络互相较劲一个生成器伪造图片和一个判别器判断真假互相博弈。最后生成器能伪造出以假乱真的数据。适合生成人脸、风格迁移、数据增强、超分辨率。5. Transformer —— 目前的大魔王严格来说它不是传统意义上的RNN或CNN而是完全基于自注意力机制。它解决了RNN不能并行计算、长距离依赖弱的问题。BERT、GPT系列、ChatGPT的底层都是Transformer。适合自然语言处理几乎全部任务以及视觉、多模态等。6. 自编码器Autoencoder—— 压缩与重建把输入压缩成一个低维的“编码”再重建出来。强迫网络学会抓住最重要的特征。适合降维、去噪、异常检测、特征学习。二、神经网络到底能干什么几乎覆盖了所有AI落地场景我不会罗列几十条只挑最实在、你大概率听过或用过的。1. 图像识别与计算机视觉你手机相册里“人物”“风景”“美食”自动分类自动驾驶里识别行人、车道线、交通标志医疗影像CT片中找肺结节、眼底照片查糖尿病视网膜病变安防监控人脸识别、步态识别背后主力CNN、ResNet、EfficientNet等。2. 自然语言处理机器翻译谷歌翻译、DeepL智能客服聊天机器人自动回答文本摘要把长文章浓缩成几句话情感分析判断商品评价是好评还是差评搜索引擎理解你的搜索意图背后主力Transformer、BERT、GPT系列。3. 语音与音频处理语音助手小爱、Siri、Alexa语音转文字讯飞输入法音乐生成、声纹识别背后主力RNN、LSTM、TransformerWhisper等。4. 推荐系统抖音、快手的视频推荐淘宝、亚马逊的“买了还买”Netflix、Spotify的个性化推荐背后主力早期的MLP现在很多用Transformer做序列推荐。5. 游戏与强化学习AlphaGo下围棋打败李世石自动驾驶决策控制机器人抓取物体、走路背后主力深度Q网络、策略梯度等。6. 科学发现与工程仿真预测蛋白质结构AlphaFold分子性质预测药物筛选流体力学快速仿真替代传统数值模拟背后主力图神经网络、物理信息神经网络。结语神经网络不是万能钥匙。它需要大量数据、算力训练起来像炼丹调参玄学而且可解释性差——你很难说清楚它到底学到了什么。但不可否认的是过去十年的AI爆发几乎是靠神经网络尤其是深度学习撑起来的。从你能刷到的短视频、用到的语音助手到医生看的CT辅助诊断、科学家探索的蛋白质折叠背后都有它在默默干活。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2463062.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!