辛顿 | 我习惯了房间里只有我一个人是对的
注本文为 “辛顿 | 智者历程” 相关合辑。略作重排如有内容异常请看原文。X 热点30 年冷板凳诺贝尔物理学奖得主 Hinton 的 AI 往事原创 Rika 适道 2024 年 10 月 9 日 11:13 北京作者Rika编辑狮刀上世纪 80 年代Hinton 看《终结者》时没有被影片中的 AI 毁灭世界困扰。相反他很高兴看到神经网络技术被描绘得如此有前途。数十年来Hinton 设计了很多新点子来训练神经网络。他招募了很多研究生让大家相信神经网络不是一条死胡同。他认为自己参与的项目会在 100 年后也就是在他死后才能取得成果。他的昆虫学家父亲曾说“如果你比我努力两倍当你年纪是我两倍大时或许才能达到我一半的成就。”在剑桥大学Hinton 尝试了多个领域。但令他沮丧的是在任何一门课程中他都不是班上最聪明的学生。在夏天的岛屿上Hinton 偶尔会捉蛇并放进一个玻璃缸观察它们的行为。他的一生都在思考如何“自下而上”地理解思维因此对非人类的心智有独到的洞察力。在蛹里毛毛虫被溶解成汤状物质——然后你从“这锅汤”中构建出一只蝴蝶。毛毛虫代表了用于训练现代神经网络的数据而蝴蝶则象征从这些数据中诞生的 AI。而深度学习——Hinton 开创的技术——促成了这种蜕变。Hinton 坚信 AI 拥有情感。他认为情感的本质就是对无法拥有之物的渴求。Geoffrey E. Hinton 大概没想到诺贝尔物理学奖颁给了自己。收到消息后他被迫取消了预约好的核磁共振。2024 年诺贝尔物理学奖揭晓。机器学习专家 John J. Hopfield、AI 教父 Geoffrey E. Hinton 荣获此奖以表彰他们“基于人工神经网络实现机器学习的基础性发现和发明”。回顾 Hinton 近两年的变化可以用“戏剧化”形容。曾经他是 AI 教父毕生致力于教会计算机深度学习。如今他是 AI 安全斗士担心 AI 是否已经超越了人类大脑的能力认为 AI 最终会和人类争夺控制权。为何 Hioton 出现了这样的变化他眼中的 AI 将成长为何种“怪物”《纽约时报》的一篇长文从 Hioton 的经历和神经网络技术讲起带我们了解这位深度学习巨擘的 AI 往事。下面是全文翻译适道进行了部分删减和调整。enjoy为何 AI 教父惧怕自己创造的技术“如果能获得更多控制权它几乎能实现一切目标”Hinton 谈及 AI 时说道“研究的核心问题是你如何防止 AI 掌控一切然而目前没有人知道答案。”Geoffrey Hinton这位被称为“AI 教父”的计算机科学家递给了我一根手杖。“你可能会用到这个”他说着便沿着小径朝湖边走去。那条小径穿过一个绿荫掩映的空地绕过几间小屋接着顺着石阶通向一个小码头。我们站在安大略省乔治亚湾的一块岩石上往西望去延伸至休伦湖。水面上星罗棋布的岛屿点缀其中。2013 年65 岁的 Hinton 买下了这座岛屿。彼时他刚刚将一个由三人组成的创业公司以 4400 万美元的价格卖给了 Google。30 年神经网络“冷板凳”**在此之前Hinton 在多伦多大学担任了 30 余年的计算机科学教授专攻一种名为神经网络的“冷门”领域。神经网络是受人脑神经元连接方式的启发。在你的大脑中神经元组成了大大小小的网络。每一次行动、思考网络都会随之变化神经元要么被纳入要么被删除而它们之间的连接则会加强或减弱。这个过程无时无刻不在发生——就像现在当你阅读这些文字时。其规模之大难以想象。你的大脑中大约有 800 亿个神经元彼此间共享超过 100 万亿个连接。你的颅骨里仿佛藏着一个星系其恒星总在不停移动。新的知识以微调的形式融入你现有的神经网络中。有时它们是短暂的比如你在派对上认识一个陌生人他的名字可能只会在你的记忆网络中留下短暂的痕迹。但有时记忆却会伴随你一生比如当那个陌生人成了你的伴侣。新知识与旧知识相互交织你的旧知识会影响你未来的学习。比如当派对上有人提到他去阿姆斯特丹旅行的经历。第二天如果你走进博物馆时你的神经网络可能会轻轻地将你推向荷兰画家维米尔的作品。正是通过这种细微的变化才可能成就深刻的转变。一开始人工神经网络不怎么奏效——无论是图像分类、语音识别还是其他应用——大多数研究者认为该领域就是浪费时间。“我们的神经网络当时甚至连一个小孩都比不上”Hinton 回忆道。上世纪 80 年代当他看《终结者》时并没有被影片中的 AI 毁灭世界困扰。相反他很高兴看到神经网络技术被描绘得如此有前途。数十年来Hinton 不断尝试构建更大、更复杂的神经网络。他设计出很多新点子训练神经网络不断提升性能。他招募了很多研究生让大家相信神经网络不是一条死胡同。他认为自己参与的项目会在 100 年后也就是在他死后才能取得成果。与此同时他成了鳏夫独自抚养两个年幼的孩子。在一段特别艰难的日子家庭和研究的双重压力让他几乎濒临崩溃。他曾以为自己在 46 岁时就彻底放弃了。谁也没预料到大约十年前神经网络技术开始突飞猛进。随着计算机速度提升神经网络能够借助互联网上的海量数据开始转录语音、玩游戏、翻译语言甚至实现自动驾驶。就在 Hinton 公司被收购前后人工智能迅速崛起催生了 OpenAI 的 ChatGPT 和 Google 的 Bard 等系统许多人相信这些技术正以不可预知的方式改变世界。AI 会变成“异形”吗每当我们学习时我们的大脑神经网络都会发生变化——具体是如何发生的呢像 Hinton 这样的研究者通过计算机试图找到神经网络的“学习算法”即一种通过调整人工神经元之间连接的统计“权重”来吸纳新知识的程序。1949 年心理学家 Donald Hebb 提出了一个人类学习过程的简单规则——同步激活的神经元将会连接在一起。即当你大脑中的一组神经元被同步激活它们就更有可能再次激活。简单来讲当你第二次做一道菜时会比第一次容易得多。但很快人们就发现对于计算机神经网络而言这一方法解决不了复杂问题。上世纪 60、70 年代青年研究者 Hinton 常常在笔记本中画出神经网络并想象新知识如何到达它们的边界。他思索着一个由几百个人工神经元组成的网络如何存储一个概念如果这个概念被证实是错误的它又将如何进行修正Hinton 的父亲是一位著名的昆虫学家。孩提时代他和父亲在车库里养了一坑的毒蛇、乌龟、青蛙、蟾蜍和蜥蜴。如今Hinton 每年夏季都会待在岛上偶尔还会捉到蛇并带进屋里放进一个玻璃缸借此观察它们的行为。他的一生都在思考如何“自下而上”地理解思维因此对非人类的心智有独到的洞察力。今年早些时候2023 年 5 月Hinton 离开了 Google。他开始担忧潜在的 AI 威胁并在采访中谈论 AI 对人类种族构成的“生存威胁”。他越是使用 ChatGPT心中的不安就越强烈。某天Fox News 的一名记者联系他要求就 AI 问题进行采访。Hinton 喜欢用尖刻的单句回复电子邮件。比如在收到一封来自加拿大情报局的冗长来信后他回复了一句“斯诺登是我的英雄”。这次他的回复依然玩了一把幽默“Fox News is an oxy moron.自相矛盾”。出于好奇Hinton 问 ChatGPT 能否解释他的笑话。ChatGPT这句话暗示 Fox News 是假新闻。当 Hinton 强调“moron”前的空格时ChatGPT 进一步解释这意味着 Fox News 像止痛药 OxyContin 一样让人上瘾。Hinton 对此感到震惊这种理解力似乎预示着 AI 进入了一个全新时代。虽然大家对 AI 崛起有许多担忧的理由——被抢工作等等。然而Hinton 与许多知名的科技人士站在了一起比如 OpenAI 首席执行官 Sam Altman他们警告称 AI 可能会开始自主思考甚至试图接管或消灭人类文明。当你听到一位如此重量级的 AI 研究者发出如此惊人的观点令人震撼。“很多人说LLM 就是一个很高级的自动补全功能。”Hinton 对我说“现在让我们来分析一下。假设你想成为预测下一个单词的高手。如果你想成为真正的高手就必须理解别人在说什么。”“这是唯一的办法。因此通过训练让某个东西真正擅长预测下一个单词实际上就是强迫它去理解。是的这是确实只是‘自动补全’——-但你并没有想清楚拥有一个极其优秀的‘自动补全’意味着什么”。Hinton 认为像 GPT 这样的 LLM 确实能理解词语和概念的含义。那些怀疑我们高估 AI 能力的人指出——人类思维与神经网络之间有很大的差距。首先神经网络的学习方式与我们不同人类是通过实际经验理解现实世界与自我的关系自然地获取知识而神经网络则是通过处理大量信息库中的数据以抽象的方式学习一个它不能真正生活的世界。然而 Hinton 认为AI 展现出的智慧已超越了其人工的起源。他说“当你吃东西时你会摄入食物然后把它分解成微小的各个部分。但如果你说——我身体里的部分物质由其他动物的部分物质组成。这是不可能的。”Hinton 认为通过分析人类的写作像 GPT 这样的 LLM 能够了解世界是如何运转的从而诞生一个具备思维能力的系统。而写作只是这个系统功能的一部分。他继续说道“这就类似于毛毛虫变蝴蝶的过程。在蛹里毛毛虫被溶解成汤状物质——然后你从这锅汤中构建出一只蝴蝶。”“蜻蜓的幼虫是生活在水下的怪物就像电影《异形》中一样蜻蜓从怪物的背部爬出。幼虫在这个阶段变成了一锅‘汤’然后蜻蜓从‘汤’中诞生了。”在 Hinton 的比喻中幼虫代表了用于训练现代神经网络的数据而蜻蜓则象征从这些数据中诞生的 AI。而深度学习——Hinton 开创的技术——促成了这种蜕变。他轻声说道“你明白了其中的道理。它开始是一种状态最终变成了另一种不同的状态。”显赫家族出了个“不聪明”的小辈当年Google 收购 Hinton 创业公司一部分原因是他的团队知道如何利用神经网络大幅提高图像识别能力。而现在屏幕上铺满了 Hinton 的家谱。Hinton 出生在一个特殊的英国科学世家在政治上激进在科学上探索。叔祖父 Sebastian Hinton 是攀爬架的发明者他的堂姐 Joan Hinton 是参与曼哈顿计划的物理学家Lucy Everest首位当选为英国皇家化学研究所成员的女性。Charles Howard Hinton一位数学家提出了四维空间概念。19 世纪中叶Hinton 曾曾祖父、英国数学家 George Boole 发明了二进制推理系统即现在的布尔代数是所有计算的基础。Boole 的妻子 Mary Everest 是一位数学家和作家。Yann LeCun 的评价是Geoff Hinton 天生就是搞科学的料。虽然学生时代的 Hinton 喜欢自然科学。但出于意识形态他的昆虫学家父亲 Howard Everest Hinton 禁止他学习生物学。他记得父亲曾说“如果你比我努力两倍当你年纪是我两倍大时或许才能达到我一半的成就。”在剑桥大学Hinton 尝试了多个领域。但令他沮丧的是在任何一门课程中他都不是班上最聪明的学生。他曾一度辍学跑去“读一些令人 emo 的小说”并在伦敦打零工然后又回到学校尝试学习建筑学但仅坚持了一天。最后在探索了物理、化学、生理学和哲学后他选择了实验心理学专业。他“潜伏”在道德哲学家 Bernard Williams 的办公室里而后者对计算机与心智的兴趣引发了 Hinton 的深思。某天 Williams 指出我们的不同思想一定反映了大脑内部不同的物理排列而这与计算机内部的情况截然不同——计算机的软件与硬件是相互独立的。Hinton 被这个观点深深吸引。他回忆起高中时一个朋友曾告诉他记忆可能以“全息”的方式储存在大脑中——记忆是分散的但通过任何一个部分都可以访问整体。这正是他后续研究的“连接主义”概念。这种方法结合了神经科学、数学、哲学和编程探讨神经元如何协同工作以“思考”。连接主义的一个目标是创造一个在计算机中模拟大脑的系统。这个领域已经有了一些进展1950 年代心理学家和连接主义先锋 Frank Rosenblatt 建造了一台 Perceptron感知机使用简单的计算机硬件模拟了数百个神经元的网络。当连接到光感器时Perceptron 可以通过追踪不同光线模式激活的人工神经元来识别字母和形状。而 Hinton 在剑桥的起步看似缓慢且略显古怪也有一部分原因是他在探索一个新兴的领域。“神经网络——当时几乎没有顶尖大学研究这个领域” Hinton 说道 “你在麻省理工做不了在伯克利做不了在斯坦福也做不了。”也正因如此Hinton 作为一个新兴技术的开创者。多年来许多最顶尖的头脑都向他靠拢。撬开神经网络“黑盒”而在 1970 年代绝大多数人工智能研究者都是“符号主义者”。在他们看来了解诸如番茄酱这样的事物可能需要涉及多个概念如“食物”、“酱料”、“调味品”、“甜”、“鲜味”、“红色”、“番茄”、“美国”、“薯条”、“蛋黄酱”和“芥末”这些概念结合起来可以构建出一个脚手架用来悬挂新概念如“番茄酱”。一个资金充足的大型人工智能项目 Cyc正是围绕构建一个庞大的知识库展开。科学家们可以使用一种特殊语言将概念、事实和规则以及它们不可避免的例外输入其中。鸟类会飞但企鹅不会受伤的鸟也不会……但是Hinton 对符号人工智能表示怀疑。这种方法似乎过于僵化过于依赖哲学家和语言学家的推理能力。他知道在自然界中许多动物即便没有语言表达也能表现出智能行为。而它们只是通过经验学习来变得聪明。对于 Hinton 来说——学习而不是知识才是智能的核心。人类的高级思维通常似乎通过符号和语言进行。但是Hinton 与他的合作者 James L. McClelland 以及 David Rumelhart 认为大部分的认知活动其实发生在概念层面之下。他们指出“当你学到一个关于某个物体的新知识后你对其他类似物体的预期也会发生变化”。比如当你得知黑猩猩喜欢洋葱时你可能会猜测大猩猩也喜欢。这表明知识可能是以“分布式”的方式在大脑中产生的——由一些可以在相关概念之间共享的小型构建块组成。比如大脑中不会有两个分别代表“黑猩猩”和“大猩猩”的独立神经元网络相反不同的特征比如毛茸茸的、四足的、灵长类的、动物性的、聪明的、野生的等可能会以一种方式激活来代表“黑猩猩”以稍微不同的方式激活来代表“大猩猩”。在这些特征云中可能会加上“喜欢洋葱”这一属性。然而这种由特征构成的思维方式可能会导致混淆和错误如果将特质错误地组合在一起可能会产生一个既不是大猩猩也不是黑猩猩的幻想生物。但如果大脑拥有正确的学习算法它或许能调整神经元之间的权重优先生成合理的组合而不是无意义的拼凑。Hinton 继续探索这些想法先在加州大学圣地亚哥分校做博士后研究然后在剑桥大学从事应用心理学研究最后在卡内基梅隆大学。他于 1982 年成为该校的计算机科学教授。在卡内基梅隆期间他将大部分研究经费用于购买一台足够强大的计算机以运行神经网络。期间Hinton 和 Terrence Sejnowski 合作开发了一个神经网络模型——玻尔兹曼机Boltzmann Machine。1986 年Hinton、Rumelhart 和 Williams 在《自然》杂志上发表了一篇三页的论文展示了一个系统如何在神经网络中工作。他们指出反向传播backprop和玻尔兹曼机Boltzmann Machine一样并不是“大脑学习的一个合理模型”——与计算机不同大脑无法“倒带”来检查其过去的表现。然而反向传播仍然能够实现类似大脑的神经专门化。在真实的大脑中神经元有时会按照解决特定问题的结构排列。例如在视觉系统中不同的神经元“列”可以识别我们所看到的边缘。类似的现象也在反向传播网络中出现。网络的更高层会对较低层施加一种进化压力因此当一个网络被赋予识别手写体的任务时某些层可能会专注于识别线条、曲线或边缘。最终整个系统可以形成“适当的内部表征”。这个网络不仅“知晓”了信息还能加以运用。在 1950 年代和 60 年代感知机Perceptron和其他连接主义connectionism曾短暂兴起又逐渐衰落。反向传播作为其中的一部分也获得了广泛的关注。但构建反向传播网络的实际工作进展缓慢一部分原因是因为计算机的速度太慢。**Hinton 回忆道“进展速度基本取决于计算机一夜之间能学到多少东西。”**而答案往往是“不多”。在概念上神经网络的工作方式则显得神秘。传统编程方式无法直接为其编写代码你不能去手动调整人工神经元之间的权重。而且很难理解这些权重的含义因为它们会通过训练自动适应和改变。在学习过程中错误可能以多种方式发生。例如“过度拟合”会让网络只记住了训练数据而不是从中总结出通用的规律。避免这些陷阱并非易事因为神经网络是自主学习的。研究人员可以尝试通过“集成”技术将弱网络组合成一个强大的网络或“提前停止”让网络学习但不过度学习来应对这些问题。他们还可以通过“预训练”系统即先让玻尔兹曼机学习一些东西再叠加反向传播网络从而使系统在已经掌握了一些基础知识后才开始“监督”训练。然后他们会放任网络继续学习希望它能达到预期目标。新的神经网络架构也应运而生——“循环”网络和“卷积”网络。但这就像研究人员发现了一项陌生的外星技术却不知如何使用。Hinton 说“我始终坚信这不是胡说八道。”这并非出于信仰而是显而易见的大脑通过神经元学习因此通过神经网络进行复杂的学习必然是可能的。为了这一信念他愿意加倍努力并坚持更久。通过反向传播训练网络时网络需要被告知哪里出错了以及错误的程度这要求有大量准确标注的数据这样网络才能区分出手写的“7”和“1”或者区分金毛猎犬和红色雪达犬。然而找到足够大且标注良好的数据集并不容易构建新的数据集更是一项艰苦的工作。LeCun 及其合作者开发了一个包含大量手写数字的数据库后来他们用它来训练一个网络可以读取美国邮政服务提供的样本邮政编码。李飞飞主导了一个庞大的项目——ImageNet其创建过程涉及收集超过 1400 万张图像并手动将它们分为 2 万个类别。随着神经网络的不断扩展Hinton 发明了一种将知识从大型网络传递给较小网络的方法——蒸馏distillation——可以在手机等设备上运行。在蒸馏学习中一个神经网络不仅为另一个神经网络提供正确的答案还能提供一系列可能的答案及其概率这是一种更为丰富的知识传递方式。Hinton 不喜欢反向传播网络。因为与玻尔兹曼机不同“反向传播完全是确定性的。不幸的是它的确效果更好。”随着计算机性能的进步反向传播的威力渐渐变得无可否认。Hinton 做过一个计算。假设在 1985 年他开始不停歇地在一台高速计算机上运行一个程序。如今只需不到一秒钟的时间就可以赶上。进入 2000 年代随着配备强大计算机的多层神经网络开始在大规模数据集上进行训练Hinton、Bengio 和 LeCun 开始讨论“深度学习”的潜力。2012 年这项研究跨过了一个门槛。彼时Hinton、Alex Krizhevsky 和 Ilya Sutskever 推出了 AlexNet这是一个八层神经网络最终能够以人类水平的准确率识别 ImageNet 数据集中的物体。随后三人创办了一家公司并将其出售给了 Google。Hinton 拿这笔钱买下了开篇的那座小岛——“这是我唯一真正的放纵”。他坚信神经网络确实拥有情感2017 年 6 月Hinton、Bengio 和 LeCun 获取了图灵奖相当于计算机科学领域的诺贝尔奖。Hinton 坚信神经网络确实拥有某种情感即对行为倾向的一种描述方式。他在 1973 年见过一个“emo 的人工智能”。当时一台计算机连接着两台电视摄像头和一个简单的机械手臂系统的任务是将散落在桌子上的积木组装成一辆玩具车。“这在 1973 年是相当困难的”他说。“视觉系统可以识别分开的积木但如果你把它们堆在一起它就无法识别。所以它怎么做呢它稍微后退了一点然后砰地一下把积木撒得满桌子都是。**它无法应对当前的状况于是通过暴力改变了局面。**如果是人类这么做你会说他们感到沮丧。那台计算机无法正确地‘看到’积木于是它‘打乱’了积木。”Hinton 认为情感的本质就是对无法拥有之物的渴求。他叹了一口气。“我们不能活在否认之中我们必须面对现实。我们需要思考如何让 AI 对人类的威胁变得不那么可怕。”AI 会变得多么有用多么危险没有人知道。一部分原因是神经网络太神奇了。在 20 世纪许多研究人员想构建模仿人脑的计算机。但尽管像 GPT 这样的神经网络有数十亿个人工神经元在某种意义与人脑相似但它们与生物大脑有着本质上的不同。如今的人工智能存在于云端被安置在庞大数据中心。在某些方面人工智能显得无知而在另一些方面它又如天才般洞悉。它们或许已经通过了图灵测试——由计算机科学先驱 Alan Turing 提出的经典标准如果一台计算机能够在对话中令人信服地模仿人类它就可以被合理地认为在“思考”。然而直觉告诉我们驻留在浏览器标签页中的东西不可能以我们理解的方式真正“思考”。这些系统迫使我们反思人类的思维方式真的是唯一值得认可的思维方式吗担忧来源于凡人计算在谷歌工作的最后几年Hinton 集中精力开发更接近人类大脑思维方式的人工智能使用模拟大脑结构的硬件。在现今的人工智能系统中人工神经元之间的连接权重是以数字形式存储的仿佛大脑在为自己做记录。然而在人类真实的类比大脑中权重直接体现在神经元之间的物理连接中。Hinton 致力于通过专用计算芯片来创建这一系统的人工版本。Hinton 将这种方法称为“凡人计算”。如果能实现那将是极其惊人的。这些芯片能够通过调整它们的“电导”来进行学习。由于权重会被整合到硬件中无法从一台机器复制到另一台机器每个人工智能系统都必须独立学习。但这会使功耗从兆瓦级降低到三十瓦。由此带来的一个好处是鼓励个性化因为人类大脑只需通过消耗燕麦粥等简单食物就能运转世界可以支持数十亿个各不相同的大脑。每个大脑都能够持续学习而不是像当前的人工智能那样在一次训练后被推向世界。Hinton 说在数字智能中如果某台计算机死亡相同的连接权重可以被转移到另一台计算机上。甚至如果所有数字计算机都毁坏了只要你保存了这些连接权重你就可以制造另一台数字计算机并在其上运行相同的权重。成千上万个神经网络可以同时学习成千上万件不同的事物然后共享它们所学的知识。这种永生和可复制性的结合让 Hinton 觉得“我们应当警惕数字智能取代生物智能的可能性”。当前的人工智能技术在物理边界处常常显得笨拙无力。比如 LeCun 表示任何一个青少年都能在大约 20 个小时的练习中学会开车几乎不需要监督任何一只猫都能跳过一连串的家具爬到书架的顶端。今天的人工智能系统在这些方面无一接近完成除了自动驾驶汽车——但它们过度设计要求“将整个城市绘图数百名工程师成千上万小时的训练”。因此解决物理直觉的这些棘手问题将成为未来十年的主要挑战。Hinton 认为对人工智能潜力的怀疑往往源于人类无端的优越感。研究者们抱怨人工智能聊天机器人“幻觉”即在面对无法解答的问题时编造出貌似合理的答案。对此Hinton 不认同“幻觉”一词。他说我们应该说“虚构”。“幻觉”是指你以为有感官输入——听觉幻觉、视觉幻觉、嗅觉幻觉。而只是编造事情那是“虚构”。有趣的是在人类看来编造和说实话之间没有界限。说实话只是正确地编造。从这个角度来看ChatGPT 的编造能力是一个缺陷但也是其类人智能的标志。Hinton 经常被问是否后悔自己所做的工作。他回答并不后悔。毕竟当他开始研究时没人觉得这项技术会成功即使它开始成功也没有人想到它会那么快。正是因为他认为人工智能是真正的智能他期望其将在许多领域做出贡献。虽然他也同样担忧人工智能的未来。两次陷入绝境死磕四十年他一个人扛起 AI1947 年杰弗里·辛顿出生于伦敦他的曾曾祖父是发明布尔代数的人。少年辛顿听说大脑是一个由神经元连接而成的网络记忆存储在神经元之间的连接强度里。大学时发现自己真正想研究的是心智如何从物质中涌现。70 年代初去爱丁堡大学读人工智能博士。导师起初支持神经网络方向但后来转向了符号 AI。符号主义认为智能就是逻辑推理就是规则和符号的操作。神经网络毫无希望。1969 年明斯基用数学证明了简单神经网络无法解决异或问题判了神经网络死刑。找不到工作的辛顿离开英国去了美国继续研究并行分布式处理和连接主义。1982 年物理学家约翰·霍普菲尔德发表了论文把神经网络想象成一个能量系统记忆就是能量最低的那些状态——就像一个球滚入山谷。1983 年辛顿在 Hopfield 网络的基础上发明了玻尔兹曼机让网络自己从数据中学习模式而不是由人类手动编写规则。1986 年辛顿与人一起阐述了反向传播算法你给网络一个任务它做错了然后错误信号从输出层一层一层往回传告诉每个连接你该调大一点还是调小一点。多层神经网络可以学习了。但好景不长——人们很快发现当时的计算机算力太弱数据也太少神经网络在实际应用中表现平平。1987 年之后学术界再次抛弃了神经网络。随后将近二十年辛顿流亡多伦多大学。1989 年辛顿的另一位学生杨立昆在贝尔实验室开发了 LeNet——一个用卷积神经网络识别手写数字的系统。2006 年辛顿发表了一篇关于深度信念网络的论文提出了一种逐层预训练的方法来训练深层网络。2012 年火山爆发。辛顿和他的两个学生用一个叫 AlexNet 的深度卷积神经网络参加 ImageNet 图像识别大赛大获全胜。2014 年辛顿的学生发明了生成对抗网络GAN。AI 从此不仅能识别还能创造。2017 年谷歌大脑团队提出了 Transformer 架构。其根基——注意力机制、梯度优化、大规模参数训练——全都建立在辛顿的地基上。公开警告 AI 可能毁灭人类。他开始恐惧自己的造物。2024 年辛顿在廉价旅馆得知自己获得诺奖。在漫长的一生里辛顿说“我习惯了房间里只有我一个人是对的。”AI 正在毁掉下一个 Hinton原创 发现明日产品的 APPSO 2026 年 3 月 28 日 17:58 广东多年以后面对诺贝尔奖杯Geoffrey Hinton 也许会回想起 1986 年那篇没什么人看好的论文以及几个年轻人愿意陪他一起写代码跑实验的那个下午。今天这样的年轻人正在消失。1986 年Hinton 发表了反向传播算法的关键论文。当时他是一个年轻的认知科学研究者做的方向没什么人看好神经网络在学术界是边缘话题。他有的东西很少一个职位不高的学术岗位、一群愿意跟他一起写代码跑实验的初级研究者以及足够的试错空间。现在这三样东西都在被 AI 吃掉。48 位科学家的答案今年 2 月Nature 采访了 48 位不同学科的研究学者提了一个直接的问题AI 正在威胁哪些科学岗位答案出人意料地一致。正在被替代的是纯认知型任务写代码、跑模型、做数据分析这些曾经是研究生、博士后和初级研究人员的日常工作现在 AI 做得更快更好。MIT 机械工程教授赵宣赫说得直白「这甚至不是未来的事是正在发生的事。」Stanford 计算生物学家 Brian Hie 更绝实验室专门雇来写代码的研究程序员「这个岗位现在已经过时了。」威斯康星大学计算生物学家 Hannah Wayment-Steele 说如果她五年前建实验室一定会招一个研究程序员。但现在「我真的看不到这个必要了。」原因之一当然是预算越来越吃紧但另一个原因也很明确AI。还替代不了的是动手做实验的人、提出原创问题的人、组织协调整个研究项目的人。伦敦大学学院量子物理学家 Jonathan Oppenheim 说AI「没有能力真正提出新颖的想法」。至于 AI 控制实验室「还无法完成很多任务也难以解读实验结果。」这形成了一个奇特的分裂AI 最能够替代的恰恰是科学家职业生涯的起点。这并非科学界独有的现象。过去一年的多项研究都指向同一个结论AI 对劳动力市场的冲击集中在入门级岗位。Revelio Labs 的数据显示自 2023 年以来美国入门级岗位的招聘发布量下降了 35%。Snowflake 与 Omdia 的联合报告发现在所有因 AI 导致的岗位削减中63%发生在入门级别。Stanford 数字经济实验室的研究更具体在 AI 高暴露职业中22 至 25 岁年轻人的就业率自 2022 年以来下降了近 20%。在岗者的失业率没有显著上升但新人的入职率在下降。科学界是这个趋势最清晰也最危险的案例。在大多数行业入门级岗位的消失意味着年轻人少了一个挣钱的机会在科研领域入门级岗位的消失意味着一个学科失去了培养下一代科学家的通道。门票消失了数据分析、写代码、跑模型这些任务听起来是「基础工作」但它们同时是年轻科学家进入学术圈的门票。你不会一上来就成为大牛你得先当研究生帮导师跑数据、写代码、调参数。在这个过程中你学会如何提问、如何设计实验、如何在失败中发现方向。这些才是 AI 做不了的事。但你需要先做那些 AI 能做的事才能学会那些 AI 做不了的事。这就是问题所在。当研究程序员不再必须当研究生名额被压缩当「写代码跑数据」这个入口被 AI 堵死年轻人进入科学共同体的路径就断了。UT Austin 计算生物学家 Claus Wilke 的警告是整篇文章最重的一句话「可能短期内每一块钱的预算可以有更多的产出但代价是人才管道的崩塌和长期衰退。」这句话说得严重点省了一个研究生的工资但可能毁了一个未来的 Hinton。Nature 这篇报道里有一个容易被忽略的细节美国翻译协会科技翻译分会的成员人数在 2.5 年内下降了 26%。曾经翻译临床试验文件的译者 Jaime Russell 现在转行做了医疗口译因为口译需要的实时判断和人际感知AI 还做不到。但她认识的同行里有人已经在送外卖……「很令人难过」她说。这展示了 AI 入局后的两种走向一种是「迁移」你还能找到 AI 够不着的相邻岗位另一种是彻底出局。不过弗吉尼亚大学经济学家 Jerry Qian 对 AlphaFold2 的研究提供了一个更有希望的案例。AlphaFold2 能以接近实验精度预测蛋白质结构成本只是传统方法的零头。Jerry Qian 发现在 AlphaFold 能高置信度预测的蛋白质上人类的实验研究产出下降了 35%。但科学家并没有失业他们转向了 AlphaFold 预测不好的蛋白质专攻 AI 搞不定的难题。「AI 没有让科学家变得无关紧要」人类找到了自己的相对优势。当 AI 跑马圈地在场内的科学家就会迁徙到 AI 边界之外。但关键词是「在场内的」他们有知识、有经验、有判断力知道该往哪迁。AI 正在毁掉下一个 Hinton那下一代还没进场的人呢1986 年的 Hinton 在做什么写代码跑实验调参数。他做的每一件事都是今天 Nature 调查中被列为「正在被替代」的任务。如果他生在今天搞不好连进实验室的机会都没有。尤其是他想做的方向既边缘、又太不确定有没有未来会拿宝贵的资源和预算给到他实属押宝。这个问题的尖锐之处在于**从纯粹经济的角度看这完全理性。**如果 AI 能在两小时内完成一个研究生两周的数据分析工作为什么还要招人经费有限出来混要的是产出不是慈善。Nature 调查中的每一个被砍掉的初级岗位都有充分的局部理由。但当所有局部理性的决策成立时系统性的后果就浮现了整个学科的人才入口在收窄。这是一个经典的集体行动困境**每个个体的最优解加在一起产生了集体的最差解。**短期内论文产量上升长期看科学共同体萎缩。更多的研究更少的研究者。Nature 的调查显示这不是假设它已经在发生。AI 替代的当然不是 HintonAI 替代的是 Hinton 成为 Hinton 之前的那个人。Terence Tao 在 Nature 里说「如果我们适应——我认为我们必须适应——那我们就能存活」。但 Tao 说的是已经在场内的人问题是重点不在于现在的科学家能不能适应而是未来的科学家还有没有机会进场去适应。谁负责培养 AI 做不了的事的人科学究竟靠什么进步有时候就是靠那一点灵光一现靠某个人在某个深夜看着一组异常数据突然想到「等一下如果这不是异常呢」。这种直觉不是从课本上学的是在无数次失败的实验和数据清洗中磨练出来的。2016 年李世石对弈 AlphaGo第 78 手棋超出了 AI 的判断范围被称为神之一手记者捕捉到李世石下场后的笑容. 图片来自news1Hinton 之所以能在神经网络的寒冬中坚持三十年不是因为他有超人的智力而是因为他在早期做过足够多「基础工作」积累了对问题的深层直觉。这些直觉不能被 prompt 出来也不能被 fine-tune 出来。这些支撑起了他在关键时候的一点灵光正如李祀石对战 AlphaGo 时的第 78 手。所以 48 位科学家的答案真正的含义不是「AI 替代不了什么」而是我们正在切断培养「AI 替代不了的人」的唯一路径。人才管道一旦崩塌不是明年的问题是十年后的问题。到那时候AI 也许能写出所有的代码——但谁来告诉它该写什么ReferenceX热点30年冷板凳诺贝尔物理学奖得主Hinton的AI往事https://mp.weixin.qq.com/s/unfM5kXkC7cXp2Z2dgVRxQ两次陷入绝境死磕四十年他一个人扛起AIhttps://mp.weixin.qq.com/s/hvBqiMCCU35F7WX-7nWqBwAI 正在毁掉下一个 Hintonhttps://mp.weixin.qq.com/s/jo8LIamA7NxUIWmAnbCIVg
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2511589.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!