黄仁勋把Token、智能体和万亿美元周期串起来了

news2026/3/27 7:52:31
作者YaraGTC大会前两周的旧金山在摩根士丹利TMT大会上Morgan Stanley 2026 Technology, Media Telecom Conference黄仁勋与摩根士丹利联合主席Dan Simkowitz进行了一场炉边对话。这场对话值得复盘不仅因为黄仁勋罕见地回顾了NVIDIA三十三年的演进史更因为他在对话中抛出了一个足以影响未来十年资本配置逻辑的核心论断“算力等于收入算力等于GDP。”而如果把这场炉边对话放到两周后的GTC主题演讲里再看黄仁勋的逻辑就更完整了在摩根士丹利的场子里他先给出结论——算力会直接转化为企业收入最终也会转化为国家层面的GDP。到了GTC他则阐述的更明确今天的数据中心已经不再只是存储数据的基础设施而是专门“生产token”的AI工厂AI将从生成式走向推理式、再走向能够调用工具、执行任务的智能体阶段一旦软件开始雇佣数字劳动力、企业开始把token当作新产出算力就是新的生产资料。这更像他对下一轮产业的定义。一、从4800万美元IPO到460亿美元季度净利润33年全栈基因的起源对话开场Dan Simkowitz作为提问者首先回顾了与NVIDIA的渊源。27年前他和搭档Mark Edelstone在摩根士丹利交易大厅一个小舞台上向摩根士丹利的销售团队首次介绍了NVIDIA和黄仁勋。当时的数字放在今天几乎像个笑话IPO融资4800万美元年化营收约3000万美元。Dan坦言如今他经常把十亿和万亿搞混——从年度到季度、从百万到百亿NVIDIA的成长轨迹确实让人对数量级产生了某种数字麻木。两年前黄仁勋曾在NVIDIA总部接待摩根士丹利董事会当时刚宣布单季营收300亿美元。而上周这个数字变成了460亿美元的净利润。Dan的问题直奔核心究竟是什么样的战略、文化和技术要素汇聚在一起才能在如此规模上实现这种超高速增长黄仁勋笑着说这个问题大概需要37分13秒来回答也许还要更久一点。随后他自嘲式的补充了一个细节他一直记得NVIDIA上市时股价是13美元但实际上刚才看到的数据是12美元——我把它记得比实际更乐观了。当时公司估值大约3亿美元而Mark Edelstone把投资者准备工作做得太好了以至于整个IPO路演实际上只有一个问题每个投资者都在问同一个问题你们什么时候倒闭黄仁勋说这不是开玩笑而且这个问题的难度跟Dan刚才提的差不多。玩笑之后黄仁勋回到了正题。他说NVIDIA从创立之初就抱着一个核心理念创造一个全新的计算平台一种全新的计算方式。这并不是说旧的方式有什么错而是新的方式对于解决某些特定问题是不可或缺的。NVIDIA擅长的是加速算法——在大多数软件中内循环代码可能只占总代码量的5%但却消耗了99%的计算时间。在那个年代能够被加速的算法还很少而其中最重要的一个就是计算机图形学——模拟光线如何在空间中传播。黄仁勋回忆道NVIDIA成立的时候某本杂志的封面正好是《侏罗纪公园》计算机图形学正在变得越来越强大虚拟现实的模拟成为可能。NVIDIA把这项技术应用于一个当时并不存在的全新行业——电子游戏。三维图形技术在他的时代实现了现代化和消费化整个电子游戏产业也在他的时代被创造出来。他特别强调说当我说在我的时代我的意思是是NVIDIA把这一切整合到了一起。NVIDIA之所以在游戏行业如此根深蒂固、至今仍然如此很大程度上是因为他们从底层算法开始就参与了现代游戏产业的塑造。从图形算法库到游戏引擎中的核心技术没有RTX的贡献今天的计算机图形学行业不会是现在这个样子。黄仁勋的叙述在这里引出了一个关键概念——全栈Full Stack。他说加速计算天然要求全栈能力从架构设计、芯片设计、到上层的库、再到前向集成。二、全栈即护城河从前向部署工程师到重新定义系统架构黄仁勋提到了一个有趣的对比。他说最近好像有个新概念叫前沿部署工程师forward deployed engineers之类的——这里他大概是在调侃某些新兴AI公司推崇的模式——NVIDIA的开发技术工程师33年前就已经在做这件事了。NVIDIA很早就把工程师部署到全球的游戏公司和游戏引擎团队中将自家技术深度集成到合作伙伴的引擎里。这种深度集成的成果是显而易见的如今打开Epic的虚幻引擎NVIDIA的技术无处不在走进任何一家游戏开发商NVIDIA的技术同样无处不在。这就是为什么所有游戏在NVIDIA硬件上运行效果最好——不是巧合而是33年持续投入的结果。全球有数亿活跃的GeForce玩家而其中很多人后来转型成了AI研究人员。黄仁勋提到了一个经典的AI史正是GeForce GTX 580这块显卡促成了深度学习的突破。杰弗里·辛顿深度学习与神经网络先驱Geoffrey Hinton告诉他的学生去买这块卡去发现CUDA然后Alex Krizhevsky辛顿的学生2012年曾参与创建AlexNet神经网络同年加入Google从事深度学习研究和Ilya SutskeverOpenAI联创才有了AlexNet那个改变历史的时刻。从这段回忆中黄仁勋提炼出关于NVIDIA的第一个核心理念“我们是一家全栈公司”。紧接着他引出了有关NVIDIA的第二个核心理念重新定义系统架构的能力。他回顾了一段很多人可能还没出生的老历史当年PC架构与现代计算机图形学的需求根本不兼容NVIDIA创造了一种叫Direct NVIDIA的技术让应用程序能够直接与NVIDIA的API通信绕过一大堆让系统变慢的中间软件层。这项技术后来演变成了DirectX。此外NVIDIA还引入了虚拟化帧缓冲内存到系统内存的概念最初叫AGP后来演变成了PCI Express。换句话说为了让3D图形和电子游戏能够在PC上运行大量的系统架构必须被重新发明。而正是这种既创新全栈技术以集成算法又改变系统架构以创造全新计算机系统的能力最终孕育了DGX-1——全球第一台AI超级计算机。当时这台机器是黄仁勋亲手把它送货到了旧金山附近的一家初创公司而那家公司就是现在的 OpenAI。“这是公司33年的文化基因。”黄仁勋说整个组织就是为全栈而设计的整个系统就是为创造新的技术栈和新的系统架构而设计的。三、从DGX-1到Azure超算全栈系统方法论的延伸与验证黄仁勋讲了个冷知识NVIDIA今天造AI超级计算机的本事其实是当年做游戏显卡练出来的。拿大家熟悉的GeForce显卡来说它绝不仅仅是一块插在主板上的硬件它深深融入了电脑的操作系统和底层架构直接颠覆了电脑的运行方式。因为早就习惯了这种“软硬通吃”的打法所以后来NVIDIA去造世界上第一台AI超算DGX-1以及帮微软Azure云搭建第一台超算完全是轻车熟路、水到渠成。他还爆料了有意思的事儿微软当年的第一台超算跑分数据和NVIDIA的超算竟然一模一样“精确到了小数点后的最小单位”。 为什么这么巧因为微软那台由一万张显卡组成的庞然大物从头到尾都是NVIDIA一手包办设计的当时这台机器用的是基于Ampere架构的A100芯片和InfiniBand网络巧的是这也是OpenAI最早用来“炼丹”的核心算力神器。借着这个故事老黄做出了一个关键论断如果不具备这种全栈、全系统的能力就根本不可能站在技术的最前沿。他强调“NVIDIA每年不是在造一颗芯片而是在造一整套基础设施。”为什么NVIDIA敢这么说因为他们把“命脉”全握在自己手里了不仅自己造GPU还自研CPU并且革新了CPU的设计方式不仅造芯片还发明了让芯片们高速沟通的“桥梁”NVLink以及把所有机器连成一张大网的技术AI以太网标准Spectrum X。老黄的逻辑很简单当你掌控了整个技术栈拥有所有的芯片设计你就能每年进行一次完整迭代。如果你不掌控整个技术栈不拥有核心芯片每年创新一次几乎是不可能的——因为你在试图把一堆各种各样的东西拼在一起要在一年内协调这么多创新如果你无法掌控它就根本不可能做到因为这本质上是一个全栈问题。四、AI的三次拐点从生成式到推理式再到智能体Dan Simkowitz指出在黄仁勋上次出席会议的两年间AI领域经历了从生成式AI、到推理模型、再到代理式AIAgentic AI的飞速演进企业级应用正在与微软、OpenAI、xAI、Gemini等平台深度结合。他想了解黄仁勋如何看待企业级AI市场的规模、变化和未来的采用路径。黄仁勋的回答极为系统。他说仅在过去两年AI就经历了三个拐点。第一个拐点是生成式AI。有意思的是GPT-3这项技术在公众视野里“明晃晃地”摆了好几个月没人特别在意直到有人给它写了一个壳wrapper把它变成了ChatGPT变成了API变成了所有人都能轻松使用的产品。生成式AI的核心能力是将信息从一种形式转换为另一种形式自回归地生成token。但问题在于生成式AI容易产生幻觉。黄仁勋特别澄清说这不是因为技术本身有什么根本性缺陷也不是因为模型没有学到正确的东西而是因为它的输出没有基于上下文信息、没有锚定在相关的事实基础上。第二个拐点是o1和推理能力的出现。o1背后不仅仅是推理还有对研究、对真实信息的锚定以及将生成能力与语义理解相结合的能力。黄仁勋用一个术语来描述这个过程——条件生成conditional generation你即将生成的内容取决于上下文和基础事实取决于你的研究发现。第二代AI引入了推理、自我反思和自我纠错的能力。他打了个比方有时候话说出口之后你会想收回来AI现在有能力在实时过程中做到这一点。o1因此变得更加可靠生成的信息更值得信赖。这意味着什么ChatGPT从一个引发好奇和兴奋的技术玩具变成了真正有用的工具。但代价是它消耗的token量远超第一代可能多出100倍。模型可能大了10倍。综合算下来计算量大约增长了1000倍。再加上因为实用性提升带来的用量增长可能又是100万倍。从o1对比最初的ChatGPT你把使用量乘以实用性就能看到下一个增长阶段的来源。黄仁勋说。但归根结底o1做的事情本质上还是提供信息是一个更加准确的聊天机器人。对很多人来说它替代了搜索。我们的目标不是搜索我们的目标是获得答案。第三个拐点也是当下正在发生的是代理式AIAgentic AI。黄仁勋说这个能力同样在众人眼前明晃晃地存在了很长时间核心就是AI能够使用文件、访问文件、使用工具。现在AI不仅能推理、能思考还能使用工具、解决问题、进行搜索、做规划。五、OpenClaw现象与提示词的范式转移从查询到执行在讨论代理式AI时代时黄仁勋抛出了一个极具冲击力的数据点。他说当前AI领域最重要的软件发布可能是OpenClaw他说“OpenClaw可能是有史以来最重要的软件发布”。他用数据来佐证这个判断Linux花了大约30年才达到某个采用水平而OpenClaw仅用三周就超越了它成为史上下载量最大的开源软件。你去看那个曲线即使用半对数坐标来画它也是笔直朝上的是垂直的。它看起来就像Y轴本身。我从来没见过这样的东西。它就是Y轴。黄仁勋接着说在上一代AI中用户的提示词prompt是什么是什么时候谁是——本质上是查询query。而现在的提示词变成了创建执行构建。上一代是提问这一代是下达任务。你可以尽可能详细地描述你的意图也可以只给一个方向让AI自己推断然后它就去执行了——它思考、做研究、阅读手册、如果需要使用一个从未用过的工具就先去学习那个工具的使用方法、在网上调研、应用工具、完成任务。黄仁勋用NVIDIA内部的情况来说明规模变化。从最初的一个生成式提示对应一个生成式回复到现在代理式AI消耗的token量可能是之前的100万倍。NVIDIA内部称这些代理式AI为Claws它们在后台持续运行为公司写作、开发工具、开发软件。我们公司里有一大堆Claws它们全天候不间断地运行着。这带来的直接后果是NVIDIA自身需要的算力急剧飙升而世界上每一家公司需要的算力也在急剧飙升。六、AI工厂经济学Token就是产品每瓦Token数决定营收天花板接着话题流向了一个投资者最关心的问题如此巨大的算力需求如何融资支撑这些算力所需的资本开支规模惊人从生态系统顶层来看AI工厂的经济模型如何运转黄仁勋先纠正了一个概念。他说几年前他就开始把这些设施称为AI工厂而非数据中心。数据中心是存储数据的地方但这些新设施的根本目的是“生产token”。一个以生产token为核心目的的设施就是一座工厂。当时人们说Jensen这个词听起来好土啊’但它确实在生产token。没有人愿意建数据中心因为谁知道数据中心的投资回报率是多少但所有人都愿意建工厂因为工厂能赚钱。黄仁勋进一步指出这些工厂直接生产tokentoken可以变现。算力越大token产量越高。token产量越高营收越高。我们现在确切地知道公司的收入与算力直接相关这是事实。他类比说这跟奔驰受限于产能没什么区别。如果OpenAI现在有更多算力它的收入就会更高。由此引出第一个大判断算力等于收入。更宏观地说算力等于GDP。一个国家的GDP也与其算力直接相关。紧接着是第二个大判断NVIDIA之所以在这个领域遥遥领先是因为其系统是从底层开始、端到端全栈设计的生成token的效率极高。NVIDIA的每瓦token数领先竞争对手一个数量级。黄仁勋把这个技术指标与商业逻辑直接挂钩你的工厂有1吉瓦的电力供应如果你的每瓦token数是竞争对手的10倍那你的收入就是竞争对手的10倍。这是历史上第一次一家公司数据中心里选择什么计算架构必须经过CEO亲自审批因为公司明年只有1吉瓦或者2.3吉瓦的电力配额如果放进了错误的系统来年的收入就会受到影响。我向你保证我们亲眼见证了这一点。他引用了一家名为Semi Analysis的机构所做的基准测试来说可能是业界最详尽的基准测试结果是NVIDIA被评为推理之王Inference King推理性能的衡量标准包括每秒token数、每瓦token数、每美元token数。NVIDIA在所有指标上都大幅领先——不是稍微领先是一个数量级的领先。这意味着NVIDIA生产的token可能是最便宜的。因此在所有AI工厂都受到电力限制的现实下每瓦token数就是决定一家公司营收天花板的最关键指标。决策者必须极其审慎地做出选择。这不再是PPT上的数字了。你不会拿500亿美元去赌在某人的PPT上。七、约束即优势供应链战略与资产负债表的战略价值Dan Simkowitz提到当前算力扩张面临的多重瓶颈内存短缺、电力许可审批缓慢、德克萨斯州的电工都不够用了他问黄仁勋如何看待这些约束以及如果建设周期拉长对行业是否会产生负面影响。黄仁勋的回答出人意料地乐观。“我喜欢约束。”他说因为在一个资源受限的世界里你别无选择只能选最好的你没法浪费你的选择机会。如果土地、电力和外壳都是稀缺的你不会随便放个什么东西进去试试看你会选择一个你确信能交付最佳每瓦token数的方案一个你确信从签约的那一刻起就能帮你把整座工厂立起来的合作伙伴。我们是全世界唯一一家能够走进你的公司、帮你从零建起一整座AI工厂的公司。黄仁勋半开玩笑地说在座如果有谁需要一座AI工厂给我们打电话接下来你就进入了AI工厂这门生意。他进一步解释了NVIDIA的供应链战略。NVIDIA用资本来锁定供应链当微软CEO萨提亚·纳德拉说帮我建几个吉瓦的算力时答案是没问题。因为NVIDIA已经确保了所有的存储芯片、所有的晶圆、所有的封装、所有的系统、所有的连接器、所有的线缆——从铜到多层陶瓷电容器一切都已锁定。黄仁勋由此强调了一个经常被忽视的观点NVIDIA强大的资产负债表不仅仅是有用的helpful而是具有战略性strategic意义的。当你需要设备制造商为你建一座DRAM工厂时你走进去说放心建吧我会用的”这句话的分量很多厂商直接拿去当银行担保了。当一切都是稀缺的时候约束反而对NVIDIA有利。因为约束意味着客户必须做出最优选择而最优选择几乎总是指向NVIDIA。Dan Simkowitz对此评价说这种格局创造了久期duration而久期对NVIDIA而言意味着非凡的竞争优势。他进一步指出NVIDIA可能是历史上最大的现金流生成器并且把这些资本用于构建生态系统的稳定性和多样性。黄仁勋回应说当年Mark带他上市的时候他可能没有今天这么激昂但他相当确定自己说的是同样的事情。加速计算天然要求NVIDIA构建生态系统。通用加速计算系统不存在。加速计算在定义上就是专有的——NVIDIA的指令集、架构、微架构与任何其他公司都不兼容。NVIDIA的做法是把这些复杂性隐藏在层层抽象之下让用户感觉一切都在被加速。如今NVIDIA加速的领域涵盖数据处理、分子动力学、流体动力学、粒子系统、生物学、化学、深度学习、机器人、长序列处理、空间计算、3D——你能想到的几乎所有领域。Dan Simkowitz插了一句听起来像个五层蛋糕。黄仁勋笑着回应没错就是五层蛋糕。但因为我们做了这么久看起来好像一切都是同时被加速的其实不是。是我一个一个领域、一步一步做出来的直到所有重要的计算领域都被完全加速了。在上游投资方面黄仁勋说NVIDIA正在为未来培育新的生态系统。所有投资的AI原生公司、所有合作伙伴都在扩展CUDA生态。我们做的每一件事情100%都建立在CUDA之上。我们每一笔投资都建立在CUDA之上。八、300亿美元投资OpenAI与净新增需求MSL、AWS与算力大扩张对话在这里引入了一些重要信息披露。黄仁勋证实NVIDIA已经敲定了对OpenAI的投资协议最终金额为300亿美元而非之前传闻的1000亿美元。他解释说1000亿美元的投资可能不太现实原因很简单OpenAI将在年底上市。一旦上市这种规模的战略投资窗口就关闭了。所以这可能是我们最后一次有机会投资这样一家具有重大影响力的公司。接着黄仁勋分享了几条他希望投资者充分理解的最新进展。首先在过去一年左右NVIDIA将OpenAI的算力覆盖范围从微软Azure扩展到了甲骨文OCI现在又扩展到了AWS。我们正在疯狂帮AWS扩容我们在尽全力提速让OpenAI能够获得更多的算力。但OpenAI的收入质量非常好所以我们需要为他们上线的算力规模就需要给他们更多、更多的容量。他说。其次一个全新的AI实验室横空出世MSLMeta Superintelligence Labs。这是Meta旗下的新实验室需要数百万个GPU。关键在于MSL的需求是在Meta原有需求基础上的净新增。我们跟Meta合作了很长时间MSL是在Meta之上的净新增需求。所以我们的需求曲线从极高变成了比极高更高。九、物理AI建筑之外的万亿美元前沿Dan Simkowitz接着把话题转向了物理AI。他半开玩笑地说他想“带着新狗和新机器人一起遛弯”物理AI会不会把可触达市场和token需求带到一个全新的量级黄仁勋对这个方向显然充满热情。他说目前AI做的所有事情基本上都发生在建筑物内部但最终最大的产业是在建筑物外面这些产业需要AI具备物理感知、物理理解能力、因果关系你推一个瓶子它会倒、引力、碰撞、惯性、物体恒存性你把一个东西放到椅子后面你看不见它了但你知道它没有消失这些物理直觉对物理行为和物理智能至关重要。黄仁勋随后列举了一系列进展NVIDIA的Cosmos是全球下载量最大的物理AI模型。在自动驾驶领域NVIDIA的模型Alpamayo排名世界第一。在人形机器人领域Groot N2是全球下载量最大的人形机器人模型。在数字生物学领域La Pertina取得了令人瞩目的成功。此外还有Earth 2等用于多物理场模拟的模型。我们在物理AI、AI物理学、自主驾驶AI、人形机器人AI、数字生物学AI的前沿每一个方向上都处于领导地位黄仁勋说而且所有这些模型都是完全开源的“我们把它们开源因为我们希望每一家公司无论是新行业还是传统行业都能利用这些能力。我们有完整的技术栈和必要的计算设备帮助你为自己的应用场景推进AI然后把它部署到机器人里、工厂里、边缘设备上、无线基站上部署到任何地方。这是下一个前沿。”黄仁勋预判两年之内我们基本上不会再花大量时间讨论代理式AI了因为到那时候所有人都已经在用了。两年后如果你们再邀请我来我们谈论的将是所有这些新公司。他提到了一个重要案例NVIDIA与制药巨头礼来Eli Lilly宣布建立联合创新实验室他说后续还会有更多类似的合作。但关键在于要为礼来搭建一座AI工厂如果你没有NVIDIA的能力、没有这套完整的软件栈、没有所有这些模型、没有数字生物学领域的深厚积累“你怎么做得到”“物理AI这个话题未来两到三年开始我们会讨论十年。”老黄强调。十、万亿美元的融资逻辑软件产业的Token化转型与算力即GDP说到这里Dan Simkowitz问到一个现实问题钱从哪里来黄仁勋讲了他对整个AI投资周期融资逻辑。黄仁勋说首先你得相信两个前提。第一软件很重要“我希望在座的观众都同意这一点软件驱动着整个世界。”第二未来不会存在任何不具备智能体能力的软件。“你们同意吗你怎么可能有一个完全静态的、不会自主行动的软件呢”因此每一家软件公司都将成为一家智能体公司它们会同时使用开源模型自己下载、自己微调的模型和闭源模型。老黄做了个类比每家公司既有自己招聘和培养的员工也有外包的承包商还有特定领域的专家顾问公司的任务不是自己做所有的事情而是确保事情被做成。AI模型也是同理有些你自己建有些你租用这完全合乎逻辑。就像你对待生物员工一样你也会这样对待数字员工。黄仁勋接着做出了一个对整个软件行业影响深远的预判未来每一家软件公司不仅出租工具还会同时出租使用工具的专家因为它们的智能体会在使用自家专业工具方面变得极其精通。今天的IT产业大概是两万亿美元规模基本上是工具出租商。他说。在未来它们还会出租智能体使用这些工具的智能体这意味着未来的软件产业将远大于今天的规模。他点了几个具体的名字Cadence会比现在大得多Synopsys会比现在大得多西门子会比现在大得多。但它们的商业模式会发生根本性变化从纯粹的软件许可公司变成同时出售专业化token的公司。这意味着今天这个几乎不消耗任何token的两万亿美元产业未来将成为token的超级消费者。“钱就从这里来。”黄仁勋说”整个IT产业将要转移巨额的资源去消费云端的token无论是开源模型还是闭源模型。”在对话的尾声Dan Simkowitz抛出了股价相关的问题。黄仁勋说他当然关心股价关心股东关心员工关心在场的每一个人他提到NVIDIA刚刚交出了“财报历史上最好的一份季报”有人告诉他这可能是人类历史上最好的单季业绩他说这肯定只是有记录的人类历史我确信历史上有人的回报率更高。然后他回到了他的核心论断做了最终的预测你无法阻止这只股票。原因很简单算力等于公司的收入。未来每一家公司都需要算力来创造收入。算力转化为智能智能转化为数字劳动力数字劳动力转化为收入。我确信算力等于收入。我也确信算力等于GDP。因此每个国家都会投资算力未来不会有任何一个国家说我们决定放弃智能我们不需要。如果你需要智能你就需要AI你就需要算力。他接着阐述了资金来源的完整路径第一所有的云服务商已经将全部资本开支转向了“生成式AI”和“代理式AI”系统因为它让搜索更好、让购物更好、让广告更好、让社交更好几乎每一项互联网服务都因为AI而变得更好。Meta已经证明了这一点Google已经证明了这一点AWS已经证明了这一点。所以整个互联网行业可以将100%的资本开支转向AI。第二整个软件行业将变成token驱动的无论你选哪家软件公司他都能告诉你它将如何变成token驱动的要么自己生产token需要算力要么转售token也需要算力。所以这是历史上第一次整个IT产业将必须由算力来驱动。这就是这数万亿美元资金的来源。而我们还处在这一切的起点。这就是我的预测。老黄最后强调。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2444666.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…